Статистические методы в психологии Методологические основы тестирования статистических гипотез Критерий верификации Проблемы: 1. сколько свидетельств надо? 2. проблема неполной индукции (Карл Поппер – Постпозитивизм) – критерий фальсификации Прохазка и Норкросс (2007) Системы психотерапии Методологические основы тестирования статистических гипотез Ошибка 1 и 2 рода Выборка и популяция Основное свойство репрезентативность Полезные ссылки и адреса Скачать пробную версию СПСС http://www14.software.ibm.com/webapp/downl oad/search.jsp?pn=SPSS+Statistics Электронный учебник по статистике www.statsoft.ru Страница с заданиями и презентацией http://susu-psychometrics.wikispaces.com/ Электронная почта popov-research@mail.ru Понятие распределения Распределение – это набор данных, упорядоченный по частоте встречаемости признака Пример распределения Нормальное распределение Математические характеристики распределений Меры центральной тенденции Меры разброса Меры центральной тенденции Среднее арифметическое (mean) Мода (mode) Медиана (median) Мода Мода – числовое значение, которое встречается в выборке наиболее часто 5 5 6 6 7 7: моды нет (амодальное распределение) 1 2 2 2 5 5 5 6: мода=3,5 1 2 2 2 3 4 5 5 5 6: моды две (2 и 5). Бимодальное распределение Медиана Значение, которое делит упорядоченное множество данных пополам 3 4 5 8 9 11 13: Me=8 1 4 9 11 13 20: Me=10 Меры разброса Размах Дисперсия Стандартное отклонение (standard deviation, std.dev.) Стандартное отклонение Дисперсия и размах Размах: R = Xmax – Xmin (range) Дисперсия (s2, D, v) = стандартное отклонение в квадрате. (variance) Основные характеристики нормального распределения Среднее = медиана = мода Зоны нормы * Зоны нормы Среднее плюс/минус 1 сигма = 68.3 процента людей («норма») Среднее плюс/минус 2 сигма = 95.4 процента людей («границы нормы») Среднее плюс/минус 3 сигма = 99.9 процента людей Среднее плюс/минус 0.5 сигмы = «абсолютная норма» Зоны нормы Стандартизованные шкалы Z-оценки Т-баллы = 50 + 10*z IQ = 100 + 15*z Стены = 5.5 + 2*z Стенайны = 5 + 2*z Процентили= процент людей в выборке, которые выполнили тест так же или хуже (от 0 до 100) В z-оценках среднее=0, стандартное отклонение = 1 Три граничные значения z Z = +/- 1.96 (95.4 процента людей, плюс-минус две сигмы) Z = +/- 2.58 (99 процентов людей) Z = +/- 3.29 (99.9 процентов людей) p<0.05 p<0.01 p<0.001 Интервалы доверия Интервал доверия – диапазон данных, в которых с вероятностью 95, 99 или 99.9 процента находится «реальное» среднее арифметическое в генеральной совокупности (популяции) Выборочное распределение и стандартная ошибка Выборочное распределение средних – распределение средних арифметических из большого количества возможных выборок, которые набираются из популяции (мысленный эксперимент) Стандартная ошибка среднего (Standard error of the mean) – стандартное отклонение в выборочном распределении Стандартная ошибка среднего Формулы интервалов доверия (95, 99, 99.9) Проверка распределения на нормальность Сравнение асимметрии (skewness) и эксцесса (kurtosis) со стандартными ошибками асимметрии и эксцесса Критерий Колмогорова-Смирнова (тест должен быть статистически незначимым, т.е. P (sig.) должен быть > 0.05. «На глазок»: визуальное сопоставление эмпирического распределения с теоретически ожидаемым нормальным Проверка распределения на нормальность Проверка распределения на нормальность Важно помнить о том, что критерий Колмогорова-Смирнова зависит от N. С большим количеством человек (больше 100-150) критерий слишком чувствителен, т.е. отвергает нормальность слишком часто. Параметрика и непараметрика Все статистические процедуры делятся на 2 вида: Параметрическая статистика (предполагает нормальность распределения) Непараметрическая статистика (такого допущения не имеет) Предпочитают параметрическую, потому что непараметрическая статистика: 1) неустойчивее, 2) чувствительнее к отдельным индивидуальным результатам, 3) непараметрика существует не для всех задач, напр., нету такой штуки, как непараметрический факторный анализ Одномерная и многомерная статистика Все статистические процедуры делятся еще на одномерные и многомерные В одномерных либо сравниваются две группы, либо исследуется связь двух переменных В многомерной статистике – больше двух групп либо больше двух переменных (одновременно). Мы изучаем одномерную Одномерная статистика включает в себя: меры различий и меры связи Одномерная статистика: Меры различий Параметрические (например, Ткритерий Стьюдента) Непараметрические (например, Uкритерий Манна-Уитни) Цель – исследовать разницу в двух средних арифметических Т-критерий Стьюдента Для независимых групп (следует ожидать высокой несистематической вариативности) Для зависимых групп (несистематическая вариативность низкая) На практике это обычно означает следующее: Для независимых групп = 2 группы, один замер Для зависимых = 1 группа, 2 замера Вариативность ( дисперсия) Систематическая (часть вариативности = дисперсии, которая объясняется экспериментальным воздействием) Несистематическая (часть вариативности, которая объясняется побочными факторами, например, индивидуальными различиями испытуемых) Пример с обезьянами и стихотворчеством Одну группу обезьян кормим бананами, другую – капустой. Ждем миллион лет и оцениваем среднее количество стихотворений, которые они настучали, сидя у клавиатуры. Чем обусловлена разница в 2 балла? Т-критерий Стьюдента для независимых групп Образное представление в виде «облачков» U-критерий Манна-Уитни Человек Результат Ранг 1 4 5 1 2 7 1 1 12 8 1 2 2 1 8 2 6 3 2 2 3 5 6 4 Сумма рангов 15 21 U-критерий Манна-Уитни Логика вычисления: Проставляются ранги Вычисляется сумма рангов внутри двух групп Возможные аргументы: Если суммы рангов очень разные, разница между группами большая Таким образом, не применяем «параметры» - среднее и стандартное отклонение. Поэтому критерий называется непараметрическим. Одномерная статистика: Меры связи Параметрические (например, коэффициент корреляции Пирсона) Непараметрические (например, ранговый коэффициент корреляции Спирмена) Цель – исследовать взаимосвязь двух переменных Коэффициент корреляции Пирсона Корреляция – мера линейной связи между двумя переменными Располагается от -1 до 1 Проблемы интерпретации корреляционной связи Причинность. Корреляцию нельзя интерпретировать в терминах причинно-следственной взаимосвязи Криволинейность. Проблема третьей переменной Проблема выбросов Ранговый коэффициент корреляции Спирмена Непараметрический аналог Пирсона Коэффициент детерминации При возведении корреляции в квадрат получается коэффициент детерминации = доля объяснимой дисперсии Интерпретация величины эффекта Cohen (1988): 0.1 – 0.3 – слабая взаимосвязь 0.3 – 0.5 – умеренная взаимосвязь 0.5 - 0.7 - сильная взаимосвязь Больше 0.7 – очень сильная взаимосвязь