s
Доцент Морозов Михаил Владимирович: официальный сайт

Михаил Владимирович Морозов:
персональный сайт

А Г Д К Л М П Р С Т У Х Я

Мат.модели (консультация 2): Почему квадраты?


ТЕКСТ В ПРОЦЕССЕ НАПИСАНИЯ! ЧИТАТЬ ЗАПРЕЩЕНО!!! даже одним глазком!

В математической статистике, как в настоящем искусстве, роль квадратов чрезвычайно велика.

 
Черный квадрат Малевича. Хи-квадрат Пирсона.

Каждый, кто изучал статистику, вероятно, помнит (не пишу "должен помнить", суеверен...), что общая дисперсия значения, зависящего от разных факторов, равна сумме дисперсий этих факторов (если знаете более правильную формулировку, не придирайтесь, я начинаю издалека).

Итак: итоговая дисперсия = сумма частных дисперсий. Но дисперсия - это квадрат станартного отклонения - σ2. Иными словами:

для y = x1 + x2 + ... + xn верно σy2 = σx12 + σx22 + ... + σxn2.

В переводе на человеческий язык это означает, что, хотя мерой отклонения значения от "истины" является стандартное отклонение, но общее итоговое отклонение величины, зависящей от ряда частных факторов, определяется как взаимодействие квадратов отклонений, соответствующих этим факторам.

Похожая картина возникает при проверке совпадения двух распределений по критерию Пирсона, известному также как хи-квадрат. Критерий Пирсона считается как сумма квадратов частных отклонений одного распределения от второго, если мы разобьем весь интервал сравнения на части:

Можно сказать проще: чтобы сравнить по Пирсону два распределения, нужно представить оба в виде гистограмм по одинаковым карманам (интервалам), а потом сложить квадраты разностей высот соответствующих столбцов двух гистограмм, нормированные на высоты столбцов.

Так что знаменателя не бойтесь: он служит для нормирования, т.е. для придания квадрату в числителе "веса" - чем выше теоретический столбец гистограммы, тем менее существенно отклонение между ним и эмпирическим распределением.

Далее: определяя оптимальное уравнение регрессии, мы и тут в качестве критерия используем сумму квадратов разностей эмпирических точек и точек расчетной линии регрессии (метод наименьших квадратов).

Налицо общий принцип. Обратим внимание еще на одно сходство: все складываемые квадраты (в каждом из трех примеров) полностью независимы друг от друга:

1) частные дисперсии факторов x1 ... xn друг от друга не зависят;
2) столбцы эмпирической гистограммы никак не связаны друг с другом;
3) "отскоки" экспериментального графика от линии регрессии также индивидуальны и не связаны между собой.

Да ведь и сама дисперсия, базовый параметр в статистике, определяется не иначе, как сумма квадратов частных не зависящих друг от друга отклонений (сумма эта нормирована, как и хи-квадрат):

Иными словами, каждое отклонение, которое мы возводим в квадрат никак не связано по своей величине с величиной другого отклонения. Между ними нет никакой корреляции, поэтому их называют некоррелированными. Взаимодействие этих отклонений между собой дает картину "общего" отклонения. А взаимодействуют они просто: для примера рассмотрим взаимодействие двух отклонений. Где два - там и десять, и сто два, и любое n.

Итак, статистические критерии соответствия между собой двух моделей (например, идеальной формулы и наблюдаемой зависимости или двух наблюдаемых меножеств) состоят, обычно, в сравнении расхождений между моделями. Статистическое подтверждение того, что расхождения не превышают приемлемый для работы уровень, состоит в многократном повторении измерений. Соответственно, если мы сравниваем две модели, нужно многократно проверить их частные особенности. Скажем, сравнение двух зависимостей в координатах "икс - игрек" покажет их сходство, если на каждом отрезке сравнения, двигаясь по оси "икс", мы будем наблюдать несущественные расхождения по значению "игрека". Это, вкратце, суть критерия Пирсона. результаты по каждому отрезку сравнения при этом независимы друг от друга, т.е. размер расхождение по одному из них не обязывает величину расхождения по другому отрезку принимать то или иное значение. Точно так же, расхождение частного измерения и среднего при расчете дисперсии никак не влияет на величину расхождения со средним каждого следующего частного измерения. Итоговое расхождение, как результат накопления расхождений ("отклонений") аналогично итоговому отклонению от цели при стрельбе, когда на результат стрельбы влияют полностью независимые факторы.

Наш пример таков: охотнику мешают попасть в цель два мышонка - Серый и Белый, которые не нашли себе лучшего занятия, пока кот Леопольд уехал в командировку.

SD

1

1

1





Опубликовать в своем блоге livejournal.com


Error. Page cannot be displayed. Please contact your service provider for more details. (19)






Энциклопедия
Найти

Голос Севастополя

Сайт Сделано у нас

Благотворительный фонд АдВита. Сбор пожертвований на лечение онкологических больных

Элементы       Все о Геологии

Перископ ГК Теллур
РМО Бродячая Камера