Відмінності між версіями «Розкладання дисперсії на складові»

(Створена сторінка: {{Завдання|Пріян Н.|Назаревич О. Б.|14 березня 2012}})
 
 
(Не показані 9 проміжних версій 2 користувачів)
Рядок 1: Рядок 1:
 
{{Завдання|Пріян Н.|Назаревич О. Б.|14 березня 2012}}
 
{{Завдання|Пріян Н.|Назаревич О. Б.|14 березня 2012}}
 +
 +
Розглянемо задачу розкладання дисперсії як характеристики коливальності (розкиду, розсіювання, зміни) на простому абстрактному прикладі.
 +
 +
Нехай вимірювана величина <math>y</math> набувала в <math>N</math> дослідах таких значень <math>y_1,y_2,y_3, ..., y_k, ..., y_N</math>, які характеризуються деякими середніми <math>\overline{y}</math> та оцінкою дисперсії <math>S_y^2</math>. Відкладемо результати вимірювань <math>y</math> на осі ординат (рис. 1), а вісь абсцис для одного із випливаючих на <math>y</math> фаторів <math>x</math>.
 +
 +
[[Файл:Img1.jpg‎ ]]
 +
 +
Рисунок - 1
 +
 +
 +
Відрізком довжиною <math>S_y</math> зобразимо показник загального розкиду значення <math>y</math> (скористатися дисперсією <math>S_y^2</math> не можна, оскільки її розмірність не збігається з розмірністю <math>y</math>). Припустимо, що одночасно з <math>y</math> реєструвалася величина певного фактора, який за припущенням впливає на <math>y</math>. Цей фактор в усіх дослідах набував лише трьох значень. Результати сумісних вимірювань пар значень <math>y</math> і <math>x</math> зображено на рис. 2. помітна загальна тенденція зростання <math>y</math> зі збільшенням <math>x</math>. Однак говорять лише про зміни <math>y</math> у середньому. оскільки в окремих випадках спостерігається , наприклад <math>y_1>y_5</math>, хоча <math>y_5</math> відповідає більшому <math>x</math>. Ішими словами, кожному <math>x_i</math> відповідає середнє <math>y_i</math>, яке можна розрахувати у даному випадку за чотирма значеннями <math>y</math>. Умовні середні <math>y_i</math> зображено на рис. 3. Розглядаючи <math>\overline{y_i}</math> як самостійні значення, говорять про їх розкид відносно загального середнього <math>\overline{y_i}</math>. Охарактеризуємо цей розкид величиною <math>S^2_{y/x}</math>, яка при певному числі дослідів (в даному випадку 3) залежить від суми квадратів відхилень умовних середніх <math>\overline{y_i}</math> від загального середнього <math>\overline{y}</math>.
 +
 +
[[Файл:Img2.jpg‎ ]]    [[Файл:Img3.jpg‎ ]]
 +
 +
Рисунок - 2          Рисунок -3 
 +
 +
 +
Природно, що від того, наскільки зміни <math>x</math> впливають на середні зміни <math>y</math>, залежать значення <math>S^2_{y/x}</math>  і показник загального розкиду <math>S^2_y</math>.
 +
Зазначимо, що при одному й тому ж значенні <math>x</math> в чотирьох дослідах дістали різні значення <math>y</math> (див. рис. 2). Наявність даного розкиду при фіксованому значенні фактора <math>x</math> пояснюється діянням невраховуваних факторів <math>z</math>, тобто різними випадковими причинами. Не виділяючи будь-яку з них, охарактеризуємо сумарний ефект від них залишковою дисперсією <math>S^2_{y/z}</math>, яка, представляючи розкид результатів вимірювань <math>y</math> відносно <math>\overline{y}</math>, залежить від суми квадратів відхилень <math>y</math>, виміряних при кожному значенні <math>x</math>, від відповідних умовних середніх <math>\overline{y_i}</math>. На рис. 3 відрізками зображено показник розкиду для кожного <math>x</math>, а також показник розкиду <math>S_{y/x}</math> середніх значень <math>\overline{y_i}</math>.
 +
 +
Очевидно, що, коли усунути вплив невраховуваних факторів, розкид <math>y</math> при фіксованому <math>x</math> не спостерігатиметься і загальний розкид <math>y</math> визначатиметься тільки діяннями <math>x</math> (див. рис. 4). З іншого боку, якби вплив фактора <math>x</math> на <math>y</math> був відсутній, а випадкові причини виявляли своє діяння (див. рис. 5), то загальний розкид <math>y</math> визначався б тільки ними і характеризувався лише залишковою дисперсією від діяння невраховуваних факторів.
 +
 +
[[Файл:Img4.jpg‎ ]]    [[Файл:Img5.jpg‎ ]]
 +
 +
Рисунок - 4            Рисунок - 5
 +
 +
 +
Детально розглянемо основні принципи сучасного експерименту: рандомізацію, багатофакторність, оптимізацію та автоматизацію. Пояснимо перший з них. Дисперсійний аналіз стає об’єктивним інструментом дослідження лише при умові, що кожне значення змінної вибрано з генеральної сукупності випадковим чином. Відбір випадкових значень змінної, який забезпечує однакову імовірність потрапити до вибірки будь-якого з них для всієї генеральної сукупності, називається рандомізацією (від англійського random – вибраний навмання). У біометрії це слово прийнято записувати і вимовляти як рендомізація. Щоб забезпечити однакову імовірність для будь-якого члена генеральної сукупності, найчастіше користуються таблицею випадкових чисел.
 +
 +
Таким чином, при сумісності діяння фактора <math>x</math> та випадкових причин <math>z</math> наступною буде рівність
 +
<math>S^2= S^2_{y/x}+ S^2_{y/z}</math>,
 +
яка і виражає властивість адитивної дисперсії.
 +
 +
Зазначимо, що ця формула правильна лише при незалежних (некорельованих) факторах, які впливають на <math>y</math>. У противному разі вона ускладнюється:
 +
<math>S^2= S^2_{y/x} +  S^2_{y/z} - 2 S_{y/x} S_{y/z} r_{xz} </math>,
 +
де <math> r_{xz}</math> - коефіцієнт кореляції.
 +
 +
Формула адитивності дисперсії є основною всього дисперсійного аналізу. Її застосування часто зустрічається з боку експерименту внутрішній опір. Оскільки при всій своїй простоті вона не є очевидною. Тому, перш ніж дістати на основі цієї формули розрахункові рівняння, доведемо її правильність. Для цього скористаємось формальним перетворенням суми квадратів відхилень від загального середнього:
 +
<math>\sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y})^2 = \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i} + \overline{y_j} + \overline{y})^2 + \sum_{j=1}^n \sum_{i=1}^m [(y_{ij} - \overline{y_i}) + (\overline{y_i} - \overline{y})]^2 = </math>
 +
 +
<math> = \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})^2 + \sum_{j=1}^n \sum_{i=1}^m (\overline{y_i} - \overline{y})^2 + 2\sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})(\overline{y_i}-\overline{y}) </math>.
 +
 +
Враховуючи, що
 +
<math> \overline{y_i} = \frac{\mathrm 1}{\mathrm n}\, \sum_{j=1}^n y_{ij} </math> ;
 +
 +
<math> \overline{y} = \frac{\mathrm 1}{\mathrm mn}\, \sum_{j=1}^n \sum_{i=1}^m y_ij = \frac{\mathrm 1}{\mathrm m}\, \sum_{i=1}^m \frac{\mathrm 1}{\mathrm n}\, \sum_{j=1}^n y_{ij} = \frac{\mathrm 1}{\mathrm m}\, \sum_{i=1}^m \overline{y_i} </math>;
 +
 +
<math> \sum_{j=1}^n \overline{y_i} = n \overline{y_i} </math> ;
 +
<math> \sum_{j=1}^n \overline{y} = n \overline{y} </math> ,
 +
 +
покажемо, як останній доданок при розкладанні перетворюється в нуль:
 +
 +
<math> \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})(\overline{y_i}-\overline{y}) = \sum_{j=1}^n \sum_{i=1}^m y_{ij}\overline{y_i} - \sum_{j=1}^n \sum_{i=1}^m \overline{y_i} \overline{y_i} - </math>
 +
 +
<math>  - \sum_{j=1}^n \sum_{i=1}^m y_{ij} \overline{y} + \sum_{j=1}^n \sum_{i=1}^m \overline{y_i} \overline{y} = \sum_{i=1}^m \overline{y_i} n \frac{\mathrm 1}{\mathrm n}\, \sum_{j=1}^n y_{ij}-</math>
 +
 +
<math> -  \sum_{i=1}^m \overline{y_i} \sum_{j=1}^n \overline{y_i} - mn \frac{\mathrm 1}{\mathrm mn}\, \sum_{j=1}^n \sum_{i=1}^m y_{ij} y + m \frac{\mathrm 1}{\mathrm m}\, \sum_{i=1}^m y_i \sum_{j=1}^n \overline{y} = </math>
 +
 +
<math> = \sum_{i=1}^m n \overline{y_i} \overline{y_i} - \sum_{i=1}^m n \overline{y_i} \overline{y_i} - m n \overline{y} \overline{y} + m n \overline{y} \overline{y}= 0 </math>
 +
 +
Отже,
 +
 +
<math> \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})^2 = \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y})^2 + \sum_{j=1}^n \sum_{i=1}^m (\overline{y_i} - \overline{y})^2 </math>,
 +
 +
що й треба було довести, оскільки
 +
<math> S^2_y  \approx  \sum  \sum (y_{ij} - \overline{y})^2 </math>;    <math> S^2_{y/x}  \tilde  \sum  \sum (y_{ij} - \overline{y_i})^2 </math>;    <math> S^2_{y/z}  \approx  \sum  \sum (\overline{y_i} - \overline{y})^2 </math>.
 +
 +
Другий доданок в здобутому результаті містить тільки одну змінну <math> y_i </math>, яка підсумовується за <math> m </math> . Тому підсумовування за змінною <math> j</math> сталою <math> (\overline{y_i} - \overline{y})^2 </math> рівнозначне помноженню на <math> n </math>, тобто <math> \sum_{j=1}^n = n </math>, тоді
 +
<math> \sum_{j=1}^n \sum_{i=1}^m = (\overline{y_i} - \overline{y})^2 = \sum_{i=1}^m  n (\overline{y_i} - \overline{y})^2 </math>.
 +
 +
Така сума називається зваженою, оскільки <math>n</math> у загальному випадку для кожного <math>i</math> може бути різними.
 +
 +
При використанні дисперсійного аналізу запишемо останні формули через вихідні значення <math>y_{ij}</math>:
 +
<math> \sum \sum (y_{ij} - \overline{y})^2 = \sum \sum y^2_{ij} + \sum \sum \overline{y^2} + 2 \sum \sum y_{ij} \overline{y} = </math>
 +
<math> \sum \sum y_{ij}^2 + m n \overline{y^2} - 2 m n y^2 = \sum \sum y^2_{ij} - m n \overline{y^2} = </math>
 +
<math> \sum \sum y_{ij}^2 - \frac{\mathrm mn}{\mathrm m^2 n^2}\, (\sum \sum y_{ij})^2 = \sum_{j=1}^n \sum_{i=1}^m y^2_{ij} - \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2 </math>;
 +
<math> \sum \sum (\overline{y_i} - \overline{y})^2 - \sum^n \sum^m \overline{y^2_i} + \sum^n \sum^m \overline{y^2} - 2\sum^n \sum^m \overline{y_i} \overline{y} = </math>
 +
<math> \sum^n \sum^m y^2_i + \frac{\mathrm mn}{\mathrm m^2 n^2}\, (\sum \sum y_{ij})^2 - 2 m \overline{y} n \overline{y} = </math>
 +
<math> \sum^2 n \frac{\mathrm 1}{\mathrm n^2}\, (\sum^n y_{ij})^2 + \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2 - 2 \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2 = </math>
 +
<math> = \frac{\mathrm 1}{\mathrm n}\, \sum^m (\sum^n y_{ij})^2 - \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2 </math>;
 +
 +
<math> \sum \sum (y_{ij} - \overline{y_i})^2 = \sum \sum y^2_{ij} + \sum \sum \overline{y^2_i} - 2 \sum \sum y_{ij} \overline{y_i} = </math>
 +
<math> \sum^m \sum^n y^2_{ij} + n\sum^m y^2_i - 2\sum^m \sum^n y_{ij} \frac{\mathrm 1}{\mathrm n}\, \sum^n y_{ij} = </math>
 +
<math>\sum \sum y^2_{ij} +n \sum^m \frac{\mathrm 1}{\mathrm n^2}\, (\sum^n y_{ij})^2 - 2\sum^m \frac{\mathrm 1}{\mathrm n}\, (\sum^n y_{ij})^2 = </math>
 +
<math> \sum \sum y^2_{ij} - \frac{\mathrm 1}{\mathrm n}\, \sum^m (\sum^n y_{ij})^2 </math>.
 +
 +
Ці формули є робочими при одно факторному дисперсійному аналізі. Якщо розглядати дисперсії не функції, а не залежного параметра, а замість <math>y</math> покласти <math>x</math>, то структура формул зберігатиметься.
 +
 +
==Посилання==
 +
В.О. АНІСТРАТЕНКО, В.Г. ФЕДОРОВ. Математичне планування експериментів в АПК: Навч. посібник. - К.: Вища шк., 1993. - 375 с.: іл.
 +
 +
[[Категорія:Планування експерименту]]

Поточна версія на 10:33, 20 березня 2012

Blue check.png Дана стаття являється неперевіреним навчальним завданням.
Студент: Пріян Н.
Викладач: Назаревич О. Б.
Термін до: 14 березня 2012

До вказаного терміну стаття не повинна редагуватися іншими учасниками проекту. Після завершення терміну виконання будь-який учасник може вільно редагувати дану статтю і витерти дане попередження, що вводиться за допомогою шаблону.



Розглянемо задачу розкладання дисперсії як характеристики коливальності (розкиду, розсіювання, зміни) на простому абстрактному прикладі.

Нехай вимірювана величина [math]y[/math] набувала в [math]N[/math] дослідах таких значень [math]y_1,y_2,y_3, ..., y_k, ..., y_N[/math], які характеризуються деякими середніми [math]\overline{y}[/math] та оцінкою дисперсії [math]S_y^2[/math]. Відкладемо результати вимірювань [math]y[/math] на осі ординат (рис. 1), а вісь абсцис для одного із випливаючих на [math]y[/math] фаторів [math]x[/math].

Img1.jpg

Рисунок - 1


Відрізком довжиною [math]S_y[/math] зобразимо показник загального розкиду значення [math]y[/math] (скористатися дисперсією [math]S_y^2[/math] не можна, оскільки її розмірність не збігається з розмірністю [math]y[/math]). Припустимо, що одночасно з [math]y[/math] реєструвалася величина певного фактора, який за припущенням впливає на [math]y[/math]. Цей фактор в усіх дослідах набував лише трьох значень. Результати сумісних вимірювань пар значень [math]y[/math] і [math]x[/math] зображено на рис. 2. помітна загальна тенденція зростання [math]y[/math] зі збільшенням [math]x[/math]. Однак говорять лише про зміни [math]y[/math] у середньому. оскільки в окремих випадках спостерігається , наприклад [math]y_1\gt y_5[/math], хоча [math]y_5[/math] відповідає більшому [math]x[/math]. Ішими словами, кожному [math]x_i[/math] відповідає середнє [math]y_i[/math], яке можна розрахувати у даному випадку за чотирма значеннями [math]y[/math]. Умовні середні [math]y_i[/math] зображено на рис. 3. Розглядаючи [math]\overline{y_i}[/math] як самостійні значення, говорять про їх розкид відносно загального середнього [math]\overline{y_i}[/math]. Охарактеризуємо цей розкид величиною [math]S^2_{y/x}[/math], яка при певному числі дослідів (в даному випадку 3) залежить від суми квадратів відхилень умовних середніх [math]\overline{y_i}[/math] від загального середнього [math]\overline{y}[/math].

Img2.jpg Img3.jpg

Рисунок - 2 Рисунок -3


Природно, що від того, наскільки зміни [math]x[/math] впливають на середні зміни [math]y[/math], залежать значення [math]S^2_{y/x}[/math] і показник загального розкиду [math]S^2_y[/math]. Зазначимо, що при одному й тому ж значенні [math]x[/math] в чотирьох дослідах дістали різні значення [math]y[/math] (див. рис. 2). Наявність даного розкиду при фіксованому значенні фактора [math]x[/math] пояснюється діянням невраховуваних факторів [math]z[/math], тобто різними випадковими причинами. Не виділяючи будь-яку з них, охарактеризуємо сумарний ефект від них залишковою дисперсією [math]S^2_{y/z}[/math], яка, представляючи розкид результатів вимірювань [math]y[/math] відносно [math]\overline{y}[/math], залежить від суми квадратів відхилень [math]y[/math], виміряних при кожному значенні [math]x[/math], від відповідних умовних середніх [math]\overline{y_i}[/math]. На рис. 3 відрізками зображено показник розкиду для кожного [math]x[/math], а також показник розкиду [math]S_{y/x}[/math] середніх значень [math]\overline{y_i}[/math].

Очевидно, що, коли усунути вплив невраховуваних факторів, розкид [math]y[/math] при фіксованому [math]x[/math] не спостерігатиметься і загальний розкид [math]y[/math] визначатиметься тільки діяннями [math]x[/math] (див. рис. 4). З іншого боку, якби вплив фактора [math]x[/math] на [math]y[/math] був відсутній, а випадкові причини виявляли своє діяння (див. рис. 5), то загальний розкид [math]y[/math] визначався б тільки ними і характеризувався лише залишковою дисперсією від діяння невраховуваних факторів.

Img4.jpg Img5.jpg

Рисунок - 4 Рисунок - 5


Детально розглянемо основні принципи сучасного експерименту: рандомізацію, багатофакторність, оптимізацію та автоматизацію. Пояснимо перший з них. Дисперсійний аналіз стає об’єктивним інструментом дослідження лише при умові, що кожне значення змінної вибрано з генеральної сукупності випадковим чином. Відбір випадкових значень змінної, який забезпечує однакову імовірність потрапити до вибірки будь-якого з них для всієї генеральної сукупності, називається рандомізацією (від англійського random – вибраний навмання). У біометрії це слово прийнято записувати і вимовляти як рендомізація. Щоб забезпечити однакову імовірність для будь-якого члена генеральної сукупності, найчастіше користуються таблицею випадкових чисел.

Таким чином, при сумісності діяння фактора [math]x[/math] та випадкових причин [math]z[/math] наступною буде рівність [math]S^2= S^2_{y/x}+ S^2_{y/z}[/math], яка і виражає властивість адитивної дисперсії.

Зазначимо, що ця формула правильна лише при незалежних (некорельованих) факторах, які впливають на [math]y[/math]. У противному разі вона ускладнюється: [math]S^2= S^2_{y/x} + S^2_{y/z} - 2 S_{y/x} S_{y/z} r_{xz}[/math], де [math]r_{xz}[/math] - коефіцієнт кореляції.

Формула адитивності дисперсії є основною всього дисперсійного аналізу. Її застосування часто зустрічається з боку експерименту внутрішній опір. Оскільки при всій своїй простоті вона не є очевидною. Тому, перш ніж дістати на основі цієї формули розрахункові рівняння, доведемо її правильність. Для цього скористаємось формальним перетворенням суми квадратів відхилень від загального середнього: [math]\sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y})^2 = \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i} + \overline{y_j} + \overline{y})^2 + \sum_{j=1}^n \sum_{i=1}^m [(y_{ij} - \overline{y_i}) + (\overline{y_i} - \overline{y})]^2 =[/math]

[math]= \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})^2 + \sum_{j=1}^n \sum_{i=1}^m (\overline{y_i} - \overline{y})^2 + 2\sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})(\overline{y_i}-\overline{y})[/math].

Враховуючи, що [math]\overline{y_i} = \frac{\mathrm 1}{\mathrm n}\, \sum_{j=1}^n y_{ij}[/math] ;

[math]\overline{y} = \frac{\mathrm 1}{\mathrm mn}\, \sum_{j=1}^n \sum_{i=1}^m y_ij = \frac{\mathrm 1}{\mathrm m}\, \sum_{i=1}^m \frac{\mathrm 1}{\mathrm n}\, \sum_{j=1}^n y_{ij} = \frac{\mathrm 1}{\mathrm m}\, \sum_{i=1}^m \overline{y_i}[/math];

[math]\sum_{j=1}^n \overline{y_i} = n \overline{y_i}[/math] ; [math]\sum_{j=1}^n \overline{y} = n \overline{y}[/math] ,

покажемо, як останній доданок при розкладанні перетворюється в нуль:

[math]\sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})(\overline{y_i}-\overline{y}) = \sum_{j=1}^n \sum_{i=1}^m y_{ij}\overline{y_i} - \sum_{j=1}^n \sum_{i=1}^m \overline{y_i} \overline{y_i} -[/math]

[math]- \sum_{j=1}^n \sum_{i=1}^m y_{ij} \overline{y} + \sum_{j=1}^n \sum_{i=1}^m \overline{y_i} \overline{y} = \sum_{i=1}^m \overline{y_i} n \frac{\mathrm 1}{\mathrm n}\, \sum_{j=1}^n y_{ij}-[/math]

[math]- \sum_{i=1}^m \overline{y_i} \sum_{j=1}^n \overline{y_i} - mn \frac{\mathrm 1}{\mathrm mn}\, \sum_{j=1}^n \sum_{i=1}^m y_{ij} y + m \frac{\mathrm 1}{\mathrm m}\, \sum_{i=1}^m y_i \sum_{j=1}^n \overline{y} =[/math]

[math]= \sum_{i=1}^m n \overline{y_i} \overline{y_i} - \sum_{i=1}^m n \overline{y_i} \overline{y_i} - m n \overline{y} \overline{y} + m n \overline{y} \overline{y}= 0[/math]

Отже,

[math]\sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y_i})^2 = \sum_{j=1}^n \sum_{i=1}^m (y_{ij} - \overline{y})^2 + \sum_{j=1}^n \sum_{i=1}^m (\overline{y_i} - \overline{y})^2[/math],

що й треба було довести, оскільки [math]S^2_y \approx \sum \sum (y_{ij} - \overline{y})^2[/math]; [math]S^2_{y/x} \tilde \sum \sum (y_{ij} - \overline{y_i})^2[/math]; [math]S^2_{y/z} \approx \sum \sum (\overline{y_i} - \overline{y})^2[/math].

Другий доданок в здобутому результаті містить тільки одну змінну [math]y_i[/math], яка підсумовується за [math]m[/math] . Тому підсумовування за змінною [math]j[/math] сталою [math](\overline{y_i} - \overline{y})^2[/math] рівнозначне помноженню на [math]n[/math], тобто [math]\sum_{j=1}^n = n[/math], тоді [math]\sum_{j=1}^n \sum_{i=1}^m = (\overline{y_i} - \overline{y})^2 = \sum_{i=1}^m n (\overline{y_i} - \overline{y})^2[/math].

Така сума називається зваженою, оскільки [math]n[/math] у загальному випадку для кожного [math]i[/math] може бути різними.

При використанні дисперсійного аналізу запишемо останні формули через вихідні значення [math]y_{ij}[/math]: [math]\sum \sum (y_{ij} - \overline{y})^2 = \sum \sum y^2_{ij} + \sum \sum \overline{y^2} + 2 \sum \sum y_{ij} \overline{y} =[/math] [math]\sum \sum y_{ij}^2 + m n \overline{y^2} - 2 m n y^2 = \sum \sum y^2_{ij} - m n \overline{y^2} =[/math] [math]\sum \sum y_{ij}^2 - \frac{\mathrm mn}{\mathrm m^2 n^2}\, (\sum \sum y_{ij})^2 = \sum_{j=1}^n \sum_{i=1}^m y^2_{ij} - \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2[/math]; [math]\sum \sum (\overline{y_i} - \overline{y})^2 - \sum^n \sum^m \overline{y^2_i} + \sum^n \sum^m \overline{y^2} - 2\sum^n \sum^m \overline{y_i} \overline{y} =[/math] [math]\sum^n \sum^m y^2_i + \frac{\mathrm mn}{\mathrm m^2 n^2}\, (\sum \sum y_{ij})^2 - 2 m \overline{y} n \overline{y} =[/math] [math]\sum^2 n \frac{\mathrm 1}{\mathrm n^2}\, (\sum^n y_{ij})^2 + \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2 - 2 \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2 =[/math] [math]= \frac{\mathrm 1}{\mathrm n}\, \sum^m (\sum^n y_{ij})^2 - \frac{\mathrm 1}{\mathrm mn}\, (\sum \sum y_{ij})^2[/math];

[math]\sum \sum (y_{ij} - \overline{y_i})^2 = \sum \sum y^2_{ij} + \sum \sum \overline{y^2_i} - 2 \sum \sum y_{ij} \overline{y_i} =[/math] [math]\sum^m \sum^n y^2_{ij} + n\sum^m y^2_i - 2\sum^m \sum^n y_{ij} \frac{\mathrm 1}{\mathrm n}\, \sum^n y_{ij} =[/math] [math]\sum \sum y^2_{ij} +n \sum^m \frac{\mathrm 1}{\mathrm n^2}\, (\sum^n y_{ij})^2 - 2\sum^m \frac{\mathrm 1}{\mathrm n}\, (\sum^n y_{ij})^2 =[/math] [math]\sum \sum y^2_{ij} - \frac{\mathrm 1}{\mathrm n}\, \sum^m (\sum^n y_{ij})^2[/math].

Ці формули є робочими при одно факторному дисперсійному аналізі. Якщо розглядати дисперсії не функції, а не залежного параметра, а замість [math]y[/math] покласти [math]x[/math], то структура формул зберігатиметься.

Посилання

В.О. АНІСТРАТЕНКО, В.Г. ФЕДОРОВ. Математичне планування експериментів в АПК: Навч. посібник. - К.: Вища шк., 1993. - 375 с.: іл.