Відмінності між версіями «Дисперсійний аналіз»

Рядок 11: Рядок 11:
 
<center><math>{{x}_{ij}}=\overline{x}+{{\alpha }_{j}}+{{\varepsilon }_{ij}}</math></center>
 
<center><math>{{x}_{ij}}=\overline{x}+{{\alpha }_{j}}+{{\varepsilon }_{ij}}</math></center>
  
де <math>{{x}_{ij}}</math> — значення ознаки X, одержане при i-му експерименті на j-му рівні фактора.  
+
де <math>{{x}_{ij}}</math> — значення ознаки X, одержане при ''i''-му експерименті на ''j''-му рівні фактора.  
  
 
Під рівнем фактора розуміють певну його міру.  
 
Під рівнем фактора розуміють певну його міру.  
Рядок 18: Рядок 18:
 
<math>\overline{x}</math>  — загальна середня величина ознаки X;  
 
<math>\overline{x}</math>  — загальна середня величина ознаки X;  
  
<math>{{\alpha }_{j}}</math> — ефект впливу фактора на значення ознаки X на j-му рівні;  
+
<math>{{\alpha }_{j}}</math> — ефект впливу фактора на значення ознаки X на ''j''-му рівні;  
  
<math>{{\varepsilon }_{ij}}</math> — випадкова компонента, що впливає на значення ознаки X в i-му експерименті на j-му рівні.
+
<math>{{\varepsilon }_{ij}}</math> — випадкова компонента, що впливає на значення ознаки X в ''i''-му експерименті на ''j''-му рівні.
  
 
При цьому <math>M({{\varepsilon }_{ij}})=0</math> і <math>{{\varepsilon }_{\text{ij}}}</math>, як випадкові величини мають закон розподілу ймовірностей <math>N\left( 0;{{\sigma }^{2}} \right)</math> і між собою незалежні <math>({{K}_{ij}}=0\text{ })</math>.  
 
При цьому <math>M({{\varepsilon }_{ij}})=0</math> і <math>{{\varepsilon }_{\text{ij}}}</math>, як випадкові величини мають закон розподілу ймовірностей <math>N\left( 0;{{\sigma }^{2}} \right)</math> і між собою незалежні <math>({{K}_{ij}}=0\text{ })</math>.  
Рядок 28: Рядок 28:
 
<center><math>{{x}_{ijk}}=\overline{x}+{{\alpha }_{i}}+{{\beta }_{j}}+{{\gamma }_{ij}}+{{\varepsilon }_{ijk}}</math></center>
 
<center><math>{{x}_{ijk}}=\overline{x}+{{\alpha }_{i}}+{{\beta }_{j}}+{{\gamma }_{ij}}+{{\varepsilon }_{ijk}}</math></center>
  
де <math>{{x}_{i}}_{jk}</math> – значення ознаки Х в i-му експерименті на j-му рівні впливу фактора A і на k-му рівні впливу фактора В; <math>\overline{x}</math> — загальна середня величина ознаки X; <math>{{\alpha }_{i}}</math> — ефект впливу фактора А на i-му рівні, <math>{{\beta }_{j}}</math> — ефект впливу фактора В на j-му рівні; <math>{{\gamma }_{ij}}</math> — ефект одночасного впливу факторів A і В; <math>{{\varepsilon }_{ijk}}</math> — випадкова компонента.
+
де <math>{{x}_{i}}_{jk}</math> – значення ознаки Х в ''i''-му експерименті на ''j''-му рівні впливу фактора ''A'' і на ''k''-му рівні впливу фактора ''В''; <math>\overline{x}</math> — загальна середня величина ознаки X; <math>{{\alpha }_{i}}</math> — ефект впливу фактора ''А'' на ''i''-му рівні, <math>{{\beta }_{j}}</math> — ефект впливу фактора ''В'' на ''j''-му рівні; <math>{{\gamma }_{ij}}</math> — ефект одночасного впливу факторів ''A'' і ''В''; <math>{{\varepsilon }_{ijk}}</math> — випадкова компонента.
 
У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів.
 
У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів.
  
Рядок 36: Рядок 36:
 
Кожен фактор може бути дискретною чи неперервною випадковою змінною, яку розділяють на декілька сталих рівнів (градацій, інтервалів). Якщо кількість вимірювань на всіх рівнях кожного з факторів однакова, то дисперсійний аналіз називають рівномірним, інакше – нерівномірним.  
 
Кожен фактор може бути дискретною чи неперервною випадковою змінною, яку розділяють на декілька сталих рівнів (градацій, інтервалів). Якщо кількість вимірювань на всіх рівнях кожного з факторів однакова, то дисперсійний аналіз називають рівномірним, інакше – нерівномірним.  
  
В основі дисперсійного аналізу є такий принцип (факт з математичної статистики): якщо на випадкову величину діють взаємно незалежні фактори A, B, то загальна дисперсія дорівнює сумі дисперсій, зумовлених дією окремо кожного з факторів:
+
В основі дисперсійного аналізу є такий принцип (факт з математичної статистики): якщо на випадкову величину діють взаємно незалежні фактори ''A'', ''B'', то загальна дисперсія дорівнює сумі дисперсій, зумовлених дією окремо кожного з факторів:
  
 
<center><math>{{\sigma }^{2}}=\sigma _{A}^{2}+\sigma _{B}^{2}+...</math></center>
 
<center><math>{{\sigma }^{2}}=\sigma _{A}^{2}+\sigma _{B}^{2}+...</math></center>
Рядок 46: Рядок 46:
 
Для простоти розглянемо спочатку рівномірний дисперсійний аналіз (одну з можливих моделей), а потім наведемо необхідні модифікації для виконання нерівномірного аналізу.
 
Для простоти розглянемо спочатку рівномірний дисперсійний аналіз (одну з можливих моделей), а потім наведемо необхідні модифікації для виконання нерівномірного аналізу.
  
Результати вимірювань запишемо у вигляді матриці з n рядків та p стовпців:
+
Результати вимірювань запишемо у вигляді матриці з ''n'' рядків та ''p'' стовпців:
  
 
<center><math>Y=\left[ \begin{matrix}
 
<center><math>Y=\left[ \begin{matrix}
Рядок 54: Рядок 54:
 
\end{matrix} \right]</math></center>
 
\end{matrix} \right]</math></center>
  
Кожен стовпець (градацію фактора) треба розглядати як вибірку нормально розподілених випадкових величин <math>{{\xi }_{1}},{{\xi }_{2}},...,{{\xi }_{p}}</math> з параметрами <math>M({{\xi }_{j}})={{\mu }_{j}}</math>, <math>D({{\xi }_{j}})={{\sigma }^{2}}</math>  для всіх j=1,…,p (дисперсії однакові).  
+
Кожен стовпець (градацію фактора) треба розглядати як вибірку нормально розподілених випадкових величин <math>{{\xi }_{1}},{{\xi }_{2}},...,{{\xi }_{p}}</math> з параметрами <math>M({{\xi }_{j}})={{\mu }_{j}}</math>, <math>D({{\xi }_{j}})={{\sigma }^{2}}</math>  для всіх ''j=1,…,p'' (дисперсії однакові).  
  
 
Отже, для кожної градації фактора (стовпця таблиці даних) маємо фіксоване середнє значення, що є сталим у межах експерименту.  
 
Отже, для кожної градації фактора (стовпця таблиці даних) маємо фіксоване середнє значення, що є сталим у межах експерименту.  
Рядок 93: Рядок 93:
 
* сума, що характеризує загальну мінливість (загальна або тотальна сума),
 
* сума, що характеризує загальну мінливість (загальна або тотальна сума),
  
<math>S{{S}_{T}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}</math>
+
<center><math>S{{S}_{T}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}</math></center>
  
 
Справджується рівність
 
Справджується рівність

Версія за 02:58, 11 березня 2010

Blue check.png Дана стаття являється неперевіреним навчальним завданням.
Студент: Pimchikoff
Викладач: Назаревич О.Б.
Термін до: 10 березня 2010

До вказаного терміну стаття не повинна редагуватися іншими учасниками проекту. Після завершення терміну виконання будь-який учасник може вільно редагувати дану статтю і витерти дане попередження, що вводиться за допомогою шаблону.



 http://elartu.tstu.edu.ua/handle/123456789/372 Презентація доповіді (університетський репозиторій).

Загальні відомості про дисперсійний аналіз

Дисперсійний аналіз був створений спочатку для статистичної обробки агрономічних дослідів. В наш час його також використовують в економічних, технічних та соціальних експериментах.

Сутність цього аналізу полягає в тому, що загальну дисперсію досліджуваної ознаки розділяють на окремі компоненти, які обумовлені впливом певних конкретних чинників. Істотність їх впливу на цю ознаку здійснюється методом дисперсійного аналізу. Відповідно до дисперсійного аналізу будь-який його результат можна подати у вигляді суми певної кількості компонент. Так, наприклад, якщо досліджується вплив певного чинника на результат експерименту, то модель, що описує структуру останнього, можна подати так:

[math]{{x}_{ij}}=\overline{x}+{{\alpha }_{j}}+{{\varepsilon }_{ij}}[/math]

де [math]{{x}_{ij}}[/math] — значення ознаки X, одержане при i-му експерименті на j-му рівні фактора.

Під рівнем фактора розуміють певну його міру. Наприклад, якщо фактором є добрива, які вносяться в землю з метою збільшення врожайності сільськогосподарської культури, то рівнем фактора в цьому разі є кількість добрива, що вноситься в грунт;

[math]\overline{x}[/math] — загальна середня величина ознаки X;

[math]{{\alpha }_{j}}[/math] — ефект впливу фактора на значення ознаки X на j-му рівні;

[math]{{\varepsilon }_{ij}}[/math] — випадкова компонента, що впливає на значення ознаки X в i-му експерименті на j-му рівні.

При цьому [math]M({{\varepsilon }_{ij}})=0[/math] і [math]{{\varepsilon }_{\text{ij}}}[/math], як випадкові величини мають закон розподілу ймовірностей [math]N\left( 0;{{\sigma }^{2}} \right)[/math] і між собою незалежні [math]({{K}_{ij}}=0\text{ })[/math].

Складнішою моделлю аналізу є вивчення впливу на результати експерименту кількох факторів. Зокрема при аналізі впливу двох факторів структура моделі набуває такого вигляду:

[math]{{x}_{ijk}}=\overline{x}+{{\alpha }_{i}}+{{\beta }_{j}}+{{\gamma }_{ij}}+{{\varepsilon }_{ijk}}[/math]

де [math]{{x}_{i}}_{jk}[/math] – значення ознаки Х в i-му експерименті на j-му рівні впливу фактора A і на k-му рівні впливу фактора В; [math]\overline{x}[/math] — загальна середня величина ознаки X; [math]{{\alpha }_{i}}[/math] — ефект впливу фактора А на i-му рівні, [math]{{\beta }_{j}}[/math] — ефект впливу фактора В на j-му рівні; [math]{{\gamma }_{ij}}[/math] — ефект одночасного впливу факторів A і В; [math]{{\varepsilon }_{ijk}}[/math] — випадкова компонента. У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів.

Попередні методи статистичного аналізу даних використовують для порівняння двох об’єктів. Але на практиці часто виникають завдання, що стосуються групи об’єктів (наборів спостережуваних даних). Одним з методів для таких завдань є дисперсійний аналіз – статистичний метод виявлення на досліджувану випадкову величину (параметр) одночасної дії одного або декількох факторів. Дія деякого фактора на складну систему спричинює мінливість його властивостей. Фактор може бути відомий або невідомий, природного або штучного походження, як от: умови експерименту, методика вимірювань і опрацювання тощо.

За кількістю оцінюваних факторів дисперсійний аналіз поділяють на одно-, дво- та багатофакторний. Кожен фактор може бути дискретною чи неперервною випадковою змінною, яку розділяють на декілька сталих рівнів (градацій, інтервалів). Якщо кількість вимірювань на всіх рівнях кожного з факторів однакова, то дисперсійний аналіз називають рівномірним, інакше – нерівномірним.

В основі дисперсійного аналізу є такий принцип (факт з математичної статистики): якщо на випадкову величину діють взаємно незалежні фактори A, B, то загальна дисперсія дорівнює сумі дисперсій, зумовлених дією окремо кожного з факторів:

[math]{{\sigma }^{2}}=\sigma _{A}^{2}+\sigma _{B}^{2}+...[/math]

Цей метод ґрунтується на розділенні загальної дисперсії [math]\sigma _{T}^{2}[/math] на складові, що відповідають впливу різних джерел мінливості (дисперсія [math]\sigma _{R}^{2}[/math], зумовлена дією факторів, і залишкова дисперсія [math]\sigma _{D}^{2}[/math], [math]\sigma _{T}^{2}=\sigma _{R}^{2}+\sigma _{D}^{2}[/math]), а застосовувані критерії дають змогу одночасно вивчати відмінності як у середніх значеннях, так і в дисперсіях.

Однофакторний дисперсійний аналіз

Для простоти розглянемо спочатку рівномірний дисперсійний аналіз (одну з можливих моделей), а потім наведемо необхідні модифікації для виконання нерівномірного аналізу.

Результати вимірювань запишемо у вигляді матриці з n рядків та p стовпців:

[math]Y=\left[ \begin{matrix} {{y}_{11}} & ... & {{y}_{1p}} \\ ... & {{y}_{ij}} & ... \\ {{y}_{n1}} & ... & {{y}_{np}} \\ \end{matrix} \right][/math]

Кожен стовпець (градацію фактора) треба розглядати як вибірку нормально розподілених випадкових величин [math]{{\xi }_{1}},{{\xi }_{2}},...,{{\xi }_{p}}[/math] з параметрами [math]M({{\xi }_{j}})={{\mu }_{j}}[/math], [math]D({{\xi }_{j}})={{\sigma }^{2}}[/math] для всіх j=1,…,p (дисперсії однакові).

Отже, для кожної градації фактора (стовпця таблиці даних) маємо фіксоване середнє значення, що є сталим у межах експерименту. Гіпотезу для перевірки сформулюємо так:

[math]{{H}_{0}}:{{\mu }_{1}}={{\mu }_{2}}=...={{\mu }_{p}}=\mu[/math]

Отже, дисперсія випадкової величини [math]{{y}_{ij}}[/math], зумовлена дією фактора на всіх рівнях, [math]\sigma _{R}^{2}=0[/math], і вся мінливість буде спричинена неврахованими факторами:

[math]\sigma _{T}^{2}=\sigma _{D}^{2}[/math] або [math]D({{y}_{ij}})=\sigma _{A}^{2}+\sigma _{D}^{2}[/math]

Схема обчислень для однофакторного дисперсійного аналізу

У математичній статистиці розроблено формальну процедуру дисперсійного аналізу (ANOVA, ANalysis Of VAriance). Схема перевірки нульової гіпотези така.

А. Обчислюємо генеральне середнє [math]\bar{y}[/math] і вибіркові середні [math]{{\bar{y}}_{i}}[/math]:

[math]\bar{y}=\frac{1}{N}\sum\limits_{i=i}^{n}{\sum\limits_{j=1}^{p}{{{y}_{ij}},N=np}}[/math]

для рівномірного однофакторного аналізу або

[math]\bar{y}=\frac{1}{N}\sum\limits_{j=1}^{p}{\sum\limits_{i=i}^{{{n}_{j}}}{{{y}_{ij}}}},N=\sum\limits_{j=1}^{p}{{{n}_{j}}}[/math]

для нерівномірного однофакторного аналізу.

Б. Знаходимо суми квадратів відхилень від відповідних середніх значень:

  • сума, що характеризує мінливість, зумовлену досліджуваним фактором (факторна сума),
[math]S{{S}_{R}}=n\sum\limits_{j=1}^{p}{{{({{{\bar{y}}}_{j}}-\bar{y})}^{2}}}=\sum\limits_{j=1}^{p}{{{n}_{j}}{{({{{\bar{y}}}_{j}}-\bar{y})}^{2}}}[/math]
  • сума, що характеризує мінливість у межах кожної градації фактором (залишкова сума),
[math]S{{S}_{D}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}[/math]
  • сума, що характеризує загальну мінливість (загальна або тотальна сума),
[math]S{{S}_{T}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}[/math]

Справджується рівність

[math]S{{S}_{T}}=S{{S}_{R}}+S{{S}_{D}}[/math]

В. Визначаємо оцінки дисперсій:

[math]S_{T}^{2}=\frac{S{{S}_{T}}}{N-1};S_{R}^{2}=\frac{S{{S}_{R}}}{p-1};S_{D}^{2}=\frac{S{{S}_{D}}}{N-p}[/math]

Г. Критерій Фішера для перевірки гіпотези [math]{{\text{H}}_{0}}[/math] має вигляд

df 1 = p – 1, df 2 = N – p

Для заданого рівня значущості α знаходимо критичні значення статистики F(α; df 1; df 2).

Обчислені значення записуємо у вигляді таблиці (табл. 1.1), (ANOVA).

Таблиця 1.1 – Результати однофакторного дисперсійного аналізу
Різновид дисперсії  Сума квадратів відхилень  Кількість ступенів вільності  Середній квадрат (оцінка дисперсії)  F-критерій 
Факторна (між вибірками)   [math]S{{S}_{R}}[/math]  p-1   [math]M{{S}_{A}}[/math]  [math]\begin{align} & M{{S}_{A}} \\ & M{{S}_{D}} \\ \end{align}[/math]  
Залишкова (у вибірці)  [math]SS_D[/math]   N-p   [math]MS_D[/math]    
Загальна   [math]SS_T[/math]   N-1      

Двофакторний дисперсійний аналіз

На практиці часто виникає ситуація, коли досліджують вплив двох факторів. Двофакторний дисперсійний аналіз дає змогу не тільки виявити вплив кожного з факторів, а й оцінити їхню взаємодію. Двофакторний аналіз має:

  • перехресну (двосторонню) класифікацію (з однаковою кількістю повторень у клітинці, з одним спостереженням у клітинці (без повторень), та з нерівномірною кількістю спостережень у клітинці);
  • ієрархічну класифікацію, коли один з факторів є головним, а інший – підпорядкованим. Тоді градація фактора B є незалежною в межах кожної з градацій фактора A. Якщо в кожній групі [math]Ai[/math] маємо однакову кількість підгруп [math]B_j[/math], то така ієрархічна класифікація має спеціальну назву – гніздова класифікація. Для ієрархічної класифікації не виникає проблеми оцінки взаємодії факторів (її немає). Також вважаємо, що фактори не взаємодіють, коли маємо класифікацію без повторень.

Схема обчислень для двофакторного дисперсійного аналізу

Схема обчислень для двофакторного аналізу така:

А. Знаходимо вибіркові середні (генеральне середнє [math]\bar{y}[/math], а також середнє в рядку [math]y_{i}^{r}[/math], стовпці [math]y_{j}^{c}[/math] й клітинці [math]{{\bar{y}}_{ij}}[/math]):

[math]\bar{y}=\frac{1}{npq}\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{y}_{ijm}};}}}[/math]
[math]y_{i}^{r}=\frac{1}{np}\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{v}{{{y}_{ijm}};}}[/math]
[math]y_{j}^{c}=\frac{1}{nq}\sum\limits_{i=1}^{q}{\sum\limits_{m=1}^{v}{{{y}_{ijm}};}}[/math]
[math]{{\bar{y}}_{ij}}=\frac{1}{n}\sum\limits_{m=1}^{v}{{{y}_{ijm}}}.[/math]

Б. Обчислюємо суми квадратів відхилень від відповідних середніх:

  • мінливість, зумовлену фактором A,
[math]S{{S}_{A}}=np\sum\limits_{i=1}^{q}{{{(\bar{y}_{i}^{r}-\bar{y})}^{2}}}[/math]
  • мінливість, зумовлену фактором B,
[math]S{{S}_{B}}=nq\sum\limits_{j=1}^{p}{{{(\bar{y}_{j}^{c}-\bar{y})}^{2}}}[/math]
  • мінливість, зумовлену взаємодією факторів A і B,
[math]S{{S}_{AB}}=n\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{{{({{{\bar{y}}}_{ij}}-\bar{y}_{i}^{r}-\bar{y}_{j}^{c}+\bar{y})}^{2}}}}[/math]
  • мінливість у межах кожної з клітинок
[math]S{{S}_{D}}=\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{({{y}_{ijm}}-{{{\bar{y}}}_{ij}})}^{2}}}}}[/math]
  • загальну мінливість спостережуваної ознаки (параметра)
[math]S{{S}_{T}}=\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{({{y}_{ijm}}-\bar{y})}^{2}}}}}[/math]

Справджується рівність

[math]S{{S}_{T}}=S{{S}_{A}}+S{{S}_{B}}+S{{S}_{AB}}+S{{S}_{D}}[/math]

В. Знаходимо оцінки дисперсій (середні квадратів відхилень)


[math]M{{S}_{A}}=\frac{S{{S}_{A}}}{(q-1)};M{{S}_{B}}=\frac{S{{S}_{B}}}{(p-1)};[/math]
[math]M{{S}_{AB}}=\frac{S{{S}_{AB}}}{(q-1)(p-1)};[/math]
[math]M{{S}_{D}}=\frac{S{{S}_{D}}}{\frac{pq}{(n-1)}};M{{S}_{T}}=\frac{S{{S}_{T}}}{(N-1)},N=npq.[/math]

Результати двофакторного дисперсійного аналізу записують у таблицю (табл. 1.2).

Таблиця 1.2 – Результати двофакторного дисперсійного аналізу
Різновид дисперсії  Сума квадратів відхилень  Кількість ступенів вільності  Середній квадрат (оцінка дисперсії)  F-критерій 
Факторна для фактора A   [math]SS_A[/math]  p-1   [math]M{{S}_{A}}[/math]  [math]M{{S}_{A}}/M{{S}_{D}}[/math] 
Факторна для фактора B  [math]SS_B[/math]   q-1   [math]MS_B[/math]   [math]M{{S}_{B}}/M{{S}_{D}}[/math] 
Змішана для факторів A і B   [math]SS_A_B[/math]   (p-1)(q-1)  [math]MS_A_B[/math]   [math]M{{S}_{AB}}/M{{S}_{D}}[/math]  
Залишкова  [math]SS_D[/math]   pq(n-1)  [math]MS_D[/math]    
Загальна   [math]SS_T[/math]   npq-1      

Перевірка гіпотез двофакторного дисперсійного аналізу

Нехай [math]\mu _{i}^{r},i=1,...,q[/math] – математичні сподівання рядків табл. 1.3, а [math]\mu _{j}^{c},j=1,...,p[/math] – математичні сподівання стовпців.

Тоді [math]{{\alpha }_{i}}=\mu _{i}^{r}-\mu[/math] – ефект i-ї градації фактора A;

[math]{{\beta }_{j}}=\mu _{j}^{c}-\mu[/math] – ефект j-ї градації фактора B;

[math]{{\gamma }_{ij}}={{\mu }_{ij}}-{{\alpha }_{i}}-{{\beta }_{j}}+\mu[/math] – ефект j-ї градації фактора B в умовах i-ї градації фактора A;

[math]{{\mu }_{ij}}[/math] – математичне сподівання у кожній з клітинок.

Таблиця 1.3 – Вхідні дані для двофакторного аналізу
Рівні фактору  [math]B_1[/math]  ...  [math]B_j[/math]  ...  [math]B_p[/math] 
[math]A_1[/math]  [math]{{y}_{111},...,{y}_{11n}}[/math]  ...  [math]{{y}_{1j1},...,{y}_{1jn}}[/math]  ...  [math]{{y}_{1p1},...,{y}_{1pn}}[/math] 
...  ...  ...   ...   ...   ...  
[math]A_i[/math]  [math]{{y}_{i11},...,{y}_{i1n}}[/math]  ...  [math]{{y}_{ij1},...,{y}_{ijn}}[/math]  ...  [math]{{y}_{ip1},...,{y}_{ipn}}[/math] 
...  ...  ...   ...   ...   ...  
[math]A_q[/math]  [math]{{y}_{q11},...,{y}_{q1n}}[/math]  ...  [math]{{y}_{qj1},...,{y}_{qjn}}[/math]  ...  [math]{{y}_{qp1},...,{y}_{qpn}}[/math] 

Сформулюємо гіпотези, які стверджують, що впливи факторів A і B на всіх рівнях однакові, а взаємовпливу факторів нема:

[math]\begin{align} & H_{0}^{A}:{{\alpha }_{1}}={{\alpha }_{2}}=...={{\alpha }_{q}}; \\ & H_{0}^{B}:{{\beta }_{1}}={{\beta }_{2}}=...={{\beta }_{p}}; \\ \end{align}[/math]

[math]H_{0}^{AB}:{{\gamma }_{ij}}=0[/math] для всіх i та j.

Критерії для перевірки цих гіпотез мають такий вигляд:

[math]\begin{align} & {{F}^{A}}=\frac{M{{S}_{A}}}{M{{S}_{D}}}=\frac{S{{S}_{A}}}{S{{S}_{D}}}\frac{(N-qp)}{(q-1)} \\ & {{F}^{B}}=\frac{M{{S}_{B}}}{M{{S}_{D}}}=\frac{S{{S}_{B}}}{S{{S}_{D}}}\frac{(N-qp)}{(p-1)} \\ & {{F}^{AB}}=\frac{M{{S}_{AB}}}{M{{S}_{D}}}=\frac{S{{S}_{AB}}}{S{{S}_{D}}}\frac{(N-qp)}{(p-1)(q-1)} \\ \end{align}[/math]

Якщо гіпотеза [math]{{H}_{0}}=H_{0}^{A}H_{0}^{B}H_{0}^{AB}[/math] правильна (тобто одночасно виконуються всі три підгіпотези), то [math]\frac{M{{S}_{A}}}{M{{S}_{D}}}[/math], [math]\frac{M{{S}_{B}}}{M{{S}_{D}}}[/math] і [math]\frac{M{{S}_{AB}}}{M{{S}_{D}}}[/math] підпорядковані розподілу Фішера з відповідними степенями вільності. Дію факторів A, B і AB уважатимемо суттєвою (для заданого рівня значущості α), якщо

[math]{{F}^{A}}\ge F(\alpha ;q-1;N-pq)[/math] або

[math]{{F}^{B}}\ge F(\alpha ;p-1;N-pq)[/math], або

[math]{{F}^{AB}}\ge F(\alpha ;(q-1)(p-1);N-pq).[/math]

Список використаних джерел

  1. 1. Адлер Ю.П., Маркова Е.В., Грановский Ю.В. - Планирование эксперимента при поиске оптимальных условий (1973).
  2. 2. Аністратенко В. О., Федоров В. Г. Математичне планування експериментів в АПК: Навч. Посібник. – К.: Вища шк., 1993. – 375 с. іл..



SeminarSpeech.png
Студент: Користувач:Pimchikoff
Виступ відбувся: 10 березня 2010
Тема: Однофакторний, двофакторний і багатофакторний дисперсійний аналізи. Значимість впливів факторів на досліджувані параметри і перевірка відповідних гіпотез.