Відмінності між версіями «Дисперсійний аналіз»

 
(Не показані 17 проміжних версій 8 користувачів)
Рядок 1: Рядок 1:
{{Завдання|Pimchikoff|Назаревич О.Б.|10 березня 2010}}
+
{{Невідредаговано}}
 +
{{Студент | Name=Артем | Surname=Пімєнов | FatherNAme=|Faculti=ФІС | Group=СНм-51 | Zalbook=}}
  
   http://elartu.tstu.edu.ua/handle/123456789/372 Презентація доповіді (університетський репозиторій).
+
   http://elartu.tstu.edu.ua/handle/123456789/414 Презентація доповіді (університетський репозиторій)
  
 
=Загальні відомості про дисперсійний аналіз=
 
=Загальні відомості про дисперсійний аналіз=
Рядок 11: Рядок 12:
 
<center><math>{{x}_{ij}}=\overline{x}+{{\alpha }_{j}}+{{\varepsilon }_{ij}}</math></center>
 
<center><math>{{x}_{ij}}=\overline{x}+{{\alpha }_{j}}+{{\varepsilon }_{ij}}</math></center>
  
де <math>{{x}_{ij}}</math> — значення ознаки X, одержане при i-му експерименті на j-му рівні фактора.  
+
де <math>{{x}_{ij}}</math> — значення ознаки X, одержане при ''i''-му експерименті на ''j''-му рівні фактора.  
  
 
Під рівнем фактора розуміють певну його міру.  
 
Під рівнем фактора розуміють певну його міру.  
Рядок 18: Рядок 19:
 
<math>\overline{x}</math>  — загальна середня величина ознаки X;  
 
<math>\overline{x}</math>  — загальна середня величина ознаки X;  
  
<math>{{\alpha }_{j}}</math> — ефект впливу фактора на значення ознаки X на j-му рівні;  
+
<math>{{\alpha }_{j}}</math> — ефект впливу фактора на значення ознаки X на ''j''-му рівні;  
  
<math>{{\varepsilon }_{ij}}</math> — випадкова компонента, що впливає на значення ознаки X в i-му експерименті на j-му рівні.
+
<math>{{\varepsilon }_{ij}}</math> — випадкова компонента, що впливає на значення ознаки X в ''i''-му експерименті на ''j''-му рівні.
  
 
При цьому <math>M({{\varepsilon }_{ij}})=0</math> і <math>{{\varepsilon }_{\text{ij}}}</math>, як випадкові величини мають закон розподілу ймовірностей <math>N\left( 0;{{\sigma }^{2}} \right)</math> і між собою незалежні <math>({{K}_{ij}}=0\text{ })</math>.  
 
При цьому <math>M({{\varepsilon }_{ij}})=0</math> і <math>{{\varepsilon }_{\text{ij}}}</math>, як випадкові величини мають закон розподілу ймовірностей <math>N\left( 0;{{\sigma }^{2}} \right)</math> і між собою незалежні <math>({{K}_{ij}}=0\text{ })</math>.  
Рядок 28: Рядок 29:
 
<center><math>{{x}_{ijk}}=\overline{x}+{{\alpha }_{i}}+{{\beta }_{j}}+{{\gamma }_{ij}}+{{\varepsilon }_{ijk}}</math></center>
 
<center><math>{{x}_{ijk}}=\overline{x}+{{\alpha }_{i}}+{{\beta }_{j}}+{{\gamma }_{ij}}+{{\varepsilon }_{ijk}}</math></center>
  
де <math>{{x}_{i}}_{jk}</math> – значення ознаки Х в i-му експерименті на j-му рівні впливу фактора A і на k-му рівні впливу фактора В; <math>\overline{x}</math> — загальна середня величина ознаки X; <math>{{\alpha }_{i}}</math> — ефект впливу фактора А на i-му рівні, <math>{{\beta }_{j}}</math> — ефект впливу фактора В на j-му рівні; <math>{{\gamma }_{ij}}</math> — ефект одночасного впливу факторів A і В; <math>{{\varepsilon }_{ijk}}</math> — випадкова компонента.
+
де <math>{{x}_{i}}_{jk}</math> – значення ознаки Х в ''i''-му експерименті на ''j''-му рівні впливу фактора ''A'' і на ''k''-му рівні впливу фактора ''В''; <math>\overline{x}</math> — загальна середня величина ознаки X; <math>{{\alpha }_{i}}</math> — ефект впливу фактора ''А'' на ''i''-му рівні, <math>{{\beta }_{j}}</math> — ефект впливу фактора ''В'' на ''j''-му рівні; <math>{{\gamma }_{ij}}</math> — ефект одночасного впливу факторів ''A'' і ''В''; <math>{{\varepsilon }_{ijk}}</math> — випадкова компонента.
 
У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів.
 
У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів.
  
Рядок 36: Рядок 37:
 
Кожен фактор може бути дискретною чи неперервною випадковою змінною, яку розділяють на декілька сталих рівнів (градацій, інтервалів). Якщо кількість вимірювань на всіх рівнях кожного з факторів однакова, то дисперсійний аналіз називають рівномірним, інакше – нерівномірним.  
 
Кожен фактор може бути дискретною чи неперервною випадковою змінною, яку розділяють на декілька сталих рівнів (градацій, інтервалів). Якщо кількість вимірювань на всіх рівнях кожного з факторів однакова, то дисперсійний аналіз називають рівномірним, інакше – нерівномірним.  
  
В основі дисперсійного аналізу є такий принцип (факт з математичної статистики): якщо на випадкову величину діють взаємно незалежні фактори A, B, то загальна дисперсія дорівнює сумі дисперсій, зумовлених дією окремо кожного з факторів:
+
В основі дисперсійного аналізу є такий принцип (факт з математичної статистики): якщо на випадкову величину діють взаємно незалежні фактори ''A'', ''B'', то загальна дисперсія дорівнює сумі дисперсій, зумовлених дією окремо кожного з факторів:
  
 
<center><math>{{\sigma }^{2}}=\sigma _{A}^{2}+\sigma _{B}^{2}+...</math></center>
 
<center><math>{{\sigma }^{2}}=\sigma _{A}^{2}+\sigma _{B}^{2}+...</math></center>
Рядок 46: Рядок 47:
 
Для простоти розглянемо спочатку рівномірний дисперсійний аналіз (одну з можливих моделей), а потім наведемо необхідні модифікації для виконання нерівномірного аналізу.
 
Для простоти розглянемо спочатку рівномірний дисперсійний аналіз (одну з можливих моделей), а потім наведемо необхідні модифікації для виконання нерівномірного аналізу.
  
Результати вимірювань запишемо у вигляді матриці з n рядків та p стовпців:
+
Результати вимірювань запишемо у вигляді матриці з ''n'' рядків та ''p'' стовпців:
  
 
<center><math>Y=\left[ \begin{matrix}
 
<center><math>Y=\left[ \begin{matrix}
Рядок 54: Рядок 55:
 
\end{matrix} \right]</math></center>
 
\end{matrix} \right]</math></center>
  
Кожен стовпець (градацію фактора) треба розглядати як вибірку нормально розподілених випадкових величин <math>{{\xi }_{1}},{{\xi }_{2}},...,{{\xi }_{p}}</math> з параметрами <math>M({{\xi }_{j}})={{\mu }_{j}}</math>, <math>D({{\xi }_{j}})={{\sigma }^{2}}</math>  для всіх j=1,…,p (дисперсії однакові).  
+
Кожен стовпець (градацію фактора) треба розглядати як вибірку нормально розподілених випадкових величин <math>{{\xi }_{1}},{{\xi }_{2}},...,{{\xi }_{p}}</math> з параметрами <math>M({{\xi }_{j}})={{\mu }_{j}}</math>, <math>D({{\xi }_{j}})={{\sigma }^{2}}</math>  для всіх ''j=1,…,p'' (дисперсії однакові).  
  
 
Отже, для кожної градації фактора (стовпця таблиці даних) маємо фіксоване середнє значення, що є сталим у межах експерименту.  
 
Отже, для кожної градації фактора (стовпця таблиці даних) маємо фіксоване середнє значення, що є сталим у межах експерименту.  
Рядок 93: Рядок 94:
 
* сума, що характеризує загальну мінливість (загальна або тотальна сума),
 
* сума, що характеризує загальну мінливість (загальна або тотальна сума),
  
<math>S{{S}_{T}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}</math>
+
<center><math>S{{S}_{T}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}</math></center>
  
 
Справджується рівність
 
Справджується рівність
Рядок 123: Рядок 124:
 
     </tr>
 
     </tr>
 
   <tr>
 
   <tr>
     <th scope="row" align="center"> Факторна (між вибірками &nbsp;</th>
+
     <th scope="row" align="center"> Факторна (між вибірками) &nbsp;</th>
 
     <td align="center"> <math>S{{S}_{R}}</math>&nbsp;</td>
 
     <td align="center"> <math>S{{S}_{R}}</math>&nbsp;</td>
 
     <td align="center"> p-1 &nbsp;</td>
 
     <td align="center"> p-1 &nbsp;</td>
Рядок 148: Рядок 149:
 
  </table>
 
  </table>
  
Частіше всього дробові репліки задають за допомогою генеруючих співвідношень.
+
=Двофакторний дисперсійний аналіз=
  
=Генеруючі співвідношення. Насичені плани=
+
На практиці часто виникає ситуація, коли досліджують вплив двох факторів. Двофакторний дисперсійний аналіз дає змогу не тільки виявити вплив кожного з факторів, а й оцінити їхню взаємодію. Двофакторний аналіз має:
  
Генеруючим називають співвідношення, що показує, яку із взаємодій прийнято незначущою і замінено новим фактором. План типу <math>2^{3-1}</math> може бути представлено двома піврепліками (таблиця 4), які задають одним з наступних генеруючих співвідношень: <math>x_3=x_1x_2</math>, <math>x_3=-x_1x_2</math>:
+
* перехресну (двосторонню) класифікацію (з однаковою кількістю повторень у клітинці, з одним спостереженням у клітинці (без повторень), та з нерівномірною кількістю спостережень у клітинці);
 +
* ієрархічну класифікацію, коли один з факторів є головним, а інший – підпорядкованим. Тоді градація фактора ''B'' є незалежною в межах кожної з градацій фактора ''A''. Якщо в кожній групі <math>Ai</math> маємо однакову кількість підгруп <math>B_j</math>, то така ієрархічна класифікація має спеціальну назву – гніздова класифікація. Для ієрархічної класифікації не виникає проблеми оцінки взаємодії факторів (її немає). Також вважаємо, що фактори не взаємодіють, коли маємо класифікацію без повторень.
  
Генеруюче співвідношення помножимо на нову незалежну змінну <math>x_3</math>:<math>x^2_3=x_1x_2x_3</math>, <math>x^2_3=-x_1x_2x_3</math>.
+
=Схема обчислень для двофакторного дисперсійного аналізу=
  
<table width="50%" border="1" align="center">
+
Схема обчислень для двофакторного аналізу така:
 +
 
 +
'''А.''' Знаходимо вибіркові середні (генеральне середнє <math>\bar{y}</math>, а також середнє в рядку <math>y_{i}^{r}</math>, стовпці <math>y_{j}^{c}</math> й клітинці <math>{{\bar{y}}_{ij}}</math>):
 +
 
 +
<center><math>\bar{y}=\frac{1}{npq}\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{y}_{ijm}};}}}</math></center>
 +
 
 +
<center><math>y_{i}^{r}=\frac{1}{np}\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{v}{{{y}_{ijm}};}}</math></center>
 +
 
 +
<center><math>y_{j}^{c}=\frac{1}{nq}\sum\limits_{i=1}^{q}{\sum\limits_{m=1}^{v}{{{y}_{ijm}};}}</math></center>
 +
 
 +
<center><math>{{\bar{y}}_{ij}}=\frac{1}{n}\sum\limits_{m=1}^{v}{{{y}_{ijm}}}.</math></center>
 +
 
 +
'''Б.''' Обчислюємо суми квадратів відхилень від відповідних середніх:
 +
* мінливість, зумовлену фактором ''A'',
 +
 
 +
<center><math>S{{S}_{A}}=np\sum\limits_{i=1}^{q}{{{(\bar{y}_{i}^{r}-\bar{y})}^{2}}}</math></center>
 +
 
 +
* мінливість, зумовлену фактором ''B'',
 +
 
 +
<center><math>S{{S}_{B}}=nq\sum\limits_{j=1}^{p}{{{(\bar{y}_{j}^{c}-\bar{y})}^{2}}}</math></center>
 +
 
 +
* мінливість, зумовлену взаємодією факторів ''A'' і ''B'',
 +
 
 +
<center><math>S{{S}_{AB}}=n\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{{{({{{\bar{y}}}_{ij}}-\bar{y}_{i}^{r}-\bar{y}_{j}^{c}+\bar{y})}^{2}}}}</math></center>
 +
 
 +
* мінливість у межах кожної з клітинок
 +
 
 +
<center><math>S{{S}_{D}}=\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{({{y}_{ijm}}-{{{\bar{y}}}_{ij}})}^{2}}}}}</math></center>
 +
 
 +
* загальну мінливість спостережуваної ознаки (параметра)
 +
 
 +
<center><math>S{{S}_{T}}=\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{({{y}_{ijm}}-\bar{y})}^{2}}}}}</math></center>
 +
 
 +
Справджується рівність
 +
 
 +
<center><math>S{{S}_{T}}=S{{S}_{A}}+S{{S}_{B}}+S{{S}_{AB}}+S{{S}_{D}}</math></center>
 +
 
 +
'''В.''' Знаходимо оцінки дисперсій (середні квадратів відхилень)
 +
 
 +
 
 +
<center><math>M{{S}_{A}}=\frac{S{{S}_{A}}}{(q-1)};M{{S}_{B}}=\frac{S{{S}_{B}}}{(p-1)};</math></center>
 +
 
 +
<center><math>M{{S}_{AB}}=\frac{S{{S}_{AB}}}{(q-1)(p-1)};</math></center>
 +
 
 +
<center><math>M{{S}_{D}}=\frac{S{{S}_{D}}}{\frac{pq}{(n-1)}};M{{S}_{T}}=\frac{S{{S}_{T}}}{(N-1)},N=npq.</math></center>
 +
 
 +
Результати двофакторного дисперсійного аналізу записують у таблицю (табл. 1.2).
 +
 
 +
<table width="80%" border="1" align="center">
 
   <caption>
 
   <caption>
    Таблиця 4 - Матриця планування <math>2^{3-1}</math> представлена двома репліками
+
  Таблиця 1.2 – Результати двофакторного дисперсійного аналізу
 
   </caption>
 
   </caption>
 
   <tr>
 
   <tr>
     <th scope="col">№ Експеримету&nbsp;</th>
+
     <th scope="col">Різновид дисперсії&nbsp;</th>
     <th scope="col"><math>x_1</math>&nbsp;</th>
+
     <th scope="col" width="30%">Сума квадратів відхилень&nbsp;</th>
     <th scope="col"><math>x_2</math>&nbsp;</th>
+
    <th scope="col">Кількість ступенів вільності&nbsp;</th>
     <th scope="col"><math>x_3</math>&nbsp;</th>
+
    <th scope="col">Середній квадрат (оцінка дисперсії)&nbsp;</th>
     <th scope="col">№ Експеримету&nbsp;</th>
+
     <th scope="col">F-критерій&nbsp;</th>
     <th scope="col"><math>x_1</math>&nbsp;</th>
+
    </tr>
     <th scope="col"><math>x_2</math>&nbsp;</th>
+
  <tr>
     <th scope="col"><math>x_3</math>&nbsp;</th>
+
    <th scope="row" align="center"> Факторна для фактора ''A'' &nbsp;</th>
 +
    <td align="center"> <math>SS_A</math>&nbsp;</td>
 +
    <td align="center"> p-1 &nbsp;</td>
 +
    <td align="center"> <math>M{{S}_{A}}</math>&nbsp;</td>
 +
     <td align="center"> <math>M{{S}_{A}}/M{{S}_{D}}</math>&nbsp;</td>
 +
      </tr>
 +
  <tr>
 +
      <th scope="row" align="center"> Факторна для фактора ''B''&nbsp;</th>
 +
    <td align="center"> <math> SS_B </math> &nbsp;</td>
 +
    <td align="center"> q-1 &nbsp;</td>
 +
    <td align="center"> <math> MS_B </math> &nbsp;</td>
 +
     <td align="center"> <math>M{{S}_{B}}/M{{S}_{D}}</math>&nbsp;</td>
 +
      </tr>
 +
  <tr>
 +
      <th scope="row" align="center"> Змішана для факторів ''A'' і ''B'' &nbsp;</th>
 +
     <td align="center"> <math> SS_A_B </math> &nbsp;</td>
 +
    <td align="center"> (p-1)(q-1)&nbsp;</td>
 +
    <td align="center"> <math> MS_A_B </math> &nbsp;</td>
 +
    <td align="center"> <math>M{{S}_{AB}}/M{{S}_{D}}</math> &nbsp;</td>
 +
      </tr>   
 +
  <tr>
 +
      <th scope="row" align="center"> Залишкова&nbsp;</th>
 +
    <td align="center"> <math> SS_D </math> &nbsp;</td>
 +
    <td align="center"> pq(n-1)&nbsp;</td>
 +
     <td align="center"> <math> MS_D </math> &nbsp;</td>
 +
    <td align="center"> &nbsp;</td>
 +
      </tr>      
 +
  <tr>
 +
      <th scope="row" align="center"> Загальна &nbsp;</th>
 +
    <td align="center"> <math> SS_T </math> &nbsp;</td>
 +
    <td align="center"> npq-1 &nbsp;</td>
 +
    <td align="center"> &nbsp;</td>
 +
    <td align="center"> &nbsp;</td>
 +
      </tr> 
 +
</table>
 +
 
 +
=Перевірка гіпотез двофакторного дисперсійного аналізу=
 +
 
 +
Нехай <math>\mu _{i}^{r},i=1,...,q</math> – математичні сподівання рядків табл. 1.3, а <math>\mu _{j}^{c},j=1,...,p</math> – математичні сподівання стовпців.
 +
 
 +
Тоді <math>{{\alpha }_{i}}=\mu _{i}^{r}-\mu </math> – ефект ''i''-ї градації фактора ''A'';
 +
 
 +
<math>{{\beta }_{j}}=\mu _{j}^{c}-\mu </math> – ефект ''j''-ї градації фактора ''B'';
 +
 
 +
<math>{{\gamma }_{ij}}={{\mu }_{ij}}-{{\alpha }_{i}}-{{\beta }_{j}}+\mu </math> – ефект ''j''-ї градації фактора ''B'' в умовах ''i''-ї градації фактора ''A'';
  
   </tr>
+
<math>{{\mu }_{ij}}</math> – математичне сподівання у кожній з клітинок.
 +
 
 +
<table width="80%" border="1" align="center">
 +
  <caption>
 +
  Таблиця 1.3 – Вхідні дані для двофакторного аналізу
 +
   </caption>
 
   <tr>
 
   <tr>
     <th scope="col"> 1 &nbsp;</th>
+
     <th scope="col">Рівні фактору&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <th scope="col" width="30%"><math>B_1</math>&nbsp;</th>
     <td scope="col" align="center"> + &nbsp;</td>
+
     <th scope="col">...&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
    <th scope="col"><math>B_j</math>&nbsp;</th>
     <th scope="col"> 1 &nbsp;</th>
+
     <th scope="col">...&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
    <th scope="col"><math>B_p</math>&nbsp;</th>
     <td scope="col" align="center"> + &nbsp;</td>
+
    </tr>
     <td scope="col" align="center"> + &nbsp;</td>
+
  <tr>
    </tr>
+
     <th scope="col"><math>A_1</math>&nbsp;</th>
 
+
     <th scope="col" width="30%"><math>{{y}_{111},...,{y}_{11n}}</math>&nbsp;</th>
 +
    <th scope="col">...&nbsp;</th>
 +
     <th scope="col" width="30%"><math>{{y}_{1j1},...,{y}_{1jn}}</math>&nbsp;</th>
 +
    <th scope="col">...&nbsp;</th>
 +
     <th scope="col" width="30%"><math>{{y}_{1p1},...,{y}_{1pn}}</math>&nbsp;</th>
 +
      </tr>
 
   <tr>
 
   <tr>
    <th scope="col"> 2 &nbsp;</th>
+
      <th scope="row" align="center"> ...&nbsp;</th>
    <td scope="col" align="center"> + &nbsp;</td>
+
     <td align="center"> ...&nbsp;</td>
     <td scope="col" align="center"> + &nbsp;</td>
+
     <td align="center"> ... &nbsp;</td>
     <td scope="col" align="center"> + &nbsp;</td>
+
     <td align="center"> ... &nbsp;</td>
    <th scope="col"> 2 &nbsp;</th>
+
     <td align="center"> ... &nbsp;</td>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <td align="center"> ... &nbsp;</td>
     <td scope="col" align="center"> + &nbsp;</td>
 
     <td scope="col" align="center"> + &nbsp;</td>
 
 
       </tr>
 
       </tr>
<tr>
+
  <tr>
    <th scope="col"> 3 &nbsp;</th>
+
  <th scope="col"><math>A_i</math>&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <th scope="col" width="30%"><math>{{y}_{i11},...,{y}_{i1n}}</math>&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <th scope="col">...&nbsp;</th>
     <td scope="col" align="center"> + &nbsp;</td>
+
     <th scope="col" width="30%"><math>{{y}_{ij1},...,{y}_{ijn}}</math>&nbsp;</th>
     <th scope="col"> 3 &nbsp;</th>
+
     <th scope="col">...&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <th scope="col" width="30%"><math>{{y}_{ip1},...,{y}_{ipn}}</math>&nbsp;</th>
     <td scope="col" align="center"> - &nbsp;</td>
+
      </tr>   
     <td scope="col" align="center"> - &nbsp;</td>
+
  <tr>
</tr>
+
     <th scope="row" align="center"> ...&nbsp;</th>
<tr>
+
     <td align="center"> ...&nbsp;</td>
     <th scope="col"> 4 &nbsp;</th>
+
    <td align="center"> ... &nbsp;</td>
     <td scope="col" align="center"> + &nbsp;</td>
+
    <td align="center"> ... &nbsp;</td>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <td align="center"> ... &nbsp;</td>
     <td scope="col" align="center"> - &nbsp;</td>
+
     <td align="center"> ... &nbsp;</td>
     <th scope="col"> 4 &nbsp;</th>
+
      </tr>      
     <td scope="col" align="center"> + &nbsp;</td>
+
  <tr>
     <td scope="col" align="center"> - &nbsp;</td>
+
    <th scope="col"><math>A_q</math>&nbsp;</th>
     <td scope="col" align="center"> + &nbsp;</td>
+
     <th scope="col" width="30%"><math>{{y}_{q11},...,{y}_{q1n}}</math>&nbsp;</th>
</tr>
+
     <th scope="col">...&nbsp;</th>
 +
     <th scope="col" width="30%"><math>{{y}_{qj1},...,{y}_{qjn}}</math>&nbsp;</th>
 +
     <th scope="col">...&nbsp;</th>
 +
     <th scope="col" width="30%"><math>{{y}_{qp1},...,{y}_{qpn}}</math>&nbsp;</th>
 +
      </tr>  
 
  </table>
 
  </table>
  
 +
Сформулюємо гіпотези, які стверджують, що впливи факторів ''A'' і ''B'' на всіх рівнях однакові, а взаємовпливу факторів нема:
 +
 +
<math>\begin{align}
 +
  & H_{0}^{A}:{{\alpha }_{1}}={{\alpha }_{2}}=...={{\alpha }_{q}}; \\
 +
& H_{0}^{B}:{{\beta }_{1}}={{\beta }_{2}}=...={{\beta }_{p}}; \\
 +
\end{align}</math>
 +
 +
<math>H_{0}^{AB}:{{\gamma }_{ij}}=0</math> для всіх ''i'' та ''j''.
 +
 +
Критерії для перевірки цих гіпотез мають такий вигляд:
 +
 +
<math>\begin{align}
 +
  & {{F}^{A}}=\frac{M{{S}_{A}}}{M{{S}_{D}}}=\frac{S{{S}_{A}}}{S{{S}_{D}}}\frac{(N-qp)}{(q-1)} \\
 +
& {{F}^{B}}=\frac{M{{S}_{B}}}{M{{S}_{D}}}=\frac{S{{S}_{B}}}{S{{S}_{D}}}\frac{(N-qp)}{(p-1)} \\
 +
& {{F}^{AB}}=\frac{M{{S}_{AB}}}{M{{S}_{D}}}=\frac{S{{S}_{AB}}}{S{{S}_{D}}}\frac{(N-qp)}{(p-1)(q-1)} \\
 +
\end{align}</math>
 +
 +
Якщо гіпотеза <math>{{H}_{0}}=H_{0}^{A}H_{0}^{B}H_{0}^{AB}</math> правильна (тобто одночасно виконуються всі три підгіпотези), то
 +
<math>\frac{M{{S}_{A}}}{M{{S}_{D}}}</math>, <math>\frac{M{{S}_{B}}}{M{{S}_{D}}}</math> і <math>\frac{M{{S}_{AB}}}{M{{S}_{D}}}</math> підпорядковані розподілу Фішера з відповідними степенями вільності. Дію факторів ''A'', ''B'' і ''AB'' уважатимемо суттєвою (для заданого рівня значущості α), якщо
  
Оскільки <math>x^2_i</math>, одержимо наступні співвідношення:
+
<math>{{F}^{A}}\ge F(\alpha ;q-1;N-pq)</math> або
<math> 1=x_1x_2x_3</math>, <math> 1=-x_1x_2x_3</math>.
 
У результаті множення генеруючого співвідношення на нову змінну одержують визначальний контраст. Для указаних вище півреплік визначальними контрастами будуть залежності (1). За визначальним контрастом можна знайти співвідношення, що задають спільні оцінки. Для цього необхідно помножити незалежні змінні <math>x_1, x_2 i x_3</math> на визначальний контраст. При множенні визначальних контрастів (1) на <math>x_1</math>, одержимо співвідношення <math>x_1 1=x^2_1x_2x_3, x_1 1=-x^2_1x_2x_3</math> Оскільки, <math>x^2_1=1</math>, то <math>x_1=x_2x_3,x_1=-x_2x_3</math>. При множенні визначальних контрастів на <math>x_2 & x_3</math>, одержимо співвідношення: <math>x_2=x_1x_3, x_2=-x_1x_3, x_3=x_1x_2, x_3=-x_1x_2</math>. Це означає, що коефіцієнти лінійної моделі будуть оцінками параметрів:
 
  
<center><math> b_1=b_1+b_{23},b_1=b_1-b_{23} </math></center>
+
<math>{{F}^{B}}\ge F(\alpha ;p-1;N-pq)</math>, або
<center><math> b_2=b_2+b_{13},b_2=b_2-b_{13} </math></center>
 
<center><math> b_3=b_3+b_{12},b_3=b_3-b_{12} </math></center>
 
У практичних задачах потрійні і більш високого порядку взаємодії значно частіше, ніж подвійні, дорівнюють нулю і тому їх можна відкинути. Для одержання лінійної моделі рекомендують вибирати дробові репліки з можливо більшою розв'язувальною здатністю, тобто репліки, у яких лінійні ефекти змішані з ефектами взаємодії близькими до нуля. При виборі дробової репліки важливо також ураховувати насиченість плану
 
Піврепліки, в яких основні ефекти змішані з двухфакторним добутком називаються насиченими планами з роздільною здатність III.
 
При відсутній інформації про ефекти взаємодій двухфакторного добутку експериментатор прагне вибрати репліку з найбільшою роздільною здатністю. Якщо існує якась інформація про ефекти взаємодій, то вона повинна використовуватись при виборі репліки.
 
Також існують насичені плани з роздільною здатністю 4, репліки в яких всі парні взаємодії змішані між собою.
 
=Ефективність реплік=
 
*Ефективність репліки залежить від системи змішування. Репліки, у яких лінійні ефекти змішані з взаємодіями найвищого порядку, є найбільш ефективними, оскільки володіють найбільшою роздільною здатністю.
 
*Для звільнення лінійних ефектів від взаємодій першого порядку можна використовувати метод «перевалу». Сенс методу в додаванні нової репліки, всі знаки якої протилежні початковій репліці.
 
*Із зростанням числа факторів швидко збільшується число реплік різного дробу. Ці репліки характеризуються узагальнюючими визначальними контрастами, які виходять перемножуванням по два, по три і так далі початкових визначальних контрастів.
 
  
 +
<math>{{F}^{AB}}\ge F(\alpha ;(q-1)(p-1);N-pq).</math>
  
 
=Список використаних джерел=
 
=Список використаних джерел=
#1. Адлер Ю.П., Маркова Е.В., Грановский Ю.В. - Планирование эксперимента при поиске оптимальных условий (1973).
+
# Адлер Ю.П., Маркова Е.В., Грановский Ю.В. - Планирование эксперимента при поиске оптимальных условий (1973).
#2. Аністратенко В.О., Федоров В.Г. Математичне планування експерименту в АПК. К.: Вища школа, 1993. – 375 с.
+
# Аністратенко В. О., Федоров В. Г. Математичне планування експериментів в АПК: Навч. Посібник. – К.: Вища шк., 1993. – 375 с. іл..
#3. Конкретні методики викладання. Щетініна О.К., Карпенко О.Н., Донецький національний університет економіки і торгівлі імені  Михайла Туган-Барановського
 
  
  
Рядок 241: Рядок 354:
 
    
 
    
  
{{Завдання:Виступ|POWER|4 березня 2010| Дробові репліки. Насичені плани. Генеруючі співвідношення. Ефективність реплік.}}
+
{{Завдання:Виступ|Pimchikoff|4 березня 2010| Однофакторний, двофакторний і багатофакторний дисперсійний аналізи. Значимість впливів факторів на досліджувані параметри і перевірка відповідних гіпотез.}}
  
 
[[Категорія:ПЕ-2010]]
 
[[Категорія:ПЕ-2010]]
 
[[Категорія:Виступ на семінарі]]
 
[[Категорія:Виступ на семінарі]]
 
[[Категорія:Планування експеримента]]
 
[[Категорія:Планування експеримента]]

Поточна версія на 10:08, 20 березня 2012

Невідредагована стаття
Цю статтю потрібно відредагувати.
Щоб вона відповідала ВИМОГАМ.


{{{img}}}
Імя Артем
Прізвище Пімєнов
По-батькові
Факультет ФІС
Група СНм-51
Залікова книжка


 http://elartu.tstu.edu.ua/handle/123456789/414 Презентація доповіді (університетський репозиторій)

Загальні відомості про дисперсійний аналіз

Дисперсійний аналіз був створений спочатку для статистичної обробки агрономічних дослідів. В наш час його також використовують в економічних, технічних та соціальних експериментах.

Сутність цього аналізу полягає в тому, що загальну дисперсію досліджуваної ознаки розділяють на окремі компоненти, які обумовлені впливом певних конкретних чинників. Істотність їх впливу на цю ознаку здійснюється методом дисперсійного аналізу. Відповідно до дисперсійного аналізу будь-який його результат можна подати у вигляді суми певної кількості компонент. Так, наприклад, якщо досліджується вплив певного чинника на результат експерименту, то модель, що описує структуру останнього, можна подати так:

[math]{{x}_{ij}}=\overline{x}+{{\alpha }_{j}}+{{\varepsilon }_{ij}}[/math]

де [math]{{x}_{ij}}[/math] — значення ознаки X, одержане при i-му експерименті на j-му рівні фактора.

Під рівнем фактора розуміють певну його міру. Наприклад, якщо фактором є добрива, які вносяться в землю з метою збільшення врожайності сільськогосподарської культури, то рівнем фактора в цьому разі є кількість добрива, що вноситься в грунт;

[math]\overline{x}[/math] — загальна середня величина ознаки X;

[math]{{\alpha }_{j}}[/math] — ефект впливу фактора на значення ознаки X на j-му рівні;

[math]{{\varepsilon }_{ij}}[/math] — випадкова компонента, що впливає на значення ознаки X в i-му експерименті на j-му рівні.

При цьому [math]M({{\varepsilon }_{ij}})=0[/math] і [math]{{\varepsilon }_{\text{ij}}}[/math], як випадкові величини мають закон розподілу ймовірностей [math]N\left( 0;{{\sigma }^{2}} \right)[/math] і між собою незалежні [math]({{K}_{ij}}=0\text{ })[/math].

Складнішою моделлю аналізу є вивчення впливу на результати експерименту кількох факторів. Зокрема при аналізі впливу двох факторів структура моделі набуває такого вигляду:

[math]{{x}_{ijk}}=\overline{x}+{{\alpha }_{i}}+{{\beta }_{j}}+{{\gamma }_{ij}}+{{\varepsilon }_{ijk}}[/math]

де [math]{{x}_{i}}_{jk}[/math] – значення ознаки Х в i-му експерименті на j-му рівні впливу фактора A і на k-му рівні впливу фактора В; [math]\overline{x}[/math] — загальна середня величина ознаки X; [math]{{\alpha }_{i}}[/math] — ефект впливу фактора А на i-му рівні, [math]{{\beta }_{j}}[/math] — ефект впливу фактора В на j-му рівні; [math]{{\gamma }_{ij}}[/math] — ефект одночасного впливу факторів A і В; [math]{{\varepsilon }_{ijk}}[/math] — випадкова компонента. У разі проведення дисперсійного аналізу досліджуваний масив даних, одержаних під час експерименту, поділяють на певні групи, які різняться дією на результати експерименту певних рівнів факторів.

Попередні методи статистичного аналізу даних використовують для порівняння двох об’єктів. Але на практиці часто виникають завдання, що стосуються групи об’єктів (наборів спостережуваних даних). Одним з методів для таких завдань є дисперсійний аналіз – статистичний метод виявлення на досліджувану випадкову величину (параметр) одночасної дії одного або декількох факторів. Дія деякого фактора на складну систему спричинює мінливість його властивостей. Фактор може бути відомий або невідомий, природного або штучного походження, як от: умови експерименту, методика вимірювань і опрацювання тощо.

За кількістю оцінюваних факторів дисперсійний аналіз поділяють на одно-, дво- та багатофакторний. Кожен фактор може бути дискретною чи неперервною випадковою змінною, яку розділяють на декілька сталих рівнів (градацій, інтервалів). Якщо кількість вимірювань на всіх рівнях кожного з факторів однакова, то дисперсійний аналіз називають рівномірним, інакше – нерівномірним.

В основі дисперсійного аналізу є такий принцип (факт з математичної статистики): якщо на випадкову величину діють взаємно незалежні фактори A, B, то загальна дисперсія дорівнює сумі дисперсій, зумовлених дією окремо кожного з факторів:

[math]{{\sigma }^{2}}=\sigma _{A}^{2}+\sigma _{B}^{2}+...[/math]

Цей метод ґрунтується на розділенні загальної дисперсії [math]\sigma _{T}^{2}[/math] на складові, що відповідають впливу різних джерел мінливості (дисперсія [math]\sigma _{R}^{2}[/math], зумовлена дією факторів, і залишкова дисперсія [math]\sigma _{D}^{2}[/math], [math]\sigma _{T}^{2}=\sigma _{R}^{2}+\sigma _{D}^{2}[/math]), а застосовувані критерії дають змогу одночасно вивчати відмінності як у середніх значеннях, так і в дисперсіях.

Однофакторний дисперсійний аналіз

Для простоти розглянемо спочатку рівномірний дисперсійний аналіз (одну з можливих моделей), а потім наведемо необхідні модифікації для виконання нерівномірного аналізу.

Результати вимірювань запишемо у вигляді матриці з n рядків та p стовпців:

[math]Y=\left[ \begin{matrix} {{y}_{11}} & ... & {{y}_{1p}} \\ ... & {{y}_{ij}} & ... \\ {{y}_{n1}} & ... & {{y}_{np}} \\ \end{matrix} \right][/math]

Кожен стовпець (градацію фактора) треба розглядати як вибірку нормально розподілених випадкових величин [math]{{\xi }_{1}},{{\xi }_{2}},...,{{\xi }_{p}}[/math] з параметрами [math]M({{\xi }_{j}})={{\mu }_{j}}[/math], [math]D({{\xi }_{j}})={{\sigma }^{2}}[/math] для всіх j=1,…,p (дисперсії однакові).

Отже, для кожної градації фактора (стовпця таблиці даних) маємо фіксоване середнє значення, що є сталим у межах експерименту. Гіпотезу для перевірки сформулюємо так:

[math]{{H}_{0}}:{{\mu }_{1}}={{\mu }_{2}}=...={{\mu }_{p}}=\mu[/math]

Отже, дисперсія випадкової величини [math]{{y}_{ij}}[/math], зумовлена дією фактора на всіх рівнях, [math]\sigma _{R}^{2}=0[/math], і вся мінливість буде спричинена неврахованими факторами:

[math]\sigma _{T}^{2}=\sigma _{D}^{2}[/math] або [math]D({{y}_{ij}})=\sigma _{A}^{2}+\sigma _{D}^{2}[/math]

Схема обчислень для однофакторного дисперсійного аналізу

У математичній статистиці розроблено формальну процедуру дисперсійного аналізу (ANOVA, ANalysis Of VAriance). Схема перевірки нульової гіпотези така.

А. Обчислюємо генеральне середнє [math]\bar{y}[/math] і вибіркові середні [math]{{\bar{y}}_{i}}[/math]:

[math]\bar{y}=\frac{1}{N}\sum\limits_{i=i}^{n}{\sum\limits_{j=1}^{p}{{{y}_{ij}},N=np}}[/math]

для рівномірного однофакторного аналізу або

[math]\bar{y}=\frac{1}{N}\sum\limits_{j=1}^{p}{\sum\limits_{i=i}^{{{n}_{j}}}{{{y}_{ij}}}},N=\sum\limits_{j=1}^{p}{{{n}_{j}}}[/math]

для нерівномірного однофакторного аналізу.

Б. Знаходимо суми квадратів відхилень від відповідних середніх значень:

  • сума, що характеризує мінливість, зумовлену досліджуваним фактором (факторна сума),
[math]S{{S}_{R}}=n\sum\limits_{j=1}^{p}{{{({{{\bar{y}}}_{j}}-\bar{y})}^{2}}}=\sum\limits_{j=1}^{p}{{{n}_{j}}{{({{{\bar{y}}}_{j}}-\bar{y})}^{2}}}[/math]
  • сума, що характеризує мінливість у межах кожної градації фактором (залишкова сума),
[math]S{{S}_{D}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}[/math]
  • сума, що характеризує загальну мінливість (загальна або тотальна сума),
[math]S{{S}_{T}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{n}{{{({{y}_{ij}}-\bar{y})}^{2}}}}=\sum\limits_{j=1}^{p}{\sum\limits_{i=1}^{{{n}_{i}}}{{{({{y}_{ij}}-\bar{y})}^{2}}}}[/math]

Справджується рівність

[math]S{{S}_{T}}=S{{S}_{R}}+S{{S}_{D}}[/math]

В. Визначаємо оцінки дисперсій:

[math]S_{T}^{2}=\frac{S{{S}_{T}}}{N-1};S_{R}^{2}=\frac{S{{S}_{R}}}{p-1};S_{D}^{2}=\frac{S{{S}_{D}}}{N-p}[/math]

Г. Критерій Фішера для перевірки гіпотези [math]{{\text{H}}_{0}}[/math] має вигляд

df 1 = p – 1, df 2 = N – p

Для заданого рівня значущості α знаходимо критичні значення статистики F(α; df 1; df 2).

Обчислені значення записуємо у вигляді таблиці (табл. 1.1), (ANOVA).

Таблиця 1.1 – Результати однофакторного дисперсійного аналізу
Різновид дисперсії  Сума квадратів відхилень  Кількість ступенів вільності  Середній квадрат (оцінка дисперсії)  F-критерій 
Факторна (між вибірками)   [math]S{{S}_{R}}[/math]  p-1   [math]M{{S}_{A}}[/math]  [math]\begin{align} & M{{S}_{A}} \\ & M{{S}_{D}} \\ \end{align}[/math]  
Залишкова (у вибірці)  [math]SS_D[/math]   N-p   [math]MS_D[/math]    
Загальна   [math]SS_T[/math]   N-1      

Двофакторний дисперсійний аналіз

На практиці часто виникає ситуація, коли досліджують вплив двох факторів. Двофакторний дисперсійний аналіз дає змогу не тільки виявити вплив кожного з факторів, а й оцінити їхню взаємодію. Двофакторний аналіз має:

  • перехресну (двосторонню) класифікацію (з однаковою кількістю повторень у клітинці, з одним спостереженням у клітинці (без повторень), та з нерівномірною кількістю спостережень у клітинці);
  • ієрархічну класифікацію, коли один з факторів є головним, а інший – підпорядкованим. Тоді градація фактора B є незалежною в межах кожної з градацій фактора A. Якщо в кожній групі [math]Ai[/math] маємо однакову кількість підгруп [math]B_j[/math], то така ієрархічна класифікація має спеціальну назву – гніздова класифікація. Для ієрархічної класифікації не виникає проблеми оцінки взаємодії факторів (її немає). Також вважаємо, що фактори не взаємодіють, коли маємо класифікацію без повторень.

Схема обчислень для двофакторного дисперсійного аналізу

Схема обчислень для двофакторного аналізу така:

А. Знаходимо вибіркові середні (генеральне середнє [math]\bar{y}[/math], а також середнє в рядку [math]y_{i}^{r}[/math], стовпці [math]y_{j}^{c}[/math] й клітинці [math]{{\bar{y}}_{ij}}[/math]):

[math]\bar{y}=\frac{1}{npq}\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{y}_{ijm}};}}}[/math]
[math]y_{i}^{r}=\frac{1}{np}\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{v}{{{y}_{ijm}};}}[/math]
[math]y_{j}^{c}=\frac{1}{nq}\sum\limits_{i=1}^{q}{\sum\limits_{m=1}^{v}{{{y}_{ijm}};}}[/math]
[math]{{\bar{y}}_{ij}}=\frac{1}{n}\sum\limits_{m=1}^{v}{{{y}_{ijm}}}.[/math]

Б. Обчислюємо суми квадратів відхилень від відповідних середніх:

  • мінливість, зумовлену фактором A,
[math]S{{S}_{A}}=np\sum\limits_{i=1}^{q}{{{(\bar{y}_{i}^{r}-\bar{y})}^{2}}}[/math]
  • мінливість, зумовлену фактором B,
[math]S{{S}_{B}}=nq\sum\limits_{j=1}^{p}{{{(\bar{y}_{j}^{c}-\bar{y})}^{2}}}[/math]
  • мінливість, зумовлену взаємодією факторів A і B,
[math]S{{S}_{AB}}=n\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{{{({{{\bar{y}}}_{ij}}-\bar{y}_{i}^{r}-\bar{y}_{j}^{c}+\bar{y})}^{2}}}}[/math]
  • мінливість у межах кожної з клітинок
[math]S{{S}_{D}}=\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{({{y}_{ijm}}-{{{\bar{y}}}_{ij}})}^{2}}}}}[/math]
  • загальну мінливість спостережуваної ознаки (параметра)
[math]S{{S}_{T}}=\sum\limits_{i=1}^{q}{\sum\limits_{j=1}^{p}{\sum\limits_{m=1}^{n}{{{({{y}_{ijm}}-\bar{y})}^{2}}}}}[/math]

Справджується рівність

[math]S{{S}_{T}}=S{{S}_{A}}+S{{S}_{B}}+S{{S}_{AB}}+S{{S}_{D}}[/math]

В. Знаходимо оцінки дисперсій (середні квадратів відхилень)


[math]M{{S}_{A}}=\frac{S{{S}_{A}}}{(q-1)};M{{S}_{B}}=\frac{S{{S}_{B}}}{(p-1)};[/math]
[math]M{{S}_{AB}}=\frac{S{{S}_{AB}}}{(q-1)(p-1)};[/math]
[math]M{{S}_{D}}=\frac{S{{S}_{D}}}{\frac{pq}{(n-1)}};M{{S}_{T}}=\frac{S{{S}_{T}}}{(N-1)},N=npq.[/math]

Результати двофакторного дисперсійного аналізу записують у таблицю (табл. 1.2).

Таблиця 1.2 – Результати двофакторного дисперсійного аналізу
Різновид дисперсії  Сума квадратів відхилень  Кількість ступенів вільності  Середній квадрат (оцінка дисперсії)  F-критерій 
Факторна для фактора A   [math]SS_A[/math]  p-1   [math]M{{S}_{A}}[/math]  [math]M{{S}_{A}}/M{{S}_{D}}[/math] 
Факторна для фактора B  [math]SS_B[/math]   q-1   [math]MS_B[/math]   [math]M{{S}_{B}}/M{{S}_{D}}[/math] 
Змішана для факторів A і B   [math]SS_A_B[/math]   (p-1)(q-1)  [math]MS_A_B[/math]   [math]M{{S}_{AB}}/M{{S}_{D}}[/math]  
Залишкова  [math]SS_D[/math]   pq(n-1)  [math]MS_D[/math]    
Загальна   [math]SS_T[/math]   npq-1      

Перевірка гіпотез двофакторного дисперсійного аналізу

Нехай [math]\mu _{i}^{r},i=1,...,q[/math] – математичні сподівання рядків табл. 1.3, а [math]\mu _{j}^{c},j=1,...,p[/math] – математичні сподівання стовпців.

Тоді [math]{{\alpha }_{i}}=\mu _{i}^{r}-\mu[/math] – ефект i-ї градації фактора A;

[math]{{\beta }_{j}}=\mu _{j}^{c}-\mu[/math] – ефект j-ї градації фактора B;

[math]{{\gamma }_{ij}}={{\mu }_{ij}}-{{\alpha }_{i}}-{{\beta }_{j}}+\mu[/math] – ефект j-ї градації фактора B в умовах i-ї градації фактора A;

[math]{{\mu }_{ij}}[/math] – математичне сподівання у кожній з клітинок.

Таблиця 1.3 – Вхідні дані для двофакторного аналізу
Рівні фактору  [math]B_1[/math]  ...  [math]B_j[/math]  ...  [math]B_p[/math] 
[math]A_1[/math]  [math]{{y}_{111},...,{y}_{11n}}[/math]  ...  [math]{{y}_{1j1},...,{y}_{1jn}}[/math]  ...  [math]{{y}_{1p1},...,{y}_{1pn}}[/math] 
...  ...  ...   ...   ...   ...  
[math]A_i[/math]  [math]{{y}_{i11},...,{y}_{i1n}}[/math]  ...  [math]{{y}_{ij1},...,{y}_{ijn}}[/math]  ...  [math]{{y}_{ip1},...,{y}_{ipn}}[/math] 
...  ...  ...   ...   ...   ...  
[math]A_q[/math]  [math]{{y}_{q11},...,{y}_{q1n}}[/math]  ...  [math]{{y}_{qj1},...,{y}_{qjn}}[/math]  ...  [math]{{y}_{qp1},...,{y}_{qpn}}[/math] 

Сформулюємо гіпотези, які стверджують, що впливи факторів A і B на всіх рівнях однакові, а взаємовпливу факторів нема:

[math]\begin{align} & H_{0}^{A}:{{\alpha }_{1}}={{\alpha }_{2}}=...={{\alpha }_{q}}; \\ & H_{0}^{B}:{{\beta }_{1}}={{\beta }_{2}}=...={{\beta }_{p}}; \\ \end{align}[/math]

[math]H_{0}^{AB}:{{\gamma }_{ij}}=0[/math] для всіх i та j.

Критерії для перевірки цих гіпотез мають такий вигляд:

[math]\begin{align} & {{F}^{A}}=\frac{M{{S}_{A}}}{M{{S}_{D}}}=\frac{S{{S}_{A}}}{S{{S}_{D}}}\frac{(N-qp)}{(q-1)} \\ & {{F}^{B}}=\frac{M{{S}_{B}}}{M{{S}_{D}}}=\frac{S{{S}_{B}}}{S{{S}_{D}}}\frac{(N-qp)}{(p-1)} \\ & {{F}^{AB}}=\frac{M{{S}_{AB}}}{M{{S}_{D}}}=\frac{S{{S}_{AB}}}{S{{S}_{D}}}\frac{(N-qp)}{(p-1)(q-1)} \\ \end{align}[/math]

Якщо гіпотеза [math]{{H}_{0}}=H_{0}^{A}H_{0}^{B}H_{0}^{AB}[/math] правильна (тобто одночасно виконуються всі три підгіпотези), то [math]\frac{M{{S}_{A}}}{M{{S}_{D}}}[/math], [math]\frac{M{{S}_{B}}}{M{{S}_{D}}}[/math] і [math]\frac{M{{S}_{AB}}}{M{{S}_{D}}}[/math] підпорядковані розподілу Фішера з відповідними степенями вільності. Дію факторів A, B і AB уважатимемо суттєвою (для заданого рівня значущості α), якщо

[math]{{F}^{A}}\ge F(\alpha ;q-1;N-pq)[/math] або

[math]{{F}^{B}}\ge F(\alpha ;p-1;N-pq)[/math], або

[math]{{F}^{AB}}\ge F(\alpha ;(q-1)(p-1);N-pq).[/math]

Список використаних джерел

  1. Адлер Ю.П., Маркова Е.В., Грановский Ю.В. - Планирование эксперимента при поиске оптимальных условий (1973).
  2. Аністратенко В. О., Федоров В. Г. Математичне планування експериментів в АПК: Навч. Посібник. – К.: Вища шк., 1993. – 375 с. іл..



SeminarSpeech.png
Студент: Користувач:Pimchikoff
Виступ відбувся: 4 березня 2010
Тема: Однофакторний, двофакторний і багатофакторний дисперсійний аналізи. Значимість впливів факторів на досліджувані параметри і перевірка відповідних гіпотез.