Відмінності між версіями «Критерії згоди»

Рядок 66: Рядок 66:
 
<math>\chi _{n}^{2}={{\sum\limits_{i=1}^{m}{\left( \frac{{{n}_{i}}-n{{p}_{i}}}{\sqrt{n{{p}_{i}}}} \right)}}^{2}}</math>
 
<math>\chi _{n}^{2}={{\sum\limits_{i=1}^{m}{\left( \frac{{{n}_{i}}-n{{p}_{i}}}{\sqrt{n{{p}_{i}}}} \right)}}^{2}}</math>
  
,де n – обсяг вибірки; <math>{{n}_{i}}</math> - кількість елементів послідовності, що потрапляють у і-тий інтервал; <math>{{p}_{i}}</math> - оцінка ймовірності потрапляння елемента у і-тий інтервал.
+
, де n – обсяг вибірки; <math>{{n}_{i}}</math> - кількість елементів послідовності, що потрапляють у і-тий інтервал; <math>{{p}_{i}}</math> - оцінка ймовірності потрапляння елемента у і-тий інтервал.<br>
 +
Умова
 +
 
 +
<math>{{\chi }^{2}}\le \chi _{1-\alpha ,r}^{2}</math>
 +
 
 +
 
  
  

Версія за 00:02, 25 лютого 2012

{{{img}}}
Імя Галина
Прізвище Пригодська
По-батькові Миколаївна
Факультет ФІС
Група СНм-51
Залікова книжка СНм-11-241


Репозиторія
Презентація доповіді на тему Критерії згоди
є розміщеною в Репозиторії.


До перевірки тієї чи іншої гіпотези доцільно підходити з різних теоретичних позицій. Кожна позиція ґрунтується на розподілі первинних або обчислених даних, які відрізняються від нормального розподілу. Це зумовлено обмеженим числом вимірювань або додатковими умовами при опрацюванні (обробці) дослідних даних. Характеристикою кожного розподілу є набір чисел, заздалегідь протабульованих. При перевірці гіпотези з дослідних даних складається число за тим же правилом, що й наведені в таблиці числа, і порівнюються з табличним числом. Гіпотеза визначається або відхиляється залежно від згоди дослідних і табличних чисел.

Критерій згоди - це табличне число, за допомогою якого приймається або відхиляється гіпотеза при проведенні досліду.

При порівнянні гіпотез є певне табличне значення і відповідна нерівність, яка задає співвідношення між цими значеннями.

Найвідоміші критерії згоди

Найвідоміші критерії згоди

  1. Хіквадрат Пірсона;
  2. Колмогорова;
  3. Стьюдента;
  4. Фішера.

Критерій Стьюдента

Нехай [math]x[/math] - нормально розподілена випадкова величина. При відомому СКВ [math]\sigma[/math] висувається основна гіпотеза [math]M\left( x \right)={{m}_{0}}[/math], або [math]M\left( x \right)-{{m}_{0}}=0[/math], тобто середнє значення або математичне сподівання [math]M\left( x \right)[/math] заданої сукупності, оцінюване на основі випадкової вибірки, не відрізняється від заданого значення [math]{{m}_{0}}[/math].
Альтернативна гіпотеза [math]{{H}_{A}}[/math], протилежна нуль-гіпотезі, тобто [math]M\left( x \right)\ne {{m}_{0}}[/math], або [math]M\left( x \right)-{{m}_{0}}\ne 0[/math]. Як критерії використовується відношення різниці порівнюваних величин [math]\widehat{x}-{{m}_{0}}[/math] до статистичної помилки [math]S/\sqrt{N}[/math] розрахункової величини [math]\widehat{x}[/math]:

[math]Z=\frac{\widehat{x}-{{m}_{0}}}{S}\sqrt{N}[/math]

, де [math]N[/math] – обсяг вибірки, [math]\widehat{x}[/math] - оцінка математичного сподівання генеральної сукупності.


[math]M{{\xi }_{t}}=\sum\limits_{i=1}^{N}{{{x}_{i}}{{p}_{i}}}[/math] - теоретичне математичне сподівання


[math]\widehat{m}=\frac{1}{N}\sum\limits_{i=1}^{N}{{{\xi }_{i}}}[/math] - оцінка математичного сподівання.

Статистична помилка, або помилка репрезентативності (відтворюваності) – це відхилення даного вибіркового показника від його справжнього значення в генеральній сукупності. Для вибіркового середнього це значення в [math]\sqrt{N}[/math] разів менше, ніж СКВ S.Згідно з теорією статистичної обробки обмеженого числа дослідних даних ймовірність значення Z розподілена за законом Стьюдента


[math]\rho \left( z \right)=\frac{1}{\sqrt{\pi \left( N-1 \right)}}\frac{r\left( \frac{N}{2} \right)}{r\left( \frac{N-1}{2} \right)}{{\left( 1+\frac{{{z}^{2}}}{N-1} \right)}^{-\frac{N}{2}}}[/math]

де r гамма-функція, табличні значення якої можна знайти в довідниках з математики або статистики. Залежно від параметрів вибірки значення Z відрізняється від нуля, як міра відхилення вважається абсолютне значення [math]\left| z \right|[/math]. За прийнятим рівнем значущості [math]\alpha[/math] можна визначити таке критичне значення [math]{{z}_{}}[/math], що при вірній гіпотезі [math]{{H}_{0}}[/math] справедлива нерівність [math]\left| z \right|\ge {{z}_{kp}}[/math], тобто [math]\rho \left( \left| z \right|\ge {{z}_{kp}} \right)=\alpha[/math].
Якщо число z , обчислене за вибіркою, задовольняє нерівність [math]\left| z \right|\lt {{z}_{kp}}[/math], то вважатимемо що відхилення z від 0 можна розглядати як випадкове. Тоді говорять, що нуль гіпотеза не відхиляється на основі вибірки, або немає підстав для її відхилення.
Якщо [math]\left| z \right|\ge {{z}_{kp}}[/math], , то при справедливій нуль гіпотезі таке відхилення можливе, але малоймовірне. Тоді вважають більш ймовірним, що нуль гіпотеза невірна, і її відхиляють. При аналізі рішень слід мати на увазі обидва можливі типи помилок.
Співвідношення ймовірностей [math]\alpha[/math] і [math]\beta[/math] проілюстровано на рисунку 1, де наведено графіки розподілу ймовірностей при порівнянні арифметичних середніх, здобутих з двох вибірок: лівий зображає основну гіпотезу, правий альтернативну.

Співвідношення ймовірностей прийняття гіпотез

Залежно від значень обчисленого на підставі вибіркових даних z і його положення по-відношенню до z критичного можливі 2 рішення.
Якщо значення Z дорівнює або перевищує Z критичне, то основна гіпотеза відхиляється і приймається альтернативна.
Якщо [math]\left| z \right|\lt {{z}_{kp}}[/math], то немає підстав для відхилення основної гіпотези, тобто вона підтверджується.
При одному і тому ж розташуванні графіків розподілу імовірностей зі зменшенням ймовірності помилки [math]\alpha[/math] значення [math]\beta[/math] зростає. Імовірність [math]\beta[/math] визнати невірно основну гіпотезу залежить від обсягу вибірки чим , більше N, тим надійніше при даному рівні значущості [math]\alpha[/math] буде встановлена аналізована відмінність між статистичними характеристиками і ступеня вільності між цими характеристиками, потужності критеріїв.

Потужність критерію

Потужність критерію – це ймовірність відхилити нульову гіпотезу, коли вірна альтернативна, тобто [math]\rho =1-\beta[/math].
Чим менша при заданому [math]\alpha[/math] ймовірність [math]\beta[/math], тим краще критерій розділяє гіпотези [math]{{H}_{0}}[/math] і [math]{{H}_{1}}[/math]. Критерій називається потужним, коли він порівняно з іншими можливими критеріями, при заданому рівні значущості показує вищу дискримінуючу здатність, тобто здатність до розділення гіпотез.
За потужність критерії діляться на дві великі групи:параметричні та непараметричні. До параметричних належать критерії, побудовані за допомогою основних параметрів (числових оцінок) вибіркової сукупності М та [math]\sigma[/math]. Ці критерії застосовуються лише тоді, коли головна сукупність, з якої взято одну або кілька вибірок розподілена нормально і за умови рівності основних параметрів , тобто [math]\widehat{{{x}_{1}}}=\widehat{{{x}_{2}}}[/math], [math]{{S}_{1}}={{S}_{2}}[/math].
Непараметричні критерії згоди є функціями лише змінних даної сукупності (вибірки) з їх частотами і не потребують знання типу розподілу генеральної сукупності. Тому їх застосовують при перевірці властивостей гіпотетичного розподілу.
Параметричні критерії мають сильнішу роздільну здатність, більшу потужність порівняно з непараметричними.
Коли досліджувана сукупність розподіляється за нормальним законом, або не дуже відхиляється від нього, слід надавати перевагу таким критеріям.
Потужність критерію збільшується при збільшенні обсягу вибірки . якщо ж обсяг вибірки малий і збільшити його не вдається, то треба брати невисокий рівень значущості, оскільки вибірка мала, а високий рівень значущості призводить до зменшення потужності критерію. Слід пам’ятати, що при зворотному переході вищого рівня значущості, обчислене значення z з області відхилення [math]{{H}_{0}}[/math], може перейти в область її визначення.

Ступені вільності

Поняття статистичного критерію тісно пов’язане з поняттям ступеня вільності. Для більшості критеріїв ступінь вільності є аргументом N-1, що стоїть у знаменнику формули для СКВ є числом ступенів вільності.
Число ступенів вільності – число змінних, значення яких задаються довільно. Іншими словами це є число змінних мінус число лінійних зв’язків, накладених на систему, що вивчається.
Отже, під числом ступенів вільності, будемо розуміти різницю між числом дослідів та числом характеристик, які визначаються за утвореними даними незалежно одне від одного.

Хіквадрат Пірсона

[math]\chi _{n}^{2}={{\sum\limits_{i=1}^{m}{\left( \frac{{{n}_{i}}-n{{p}_{i}}}{\sqrt{n{{p}_{i}}}} \right)}}^{2}}[/math]

, де n – обсяг вибірки; [math]{{n}_{i}}[/math] - кількість елементів послідовності, що потрапляють у і-тий інтервал; [math]{{p}_{i}}[/math] - оцінка ймовірності потрапляння елемента у і-тий інтервал.
Умова

[math]{{\chi }^{2}}\le \chi _{1-\alpha ,r}^{2}[/math]