<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="uk">
		<id>https://wiki.tntu.edu.ua/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Rosinets</id>
		<title>Wiki ТНТУ - Внесок користувача [uk]</title>
		<link rel="self" type="application/atom+xml" href="https://wiki.tntu.edu.ua/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Rosinets"/>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/%D0%A1%D0%BF%D0%B5%D1%86%D1%96%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0:%D0%92%D0%BD%D0%B5%D1%81%D0%BE%D0%BA/Rosinets"/>
		<updated>2026-05-12T08:41:00Z</updated>
		<subtitle>Внесок користувача</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=595</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=595"/>
				<updated>2010-02-27T13:06:19Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
Метод ковзної середньої полягає в послідовному усередненні на деякому інтервалі &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; значень вимірюваної величини х. Рухаючи &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; уздовж осі часу для всіх точок &amp;lt;math&amp;gt;{{\tau }_{i}}&amp;lt;/math&amp;gt;, що попали в нього, відповідні значення &amp;lt;math&amp;gt;{{x}_{i}}&amp;lt;/math&amp;gt; замінимо середніми значеннями; віднесемо ці значення до середини відповідного інтервалу.&lt;br /&gt;
Операція згладжування виконується за формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де і – номер інтервалу; (l+1) – число вимірювань у і-тому інтервалі; &amp;lt;math&amp;gt;(i+\frac{l}{2})&amp;lt;/math&amp;gt; - номер замінюваного вимірювання.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо попередня оцінка виконана невдало і після згладжування залишаються перешкоди, утворені дані знову можна піддати усередненню і робити це багаторазово, до бажаного результату.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для ряду вимірювань&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
обчислимо згладжені значення на інтервалі l+1=3,використовуючи формулу:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже, &amp;lt;math&amp;gt;{{\bar{x}}_{1+\frac{2}{2}}}={{\bar{x}}_{2}}=\frac{1}{3}(3.4+3.1+5.4)=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{2+\frac{2}{2}}}={{\bar{x}}_{3}}=\frac{1}{3}(3.1+5.4+2.7)=3.73&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.66&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{6}}=2.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.43&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.40&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.16&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
На рисунку наведено результат згладжування:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-2.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Іноді при згладжуванні заокруглюють наближення, використовуючи середні значення для не перекриваючих один одного інтервалів. Для цього обчислюють середнє значення за трьома першими точками, приписують результат середині інтервалу, а для наступного обчислення середньої використовують 4-ту, 5-ту і 6-ту точки і т. д.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-3.JPEG|700x210px|border|center|Заокруглення наближення при зглажуванні]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В обох випадках частина початкової і кінцевої інформації втрачається.&lt;br /&gt;
&lt;br /&gt;
=== Метод експоненційного згладжування ===&lt;br /&gt;
Цей метод має найширші можливості. Тут використовують наступні формули:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}=\alpha \cdot {{x}_{N}}+(1-\alpha ){{\bar{x}}_{N-1}}&amp;lt;/math&amp;gt;або&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{\bar{x}}_{N-1}}+\alpha \cdot ({{x}_{N}}-{{\bar{x}}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - параметр згладжування, який вибирається в діапазоні 0..1. Тут обчислювана середня заміняє відповідне значення вимірюваної змінної. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Від величини &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; залежать згладжуючи властивості методу. При різних &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; можна добувати з вихідної інформації високочастотні або низькочастотні складові. Таким чином, з’являється можливість боротися з низько –  і високочастотними шумами, тобто зі швидко – і повільно змінними  у часі перешкодами.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При малих , близьких до 0 &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, сукупність обчислених середніх відобразить низькочастотні зміни вимірюваної змінної, позбавивши їх швидкозмінних перешкод. У цьому випадку говорять про ''інерційне згладжування'', при якому обчислювана середня мало залежить від останнього вимірювання і значною мірою від середньої, утвореної на попередньому кроці. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо обрана величина &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - близька до 1 (наприклад, становить 0,6), то згладжування буде мало інерційним, значення  ближчими до вимірюваних значень х, тобто високі частоти зберігатимуться:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-4.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Критерії відсіювання завідомо помилкових даних  ==&lt;br /&gt;
&lt;br /&gt;
Дані, які відповідають умовам, що змінилися, називають грубими помилками або значеннями, що різко виділяються (аномальними). &lt;br /&gt;
У разі відсіву грубих помилок формулюється нульова гіпотеза:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень (вибіркових, дослідних даних) немає значень, що різко виділяються (аномальних)&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Альтернативною гіпотезою може бути:&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є тільки одна груба помилка&amp;quot;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є дві або більш грубих помилок&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Найпоширенішими і теоретично обґрунтованими в цьому випадку є&lt;br /&gt;
*критерій Н.В. Смірнова (використовується при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
*і критерій Діксона (застосовується як при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt; так і при &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Критерій Н. В. Смірнова ===&lt;br /&gt;
&lt;br /&gt;
Якщо відомо, що є тільки одне аномальне значення (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;), то воно буде крайнім членом варіаційного ряду. Тому перевіряти вибірку на наявність однієї грубої помилки природно за допомогою статистики (якщо сумнів викликає перший член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}=\min {{x}_{i}}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}=\frac{\bar{x}-{{x}_{1}}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;                                                                                    &lt;br /&gt;
або якщо сумніви викликає максимальний член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{n}}=\max {{x}_{i}}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{n}}=\frac{{{x}_{n}}-\bar{x}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Цей критерій вперше був запропонований Н.В. Смірновим. Він досліджував розподіл цих статистик і склав таблиці процентних точок &lt;br /&gt;
&amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;. При вибраному рівні значущості  критична область для критерію Н.В. Смірнова будується таким чином:  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; або &amp;lt;math&amp;gt;{{u}_{n}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; – це табличні значення &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
У випадку якщо виконується остання умова (статистика потрапляє в критичну область), то нульова гіпотеза відхиляється, тобто викид х1 або  хn не випадковий і не характерний для даної сукупності даних, а визначається умовами, що змінилися або грубими помилками при проведенні дослідів. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В цьому випадку значення  або виключають з розгляду, а знайдені раніше оцінки піддаються коректуванню з урахуванням відкинутого результату. &lt;br /&gt;
&lt;br /&gt;
=== Критерій Діксона ===&lt;br /&gt;
&lt;br /&gt;
В критерії Діксона застосовується статистика:&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найбільше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{n}}-{{x}_{n-i}}}{{{x}_{n}}-{{x}_{j+1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найменше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{1+i}}-{{x}_{1}}}{{{x}_{n-j}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Де &amp;lt;math&amp;gt;{{x}_{n}},{{x}_{n-i}},{{x}_{j+1}}&amp;lt;/math&amp;gt; – члени варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}\le {{x}_{2}}\le {{x}_{3}}...\le {{x}_{i}}...\le {{x}_{n}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Діксоном були отримані розподіли для статистик &amp;lt;math&amp;gt;{{r}_{10}},{{r}_{11}},{{r}_{12}},{{r}_{20}},{{r}_{21}},{{r}_{22}}&amp;lt;/math&amp;gt; при об’ємі вибірки 3 &amp;lt;=n&amp;lt;=30.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Наприклад, статистика&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{10}}=\frac{{{x}_{n}}-{{x}_{n-1}}}{{{x}_{n}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
використовується для перевірки максимального або мінімального члена варіаційного ряду (одна груба помилка, альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) при 3 &amp;lt;= n &amp;lt;= 7.&lt;br /&gt;
Якщо при тому ж об'ємі вибірки передбачається наявність двох і більше значень, що різко виділяються (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;), то використовується статистика &amp;lt;math&amp;gt;{{r}_{20}}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Статистики критерію Діксона, що використовуються при інших об'ємах вибірки, приведені в таблиці:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-5.JPEG|700x210px|border|center|Статистики критерію Діксона]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Большая Советская Энциклопедия // режим доступу: http://bse.sci-lib.com/article086042.html (станом на 13.02.10)&lt;br /&gt;
# Н. А. Спирин, В. В. Лавров. Методы планирования и обработки результатов инженерного эксперимента. – Екатеринбург: 2004, - 257 с. &lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=594</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=594"/>
				<updated>2010-02-27T12:59:52Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
Метод ковзної середньої полягає в послідовному усередненні на деякому інтервалі &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; значень вимірюваної величини х. Рухаючи &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; уздовж осі часу для всіх точок &amp;lt;math&amp;gt;{{\tau }_{i}}&amp;lt;/math&amp;gt;, що попали в нього, відповідні значення &amp;lt;math&amp;gt;{{x}_{i}}&amp;lt;/math&amp;gt; замінимо середніми значеннями; віднесемо ці значення до середини відповідного інтервалу.&lt;br /&gt;
Операція згладжування виконується за формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де і – номер інтервалу; (l+1) – число вимірювань у і-тому інтервалі; &amp;lt;math&amp;gt;(i+\frac{l}{2})&amp;lt;/math&amp;gt; - номер замінюваного вимірювання.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо попередня оцінка виконана невдало і після згладжування залишаються перешкоди, утворені дані знову можна піддати усередненню і робити це багаторазово, до бажаного результату.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для ряду вимірювань&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
обчислимо згладжені значення на інтервалі l+1=3,використовуючи формулу:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже, &amp;lt;math&amp;gt;{{\bar{x}}_{1+\frac{2}{2}}}={{\bar{x}}_{2}}=\frac{1}{3}(3.4+3.1+5.4)=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{2+\frac{2}{2}}}={{\bar{x}}_{3}}=\frac{1}{3}(3.1+5.4+2.7)=3.73&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.66&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{6}}=2.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.43&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.40&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.16&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
На рисунку наведено результат згладжування:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-2.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Іноді при згладжуванні заокруглюють наближення, використовуючи середні значення для не перекриваючих один одного інтервалів. Для цього обчислюють середнє значення за трьома першими точками, приписують результат середині інтервалу, а для наступного обчислення середньої використовують 4-ту, 5-ту і 6-ту точки і т. д.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-3.JPEG|700x210px|border|center|Заокруглення наближення при зглажуванні]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В обох випадках частина початкової і кінцевої інформації втрачається.&lt;br /&gt;
&lt;br /&gt;
=== Метод експоненційного згладжування ===&lt;br /&gt;
Цей метод має найширші можливості. Тут використовують наступні формули:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}=\alpha \cdot {{x}_{N}}+(1-\alpha ){{\bar{x}}_{N-1}}&amp;lt;/math&amp;gt;або&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{\bar{x}}_{N-1}}+\alpha \cdot ({{x}_{N}}-{{\bar{x}}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - параметр згладжування, який вибирається в діапазоні 0..1. Тут обчислювана середня заміняє відповідне значення вимірюваної змінної. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Від величини &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; залежать згладжуючи властивості методу. При різних &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; можна добувати з вихідної інформації високочастотні або низькочастотні складові. Таким чином, з’являється можливість боротися з низько –  і високочастотними шумами, тобто зі швидко – і повільно змінними  у часі перешкодами.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При малих , близьких до 0 &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, сукупність обчислених середніх відобразить низькочастотні зміни вимірюваної змінної, позбавивши їх швидкозмінних перешкод. У цьому випадку говорять про ''інерційне згладжування'', при якому обчислювана середня мало залежить від останнього вимірювання і значною мірою від середньої, утвореної на попередньому кроці. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо обрана величина &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - близька до 1 (наприклад, становить 0,6), то згладжування буде мало інерційним, значення  ближчими до вимірюваних значень х, тобто високі частоти зберігатимуться:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-4.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Критерії відсіювання завідомо помилкових даних  ==&lt;br /&gt;
&lt;br /&gt;
Дані, які відповідають умовам, що змінилися, називають грубими помилками або значеннями, що різко виділяються (аномальними). &lt;br /&gt;
У разі відсіву грубих помилок формулюється нульова гіпотеза:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень (вибіркових, дослідних даних) немає значень, що різко виділяються (аномальних)&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Альтернативною гіпотезою може бути:&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є тільки одна груба помилка&amp;quot;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є дві або більш грубих помилок&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Найпоширенішими і теоретично обґрунтованими в цьому випадку є&lt;br /&gt;
*критерій Н.В. Смірнова (використовується при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
*і критерій Діксона (застосовується як при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt; так і при &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Критерій Н. В. Смірнова ===&lt;br /&gt;
&lt;br /&gt;
Якщо відомо, що є тільки одне аномальне значення (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;), то воно буде крайнім членом варіаційного ряду.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Тому перевіряти вибірку на наявність однієї грубої помилки природно за допомогою статистики (якщо сумнів викликає перший член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}=\underset{i}{\mathop{\min }}\,{{x}_{i}}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}=\frac{\bar{x}-{{x}_{1}}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;                                                                                    &lt;br /&gt;
або якщо сумніви викликає максимальний член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{n}}=\underset{i}{\mathop{\max }}\,{{x}_{i}}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{n}}=\frac{{{x}_{n}}-\bar{x}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Цей критерій вперше був запропонований Н.В. Смірновим. Він досліджував розподіл цих статистик і склав таблиці процентних точок &lt;br /&gt;
&amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;. При вибраному рівні значущості  критична область для критерію Н.В. Смірнова будується таким чином:  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; або &amp;lt;math&amp;gt;{{u}_{n}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; – це табличні значення &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
У випадку якщо виконується остання умова (статистика потрапляє в критичну область), то нульова гіпотеза відхиляється, тобто викид х1 або  хn не випадковий і не характерний для даної сукупності даних, а визначається умовами, що змінилися або грубими помилками при проведенні дослідів. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В цьому випадку значення  або виключають з розгляду, а знайдені раніше оцінки піддаються коректуванню з урахуванням відкинутого результату. &lt;br /&gt;
&lt;br /&gt;
=== Критерій Діксона ===&lt;br /&gt;
&lt;br /&gt;
В критерії Діксона застосовується статистика:&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найбільше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{n}}-{{x}_{n-i}}}{{{x}_{n}}-{{x}_{j+1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найменше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{1+i}}-{{x}_{1}}}{{{x}_{n-j}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Де &amp;lt;math&amp;gt;{{x}_{n}},{{x}_{n-i}},{{x}_{j+1}}&amp;lt;/math&amp;gt; – члени варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}\le {{x}_{2}}\le {{x}_{3}}...\le {{x}_{i}}...\le {{x}_{n}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Діксоном були отримані розподіли для статистик &amp;lt;math&amp;gt;{{r}_{10}},{{r}_{11}},{{r}_{12}},{{r}_{20}},{{r}_{21}},{{r}_{22}}&amp;lt;/math&amp;gt; при об’ємі вибірки 3 &amp;lt;=n&amp;lt;=30.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Наприклад, статистика&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{10}}=\frac{{{x}_{n}}-{{x}_{n-1}}}{{{x}_{n}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
використовується для перевірки максимального або мінімального члена варіаційного ряду (одна груба помилка, альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) при 3 &amp;lt;= n &amp;lt;= 7.&lt;br /&gt;
Якщо при тому ж об'ємі вибірки передбачається наявність двох і більше значень, що різко виділяються (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;), то використовується статистика &amp;lt;math&amp;gt;{{r}_{20}}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Статистики критерію Діксона, що використовуються при інших об'ємах вибірки, приведені в таблиці:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-5.JPEG|700x210px|border|center|Статистики критерію Діксона]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Большая Советская Энциклопедия // режим доступу: http://bse.sci-lib.com/article086042.html (станом на 13.02.10)&lt;br /&gt;
# Н. А. Спирин, В. В. Лавров. Методы планирования и обработки результатов инженерного эксперимента. – Екатеринбург: 2004, - 257 с. &lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-5.JPEG&amp;diff=593</id>
		<title>Файл:N-5.JPEG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-5.JPEG&amp;diff=593"/>
				<updated>2010-02-27T12:54:55Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=592</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=592"/>
				<updated>2010-02-27T12:50:57Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
Метод ковзної середньої полягає в послідовному усередненні на деякому інтервалі &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; значень вимірюваної величини х. Рухаючи &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; уздовж осі часу для всіх точок &amp;lt;math&amp;gt;{{\tau }_{i}}&amp;lt;/math&amp;gt;, що попали в нього, відповідні значення &amp;lt;math&amp;gt;{{x}_{i}}&amp;lt;/math&amp;gt; замінимо середніми значеннями; віднесемо ці значення до середини відповідного інтервалу.&lt;br /&gt;
Операція згладжування виконується за формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де і – номер інтервалу; (l+1) – число вимірювань у і-тому інтервалі; &amp;lt;math&amp;gt;(i+\frac{l}{2})&amp;lt;/math&amp;gt; - номер замінюваного вимірювання.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо попередня оцінка виконана невдало і після згладжування залишаються перешкоди, утворені дані знову можна піддати усередненню і робити це багаторазово, до бажаного результату.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для ряду вимірювань&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
обчислимо згладжені значення на інтервалі l+1=3,використовуючи формулу:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже, &amp;lt;math&amp;gt;{{\bar{x}}_{1+\frac{2}{2}}}={{\bar{x}}_{2}}=\frac{1}{3}(3.4+3.1+5.4)=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{2+\frac{2}{2}}}={{\bar{x}}_{3}}=\frac{1}{3}(3.1+5.4+2.7)=3.73&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.66&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{6}}=2.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.43&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.40&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.16&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
На рисунку наведено результат згладжування:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-2.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Іноді при згладжуванні заокруглюють наближення, використовуючи середні значення для не перекриваючих один одного інтервалів. Для цього обчислюють середнє значення за трьома першими точками, приписують результат середині інтервалу, а для наступного обчислення середньої використовують 4-ту, 5-ту і 6-ту точки і т. д.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-3.JPEG|700x210px|border|center|Заокруглення наближення при зглажуванні]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В обох випадках частина початкової і кінцевої інформації втрачається.&lt;br /&gt;
&lt;br /&gt;
=== Метод експоненційного згладжування ===&lt;br /&gt;
Цей метод має найширші можливості. Тут використовують наступні формули:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}=\alpha \cdot {{x}_{N}}+(1-\alpha ){{\bar{x}}_{N-1}}&amp;lt;/math&amp;gt;або&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{\bar{x}}_{N-1}}+\alpha \cdot ({{x}_{N}}-{{\bar{x}}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - параметр згладжування, який вибирається в діапазоні 0..1. Тут обчислювана середня заміняє відповідне значення вимірюваної змінної. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Від величини &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; залежать згладжуючи властивості методу. При різних &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; можна добувати з вихідної інформації високочастотні або низькочастотні складові. Таким чином, з’являється можливість боротися з низько –  і високочастотними шумами, тобто зі швидко – і повільно змінними  у часі перешкодами.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При малих , близьких до 0 &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, сукупність обчислених середніх відобразить низькочастотні зміни вимірюваної змінної, позбавивши їх швидкозмінних перешкод. У цьому випадку говорять про ''інерційне згладжування'', при якому обчислювана середня мало залежить від останнього вимірювання і значною мірою від середньої, утвореної на попередньому кроці. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо обрана величина &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - близька до 1 (наприклад, становить 0,6), то згладжування буде мало інерційним, значення  ближчими до вимірюваних значень х, тобто високі частоти зберігатимуться:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-4.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Критерії відсіювання завідомо помилкових даних  ==&lt;br /&gt;
&lt;br /&gt;
Дані, які відповідають умовам, що змінилися, називають грубими помилками або значеннями, що різко виділяються (аномальними). &lt;br /&gt;
У разі відсіву грубих помилок формулюється нульова гіпотеза:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень (вибіркових, дослідних даних) немає значень, що різко виділяються (аномальних)&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Альтернативною гіпотезою може бути:&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є тільки одна груба помилка&amp;quot;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є дві або більш грубих помилок&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Найпоширенішими і теоретично обґрунтованими в цьому випадку є&lt;br /&gt;
*критерій Н.В. Смірнова (використовується при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
*і критерій Діксона (застосовується як при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt; так і при &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Критерій Н. В. Смірнова ===&lt;br /&gt;
&lt;br /&gt;
Якщо відомо, що є тільки одне аномальне значення (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;), то воно буде крайнім членом варіаційного ряду.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Тому перевіряти вибірку на наявність однієї грубої помилки природно за допомогою статистики (якщо сумнів викликає перший член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}=\underset{i}{\mathop{\min }}\,{{x}_{i}}&amp;lt;/math&amp;gt;):&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}=\frac{\bar{x}-{{x}_{1}}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;                                                                                    &lt;br /&gt;
або якщо сумніви викликає максимальний член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{n}}=\underset{i}{\mathop{\max }}\,{{x}_{i}}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{n}}=\frac{{{x}_{n}}-\bar{x}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Цей критерій вперше був запропонований Н.В. Смірновим. Він досліджував розподіл цих статистик і склав таблиці процентних точок &lt;br /&gt;
&amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;. При вибраному рівні значущості  критична область для критерію Н.В. Смірнова будується таким чином:  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; або &amp;lt;math&amp;gt;{{u}_{n}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; – це табличні значення &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
У випадку якщо виконується остання умова (статистика потрапляє в критичну область), то нульова гіпотеза відхиляється, тобто викид х1 або  хn не випадковий і не характерний для даної сукупності даних, а визначається умовами, що змінилися або грубими помилками при проведенні дослідів. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В цьому випадку значення  або виключають з розгляду, а знайдені раніше оцінки піддаються коректуванню з урахуванням відкинутого результату. &lt;br /&gt;
&lt;br /&gt;
=== Критерій Діксона ===&lt;br /&gt;
&lt;br /&gt;
В критерії Діксона застосовується статистика:&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найбільше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{n}}-{{x}_{n-i}}}{{{x}_{n}}-{{x}_{j+1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найменше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{1+i}}-{{x}_{1}}}{{{x}_{n-j}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Де &amp;lt;math&amp;gt;{{x}_{n}},{{x}_{n-i}},{{x}_{j+1}}&amp;lt;/math&amp;gt; – члени варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}\le {{x}_{2}}\le {{x}_{3}}...\le {{x}_{i}}...\le {{x}_{n}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Діксоном були отримані розподіли для статистик &amp;lt;math&amp;gt;{{r}_{10}},{{r}_{11}},{{r}_{12}},{{r}_{20}},{{r}_{21}},{{r}_{22}}&amp;lt;/math&amp;gt; при об’ємі вибірки 3 &amp;lt;=n&amp;lt;=30.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Наприклад, статистика&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{10}}=\frac{{{x}_{n}}-{{x}_{n-1}}}{{{x}_{n}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
використовується для перевірки максимального або мінімального члена варіаційного ряду (одна груба помилка, альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) при 3 &amp;lt;= n &amp;lt;= 7.&lt;br /&gt;
Якщо при тому ж об'ємі вибірки передбачається наявність двох і більше значень, що різко виділяються (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;), то використовується статистика &amp;lt;math&amp;gt;{{r}_{20}}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Статистики критерію Діксона, що використовуються при інших об'ємах вибірки, приведені в таблиці:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-5.JPEG|700x210px|border|center|Статистики критерію Діксона]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Большая Советская Энциклопедия // режим доступу: http://bse.sci-lib.com/article086042.html (станом на 13.02.10)&lt;br /&gt;
# Н. А. Спирин, В. В. Лавров. Методы планирования и обработки результатов инженерного эксперимента. – Екатеринбург: 2004, - 257 с. &lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=591</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=591"/>
				<updated>2010-02-27T12:41:39Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
Метод ковзної середньої полягає в послідовному усередненні на деякому інтервалі &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; значень вимірюваної величини х. Рухаючи &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; уздовж осі часу для всіх точок &amp;lt;math&amp;gt;{{\tau }_{i}}&amp;lt;/math&amp;gt;, що попали в нього, відповідні значення &amp;lt;math&amp;gt;{{x}_{i}}&amp;lt;/math&amp;gt; замінимо середніми значеннями; віднесемо ці значення до середини відповідного інтервалу.&lt;br /&gt;
Операція згладжування виконується за формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де і – номер інтервалу; (l+1) – число вимірювань у і-тому інтервалі; &amp;lt;math&amp;gt;(i+\frac{l}{2})&amp;lt;/math&amp;gt; - номер замінюваного вимірювання.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо попередня оцінка виконана невдало і після згладжування залишаються перешкоди, утворені дані знову можна піддати усередненню і робити це багаторазово, до бажаного результату.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для ряду вимірювань&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
обчислимо згладжені значення на інтервалі l+1=3,використовуючи формулу:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже, &amp;lt;math&amp;gt;{{\bar{x}}_{1+\frac{2}{2}}}={{\bar{x}}_{2}}=\frac{1}{3}(3.4+3.1+5.4)=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{2+\frac{2}{2}}}={{\bar{x}}_{3}}=\frac{1}{3}(3.1+5.4+2.7)=3.73&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.66&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{6}}=2.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.43&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.40&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.16&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
На рисунку наведено результат згладжування:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-2.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Іноді при згладжуванні заокруглюють наближення, використовуючи середні значення для не перекриваючих один одного інтервалів. Для цього обчислюють середнє значення за трьома першими точками, приписують результат середині інтервалу, а для наступного обчислення середньої використовують 4-ту, 5-ту і 6-ту точки і т. д.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-3.JPEG|700x210px|border|center|Заокруглення наближення при зглажуванні]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В обох випадках частина початкової і кінцевої інформації втрачається.&lt;br /&gt;
&lt;br /&gt;
=== Метод експоненційного згладжування ===&lt;br /&gt;
Цей метод має найширші можливості. Тут використовують наступні формули:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}=\alpha \cdot {{x}_{N}}+(1-\alpha ){{\bar{x}}_{N-1}}&amp;lt;/math&amp;gt;або&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{\bar{x}}_{N-1}}+\alpha \cdot ({{x}_{N}}-{{\bar{x}}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - параметр згладжування, який вибирається в діапазоні 0..1. Тут обчислювана середня заміняє відповідне значення вимірюваної змінної. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Від величини &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; залежать згладжуючи властивості методу. При різних &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; можна добувати з вихідної інформації високочастотні або низькочастотні складові. Таким чином, з’являється можливість боротися з низько –  і високочастотними шумами, тобто зі швидко – і повільно змінними  у часі перешкодами.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При малих , близьких до 0 &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, сукупність обчислених середніх відобразить низькочастотні зміни вимірюваної змінної, позбавивши їх швидкозмінних перешкод. У цьому випадку говорять про ''інерційне згладжування'', при якому обчислювана середня мало залежить від останнього вимірювання і значною мірою від середньої, утвореної на попередньому кроці. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо обрана величина &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - близька до 1 (наприклад, становить 0,6), то згладжування буде мало інерційним, значення  ближчими до вимірюваних значень х, тобто високі частоти зберігатимуться:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-4.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Критерії відсіювання завідомо помилкових даних  ==&lt;br /&gt;
&lt;br /&gt;
Дані, які відповідають умовам, що змінилися, називають грубими помилками або значеннями, що різко виділяються (аномальними). &lt;br /&gt;
У разі відсіву грубих помилок формулюється нульова гіпотеза:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень (вибіркових, дослідних даних) немає значень, що різко виділяються (аномальних)&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Альтернативною гіпотезою може бути:&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є тільки одна груба помилка&amp;quot;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;або &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;: &amp;quot;Серед результатів спостережень є дві або більш грубих помилок&amp;quot;.&amp;lt;/center&amp;gt;&lt;br /&gt;
Найпоширенішими і теоретично обґрунтованими в цьому випадку є&lt;br /&gt;
*критерій Н.В. Смірнова (використовується при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
*і критерій Діксона (застосовується як при &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt; так і при &amp;lt;math&amp;gt;H_{1}^{(2)}&amp;lt;/math&amp;gt;) &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Критерій Н. В. Смірнова ===&lt;br /&gt;
&lt;br /&gt;
Якщо відомо, що є тільки одне аномальне значення (альтернативна гіпотеза &amp;lt;math&amp;gt;H_{1}^{(1)}&amp;lt;/math&amp;gt;), то воно буде крайнім членом варіаційного ряду.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Тому перевіряти вибірку на наявність однієї грубої помилки природно за допомогою статистики (якщо сумнів викликає перший член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{1}}=\underset{i}{\mathop{\min }}\,{{x}_{i}}&amp;lt;/math&amp;gt;):&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}=\frac{\bar{x}-{{x}_{1}}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;                                                                                    &lt;br /&gt;
або якщо сумніви викликає максимальний член варіаційного ряду &amp;lt;math&amp;gt;{{x}_{n}}=\underset{i}{\mathop{\max }}\,{{x}_{i}}&amp;lt;/math&amp;gt;:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{n}}=\frac{{{x}_{n}}-\bar{x}}{{{s}_{x}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Цей критерій вперше був запропонований Н.В. Смірновим. Він досліджував розподіл цих статистик і склав таблиці процентних точок &lt;br /&gt;
&amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;. При вибраному рівні значущості  критична область для критерію Н.В. Смірнова будується таким чином:  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{u}_{1}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; або &amp;lt;math&amp;gt;{{u}_{n}}&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;{{u}_{\alpha ,n}}&amp;lt;/math&amp;gt; – це табличні значення &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
У випадку якщо виконується остання умова (статистика потрапляє в критичну область), то нульова гіпотеза відхиляється, тобто викид х1 або  хn не випадковий і не характерний для даної сукупності даних, а визначається умовами, що змінилися або грубими помилками при проведенні дослідів. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В цьому випадку значення  або виключають з розгляду, а знайдені раніше оцінки піддаються коректуванню з урахуванням відкинутого результату. &lt;br /&gt;
&lt;br /&gt;
=== Критерій Діксона ===&lt;br /&gt;
&lt;br /&gt;
В критерії Діксона застосовується статистика:&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найбільше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{n}}-{{x}_{n-i}}}{{{x}_{n}}-{{x}_{j+1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
*якщо підозріла «чужорідна» точка має найменше значення:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{r}_{i,j}}=\frac{{{x}_{1+i}}-{{x}_{1}}}{{{x}_{n-j}}-{{x}_{1}}}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Де                – члени варіаційного ряду &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Дисперсійний аналіз // режим доступу: http://lp.edu.ua/fileadmin/ICCT/top/pub/Chaykivskyy/mm/da.pdf (станом на 14.02.10)&lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-4.JPEG&amp;diff=590</id>
		<title>Файл:N-4.JPEG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-4.JPEG&amp;diff=590"/>
				<updated>2010-02-27T12:20:41Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-3.JPEG&amp;diff=589</id>
		<title>Файл:N-3.JPEG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-3.JPEG&amp;diff=589"/>
				<updated>2010-02-27T12:20:09Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: завантажив нову версію «Файл:N-3.JPEG»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-3.JPEG&amp;diff=588</id>
		<title>Файл:N-3.JPEG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-3.JPEG&amp;diff=588"/>
				<updated>2010-02-27T12:19:55Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-2.JPEG&amp;diff=587</id>
		<title>Файл:N-2.JPEG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-2.JPEG&amp;diff=587"/>
				<updated>2010-02-27T12:19:27Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=586</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=586"/>
				<updated>2010-02-27T12:18:58Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
Метод ковзної середньої полягає в послідовному усередненні на деякому інтервалі &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; значень вимірюваної величини х. Рухаючи &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; уздовж осі часу для всіх точок &amp;lt;math&amp;gt;{{\tau }_{i}}&amp;lt;/math&amp;gt;, що попали в нього, відповідні значення &amp;lt;math&amp;gt;{{x}_{i}}&amp;lt;/math&amp;gt; замінимо середніми значеннями; віднесемо ці значення до середини відповідного інтервалу.&lt;br /&gt;
Операція згладжування виконується за формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де і – номер інтервалу; (l+1) – число вимірювань у і-тому інтервалі; &amp;lt;math&amp;gt;(i+\frac{l}{2})&amp;lt;/math&amp;gt; - номер замінюваного вимірювання.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо попередня оцінка виконана невдало і після згладжування залишаються перешкоди, утворені дані знову можна піддати усередненню і робити це багаторазово, до бажаного результату.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для ряду вимірювань&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
обчислимо згладжені значення на інтервалі l+1=3,використовуючи формулу:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже, &amp;lt;math&amp;gt;{{\bar{x}}_{1+\frac{2}{2}}}={{\bar{x}}_{2}}=\frac{1}{3}(3.4+3.1+5.4)=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{2+\frac{2}{2}}}={{\bar{x}}_{3}}=\frac{1}{3}(3.1+5.4+2.7)=3.73&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.66&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{6}}=2.97&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.43&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.40&amp;lt;/math&amp;gt;; &amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.16&amp;lt;/math&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
На рисунку наведено результат згладжування:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-2.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Іноді при згладжуванні заокруглюють наближення, використовуючи середні значення для не перекриваючих один одного інтервалів. Для цього обчислюють середнє значення за трьома першими точками, приписують результат середині інтервалу, а для наступного обчислення середньої використовують 4-ту, 5-ту і 6-ту точки і т. д.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-3.JPEG|700x210px|border|center|Заокруглення наближення при зглажуванні]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В обох випадках частина початкової і кінцевої інформації втрачається.&lt;br /&gt;
&lt;br /&gt;
=== Метод експоненційного згладжування ===&lt;br /&gt;
Цей метод має найширші можливості. Тут використовують наступні формули:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}=\alpha \cdot {{x}_{N}}+(1-\alpha ){{\bar{x}}_{N-1}}&amp;lt;/math&amp;gt;або&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{\bar{x}}_{N-1}}+\alpha \cdot ({{x}_{N}}-{{\bar{x}}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;\center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - параметр згладжування, який вибирається в діапазоні 0..1. Тут обчислювана середня заміняє відповідне значення вимірюваної змінної. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Від величини &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; залежать згладжуючи властивості методу. При різних &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; можна добувати з вихідної інформації високочастотні або низькочастотні складові. Таким чином, з’являється можливість боротися з низько –  і високочастотними шумами, тобто зі швидко – і повільно змінними  у часі перешкодами.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При малих , близьких до 0 &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, сукупність обчислених середніх відобразить низькочастотні зміни вимірюваної змінної, позбавивши їх швидкозмінних перешкод. У цьому випадку говорять про ''інерційне згладжування'', при якому обчислювана середня мало залежить від останнього вимірювання і значною мірою від середньої, утвореної на попередньому кроці. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо обрана величина &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; - близька до 1 (наприклад, становить 0,6), то згладжування буде мало інерційним, значення  ближчими до вимірюваних значень х, тобто високі частоти зберігатимуться:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-4.JPEG|700x210px|border|center|Результати згладжування]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Критерії відсіювання завідомо помилкових даних  ==&lt;br /&gt;
&lt;br /&gt;
Планування за латинським квадратом дозволяє ввести в дослідження три фактора. Для чотирьох факторів хороші властивості має план експерименту по схемі греко-латинського квадрату. Число рівнів для всіх факторів повинно бути однакове.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:2-a.JPEG|700x210px|border|center|Греко-латинський квадрат 3х3]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.2 - Греко-латинський квадрат 3х3&amp;lt;/center&amp;gt;&lt;br /&gt;
[[Файл:3.JPEG|1030x300px|border|center|Греко-латинський квадрат 5х5]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.3 - Греко-латинський квадрат 5х5&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
В греко-латинських квадратах є &amp;lt;math&amp;gt;{{n}^{2}}&amp;lt;/math&amp;gt; різких комбінацій рівнів факторів замість &amp;lt;math&amp;gt;{{n}^{4}}&amp;lt;/math&amp;gt; комбінацій повного чотирифакторного експерименту. Тому греко-латинський квадрат являє собою &amp;lt;math&amp;gt;1/{{n}^{2}}&amp;lt;/math&amp;gt; репліку від ПФЕ.&lt;br /&gt;
Дисперсійний аналіз греко-латинського квадрату проводять так само, як і аналіз звичайного латинського квадрата, з врахуванням четвертого фактора D. &lt;br /&gt;
Використання греко-латинських та гіпер-греко-латинських квадратів в якості планів експерименту одночасно дає економію в числі дослідів та приводить до спрощення обчислень.&lt;br /&gt;
&lt;br /&gt;
== Латинські куби ==&lt;br /&gt;
&lt;br /&gt;
Повному факторному експерименту для трьох факторів &amp;lt;math&amp;gt;{{n}^{3}}&amp;lt;/math&amp;gt; (n&amp;gt;2) відповідає кубічне розміщення з n елементів, що містить n3 позицій. Трьом ребрам кубу відповідають фактори А, В, С з рівнями 0, 1, 2, …, n-1. Коли ввести в план четвертий фактор D і рівні цього фактору (0, 1, 2, …, n-1) розмістити у відповідних до дослідів точках кубічного розміщення, то одержимо латинський куб розміру n першого порядку [1].&lt;br /&gt;
Планування експерименту по латинському кубу першого порядку дозволяє включити в розгляд чотири фактори (A, B, C i D). Відмінність від греко-латинського квадрату, котрий також дає можливість вивчити вплив чотирьох факторів є в тому, що в латинському кубі три фактори (A, B, C) рахуються головними і один фактор (D) складає елімінуюче групування, а в греко-латинському квадраті головними рахуються два фактори А та В, а C i D складають подвійне елімінуюче групування. Число дослідів в кубі в n раз більше, ніж в греко-латинському квадраті.&lt;br /&gt;
Два латинських куба розміром n першого порядку ортогональні, коли при накладанні їх один на одного кожний елемент одного кубу зустрічається з кожним елементом другого кубу n разів. Два таких ортогональних куба, накладених один на одного, представляють греко-латинський куб розміру n першого порядку. Планування по схемі греко-латинського кубу дозволяє ввести в експеримент п’ятий фактор.&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Дисперсійний аналіз // режим доступу: http://lp.edu.ua/fileadmin/ICCT/top/pub/Chaykivskyy/mm/da.pdf (станом на 14.02.10)&lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=585</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=585"/>
				<updated>2010-02-27T11:54:23Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
Метод ковзної середньої полягає в послідовному усередненні на деякому інтервалі &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; значень вимірюваної величини х. Рухаючи &amp;lt;math&amp;gt;{{\tau }_{y}}&amp;lt;/math&amp;gt; уздовж осі часу для всіх точок &amp;lt;math&amp;gt;{{\tau }_{i}}&amp;lt;/math&amp;gt;, що попали в нього, відповідні значення &amp;lt;math&amp;gt;{{x}_{i}}&amp;lt;/math&amp;gt; замінимо середніми значеннями; віднесемо ці значення до середини відповідного інтервалу.&lt;br /&gt;
Операція згладжування виконується за формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{i+\frac{l}{2}}}=\frac{1}{l+1}\sum\limits_{k=0}^{l}{{{x}_{i=k}};k=0,1,...,l}&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
де і – номер інтервалу; (l+1) – число вимірювань у і-тому інтервалі; &amp;lt;math&amp;gt;(i+\frac{l}{2})&amp;lt;/math&amp;gt; - номер замінюваного вимірювання.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Якщо попередня оцінка виконана невдало і після згладжування залишаються перешкоди, утворені дані знову можна піддати усередненню і робити це багаторазово, до бажаного результату.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Греко–латинські квадрати ==&lt;br /&gt;
&lt;br /&gt;
Планування за латинським квадратом дозволяє ввести в дослідження три фактора. Для чотирьох факторів хороші властивості має план експерименту по схемі греко-латинського квадрату. Число рівнів для всіх факторів повинно бути однакове.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:2-a.JPEG|700x210px|border|center|Греко-латинський квадрат 3х3]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.2 - Греко-латинський квадрат 3х3&amp;lt;/center&amp;gt;&lt;br /&gt;
[[Файл:3.JPEG|1030x300px|border|center|Греко-латинський квадрат 5х5]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.3 - Греко-латинський квадрат 5х5&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
В греко-латинських квадратах є &amp;lt;math&amp;gt;{{n}^{2}}&amp;lt;/math&amp;gt; різких комбінацій рівнів факторів замість &amp;lt;math&amp;gt;{{n}^{4}}&amp;lt;/math&amp;gt; комбінацій повного чотирифакторного експерименту. Тому греко-латинський квадрат являє собою &amp;lt;math&amp;gt;1/{{n}^{2}}&amp;lt;/math&amp;gt; репліку від ПФЕ.&lt;br /&gt;
Дисперсійний аналіз греко-латинського квадрату проводять так само, як і аналіз звичайного латинського квадрата, з врахуванням четвертого фактора D. &lt;br /&gt;
Використання греко-латинських та гіпер-греко-латинських квадратів в якості планів експерименту одночасно дає економію в числі дослідів та приводить до спрощення обчислень.&lt;br /&gt;
&lt;br /&gt;
== Латинські куби ==&lt;br /&gt;
&lt;br /&gt;
Повному факторному експерименту для трьох факторів &amp;lt;math&amp;gt;{{n}^{3}}&amp;lt;/math&amp;gt; (n&amp;gt;2) відповідає кубічне розміщення з n елементів, що містить n3 позицій. Трьом ребрам кубу відповідають фактори А, В, С з рівнями 0, 1, 2, …, n-1. Коли ввести в план четвертий фактор D і рівні цього фактору (0, 1, 2, …, n-1) розмістити у відповідних до дослідів точках кубічного розміщення, то одержимо латинський куб розміру n першого порядку [1].&lt;br /&gt;
Планування експерименту по латинському кубу першого порядку дозволяє включити в розгляд чотири фактори (A, B, C i D). Відмінність від греко-латинського квадрату, котрий також дає можливість вивчити вплив чотирьох факторів є в тому, що в латинському кубі три фактори (A, B, C) рахуються головними і один фактор (D) складає елімінуюче групування, а в греко-латинському квадраті головними рахуються два фактори А та В, а C i D складають подвійне елімінуюче групування. Число дослідів в кубі в n раз більше, ніж в греко-латинському квадраті.&lt;br /&gt;
Два латинських куба розміром n першого порядку ортогональні, коли при накладанні їх один на одного кожний елемент одного кубу зустрічається з кожним елементом другого кубу n разів. Два таких ортогональних куба, накладених один на одного, представляють греко-латинський куб розміру n першого порядку. Планування по схемі греко-латинського кубу дозволяє ввести в експеримент п’ятий фактор.&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Дисперсійний аналіз // режим доступу: http://lp.edu.ua/fileadmin/ICCT/top/pub/Chaykivskyy/mm/da.pdf (станом на 14.02.10)&lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-1.JPEG&amp;diff=584</id>
		<title>Файл:N-1.JPEG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:N-1.JPEG&amp;diff=584"/>
				<updated>2010-02-27T11:47:43Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=583</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=583"/>
				<updated>2010-02-27T11:47:07Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:n-1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Греко–латинські квадрати ==&lt;br /&gt;
&lt;br /&gt;
Планування за латинським квадратом дозволяє ввести в дослідження три фактора. Для чотирьох факторів хороші властивості має план експерименту по схемі греко-латинського квадрату. Число рівнів для всіх факторів повинно бути однакове.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:2-a.JPEG|700x210px|border|center|Греко-латинський квадрат 3х3]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.2 - Греко-латинський квадрат 3х3&amp;lt;/center&amp;gt;&lt;br /&gt;
[[Файл:3.JPEG|1030x300px|border|center|Греко-латинський квадрат 5х5]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.3 - Греко-латинський квадрат 5х5&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
В греко-латинських квадратах є &amp;lt;math&amp;gt;{{n}^{2}}&amp;lt;/math&amp;gt; різких комбінацій рівнів факторів замість &amp;lt;math&amp;gt;{{n}^{4}}&amp;lt;/math&amp;gt; комбінацій повного чотирифакторного експерименту. Тому греко-латинський квадрат являє собою &amp;lt;math&amp;gt;1/{{n}^{2}}&amp;lt;/math&amp;gt; репліку від ПФЕ.&lt;br /&gt;
Дисперсійний аналіз греко-латинського квадрату проводять так само, як і аналіз звичайного латинського квадрата, з врахуванням четвертого фактора D. &lt;br /&gt;
Використання греко-латинських та гіпер-греко-латинських квадратів в якості планів експерименту одночасно дає економію в числі дослідів та приводить до спрощення обчислень.&lt;br /&gt;
&lt;br /&gt;
== Латинські куби ==&lt;br /&gt;
&lt;br /&gt;
Повному факторному експерименту для трьох факторів &amp;lt;math&amp;gt;{{n}^{3}}&amp;lt;/math&amp;gt; (n&amp;gt;2) відповідає кубічне розміщення з n елементів, що містить n3 позицій. Трьом ребрам кубу відповідають фактори А, В, С з рівнями 0, 1, 2, …, n-1. Коли ввести в план четвертий фактор D і рівні цього фактору (0, 1, 2, …, n-1) розмістити у відповідних до дослідів точках кубічного розміщення, то одержимо латинський куб розміру n першого порядку [1].&lt;br /&gt;
Планування експерименту по латинському кубу першого порядку дозволяє включити в розгляд чотири фактори (A, B, C i D). Відмінність від греко-латинського квадрату, котрий також дає можливість вивчити вплив чотирьох факторів є в тому, що в латинському кубі три фактори (A, B, C) рахуються головними і один фактор (D) складає елімінуюче групування, а в греко-латинському квадраті головними рахуються два фактори А та В, а C i D складають подвійне елімінуюче групування. Число дослідів в кубі в n раз більше, ніж в греко-латинському квадраті.&lt;br /&gt;
Два латинських куба розміром n першого порядку ортогональні, коли при накладанні їх один на одного кожний елемент одного кубу зустрічається з кожним елементом другого кубу n разів. Два таких ортогональних куба, накладених один на одного, представляють греко-латинський куб розміру n першого порядку. Планування по схемі греко-латинського кубу дозволяє ввести в експеримент п’ятий фактор.&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Дисперсійний аналіз // режим доступу: http://lp.edu.ua/fileadmin/ICCT/top/pub/Chaykivskyy/mm/da.pdf (станом на 14.02.10)&lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=582</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=582"/>
				<updated>2010-02-27T11:45:53Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;center&amp;gt;'''Приклад'''&amp;lt;/center&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Розглянемо згладжування методом оновлюваної середньої наступного ряду вимірювань величини х:&lt;br /&gt;
&amp;lt;center&amp;gt;3.4;  3.1;  5.4;  2.7;  2.9;  3.3;  2.7;  4.3;  3.2;  2.0.&amp;lt;/center&amp;gt;&lt;br /&gt;
Перше значення    збігається з х1. Друге значення  обчислюється за рекурентною формулою:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;{{\bar{x}}_{N}}={{x}_{N-1}}+\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
Отже:&amp;lt;math&amp;gt;{{\bar{x}}_{2}}=3.4+\frac{1}{2}(3.1-3.4)=3.25&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{3}}=3.25+\frac{1}{3}(5.4-3.25)=3.96&amp;lt;/math&amp;gt;;&lt;br /&gt;
&amp;lt;math&amp;gt;{{\bar{x}}_{4}}=3.65&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{5}}=3.50&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{6}}=3.46&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{7}}=3.35&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{8}}=3.47&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{9}}=3.44&amp;lt;/math&amp;gt;;&amp;lt;math&amp;gt;{{\bar{x}}_{10}}=3.30&amp;lt;/math&amp;gt;.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Результати згладжування експериментальних даних зображено на рисунку:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:1.JPEG|700x210px|border|center|Результати згладжування експериментальних даних]]&lt;br /&gt;
&lt;br /&gt;
=== Метод ковзної середньої ===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Греко–латинські квадрати ==&lt;br /&gt;
&lt;br /&gt;
Планування за латинським квадратом дозволяє ввести в дослідження три фактора. Для чотирьох факторів хороші властивості має план експерименту по схемі греко-латинського квадрату. Число рівнів для всіх факторів повинно бути однакове.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:2-a.JPEG|700x210px|border|center|Греко-латинський квадрат 3х3]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.2 - Греко-латинський квадрат 3х3&amp;lt;/center&amp;gt;&lt;br /&gt;
[[Файл:3.JPEG|1030x300px|border|center|Греко-латинський квадрат 5х5]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.3 - Греко-латинський квадрат 5х5&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
В греко-латинських квадратах є &amp;lt;math&amp;gt;{{n}^{2}}&amp;lt;/math&amp;gt; різких комбінацій рівнів факторів замість &amp;lt;math&amp;gt;{{n}^{4}}&amp;lt;/math&amp;gt; комбінацій повного чотирифакторного експерименту. Тому греко-латинський квадрат являє собою &amp;lt;math&amp;gt;1/{{n}^{2}}&amp;lt;/math&amp;gt; репліку від ПФЕ.&lt;br /&gt;
Дисперсійний аналіз греко-латинського квадрату проводять так само, як і аналіз звичайного латинського квадрата, з врахуванням четвертого фактора D. &lt;br /&gt;
Використання греко-латинських та гіпер-греко-латинських квадратів в якості планів експерименту одночасно дає економію в числі дослідів та приводить до спрощення обчислень.&lt;br /&gt;
&lt;br /&gt;
== Латинські куби ==&lt;br /&gt;
&lt;br /&gt;
Повному факторному експерименту для трьох факторів &amp;lt;math&amp;gt;{{n}^{3}}&amp;lt;/math&amp;gt; (n&amp;gt;2) відповідає кубічне розміщення з n елементів, що містить n3 позицій. Трьом ребрам кубу відповідають фактори А, В, С з рівнями 0, 1, 2, …, n-1. Коли ввести в план четвертий фактор D і рівні цього фактору (0, 1, 2, …, n-1) розмістити у відповідних до дослідів точках кубічного розміщення, то одержимо латинський куб розміру n першого порядку [1].&lt;br /&gt;
Планування експерименту по латинському кубу першого порядку дозволяє включити в розгляд чотири фактори (A, B, C i D). Відмінність від греко-латинського квадрату, котрий також дає можливість вивчити вплив чотирьох факторів є в тому, що в латинському кубі три фактори (A, B, C) рахуються головними і один фактор (D) складає елімінуюче групування, а в греко-латинському квадраті головними рахуються два фактори А та В, а C i D складають подвійне елімінуюче групування. Число дослідів в кубі в n раз більше, ніж в греко-латинському квадраті.&lt;br /&gt;
Два латинських куба розміром n першого порядку ортогональні, коли при накладанні їх один на одного кожний елемент одного кубу зустрічається з кожним елементом другого кубу n разів. Два таких ортогональних куба, накладених один на одного, представляють греко-латинський куб розміру n першого порядку. Планування по схемі греко-латинського кубу дозволяє ввести в експеримент п’ятий фактор.&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Дисперсійний аналіз // режим доступу: http://lp.edu.ua/fileadmin/ICCT/top/pub/Chaykivskyy/mm/da.pdf (станом на 14.02.10)&lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=581</id>
		<title>Попередня обробка експериментальних даних</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9F%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B4%D0%BD%D1%8F_%D0%BE%D0%B1%D1%80%D0%BE%D0%B1%D0%BA%D0%B0_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D0%B0%D0%BB%D1%8C%D0%BD%D0%B8%D1%85_%D0%B4%D0%B0%D0%BD%D0%B8%D1%85&amp;diff=581"/>
				<updated>2010-02-27T11:32:47Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: Створена сторінка: {{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}  ===Попередня обробка екс…&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|Росинець Наталія Андріївна|Назаревич О.Б.|28 лютого 2010}}&lt;br /&gt;
&lt;br /&gt;
===Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних===&lt;br /&gt;
&lt;br /&gt;
  http://elartu.tstu.edu.ua/handle/123456789/380 Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
== Зміст та завдання попередньої обробки експериментальних даних ==&lt;br /&gt;
Результати вимірювань – це випадкові величини, тобто в ході експерименту інформація спотворена перешкодами, і за одних і тих же умов можна отримати різні дані. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Зміст попередньої обробки даних полягає у відсіюванні грубих похибок і оцінці достовірності результатів вимірювань. Попередня обробка результатів вимірювань необхідна для того, щоб надалі, при побудові функцій відгуку, з найбільшою ефективністю використовувати статистичні методи і коректно аналізувати отримані результати.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Завданням попередньої обробки даних є перевірка відповідності результатів вимірювання нормальному закону і визначення параметрів цього розподілу. Якщо відгук суперечить нормальному розподілу, то слід визначити, якому закону розподілу підлягають дослідні дані або, якщо це можливо, перетворити досліджуваний розподіл до нормального вигляду.&lt;br /&gt;
&lt;br /&gt;
== Методи обробки експериментальних даних ==&lt;br /&gt;
&lt;br /&gt;
=== Метод найменших квадратів ===&lt;br /&gt;
Для обробки експериментальних даних найчастіше на практиці використовують метод найменших квадратів - один з методів теорії помилок, що використовується для оцінки невідомих величин за наслідками вимірювань, що містить випадкові помилки (спричиняються різного роду випадковими причинами, які діють при кожному з окремих вимірювань непередбаченим чином). &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів запропонував К. Гаус (1794—95) і А. Лежандром (1805—06). Строге математичне обґрунтовування методу було дано А. А. Марковим (старшим) і А. Н. Колмогоровим. Нині цей метод є одним з найважливіших розділів математичної статистики і широко використовується для статистичних висновків в різних областях науки і техніки.&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Суть методу найменших квадратів (по Гаусу) полягає в припущені, що «збиток» від заміни точного (невідомого) значення фізичної величини m її наближеним значенням X, обчисленим за наслідками спостережень, пропорційний квадрату помилки:   (X - m)2.  &lt;br /&gt;
Оптимальною оцінкою визнають величину X , позбавлену систематичної помилки, для якої середнє значення «збитку» мінімальне. &lt;br /&gt;
Задачу пошуку оптимальної оцінки звужують і як Х вибирають лінійну функцію від результатів спостережень, позбавлену систематичної помилки, і таку, для якої середнє значення «збитку» мінімальне в класі всіх лінійних функцій. Якщо випадкові помилки спостережень мають нормальний розподіл і оцінювана величина m залежить від середніх значень результатів спостережень лінійно, то рішення цієї задачі одночасно буде і рішенням загальної задачі. Оцінка X, обчислена згідно методу найменших квадратів — найвірогідніше значення невідомого параметра m.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Метод найменших квадратів дає найбільш бажаний результат тоді, коли випадкова помилка має порівняно невелику величину. В іншому разі необхідним є проведення попередньої обробки експериментальних даних, яка полягає в наступному: вихідні записи випадкових величин згладжуються певним способом, що дає змогу виявити основну тенденцію у їхній зміні.&lt;br /&gt;
&lt;br /&gt;
=== Метод виключення перешкод ===&lt;br /&gt;
Метод виключення перешкод полягає у проведенні на око середньої лінії, яка враховує тільки основні коливання змінної. Інформація, що надалі буде зніматись із цієї середньої лінії, при математичній обробці даних буде використовуватись як вихідна.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Значення випадкової величини, що не збігаються із середньою лінією, прямо не впливатимуть на подальші висновки.&lt;br /&gt;
&lt;br /&gt;
=== Метод оновлюваної середньої ===&lt;br /&gt;
Метод оновлюваної середньої полягає у використанні рекурентної формули для обчислення середнього арифметичного . Якщо випадкова величина х надходить у вигляді дискретних вимірів і для (N - 1) - го виміру обчислено середнє значення , то поява нового виміру змінює попереднє середнє значення на величину  &lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;math&amp;gt;\frac{1}{N}({{x}_{N}}-{{x}_{N-1}})&amp;lt;/math&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При згладжуванні цим методом у кожній точці на часовій осі виміряне значення замінюється на середнє, розраховане на даний момент часу. &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Послідовність обчислених за рекурентною формулою середніх значень є позбавленим від перешкод рядом вимірів змінної х, який використовується при подальшій обробці.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Приклад&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Греко–латинські квадрати ==&lt;br /&gt;
&lt;br /&gt;
Планування за латинським квадратом дозволяє ввести в дослідження три фактора. Для чотирьох факторів хороші властивості має план експерименту по схемі греко-латинського квадрату. Число рівнів для всіх факторів повинно бути однакове.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Файл:2-a.JPEG|700x210px|border|center|Греко-латинський квадрат 3х3]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.2 - Греко-латинський квадрат 3х3&amp;lt;/center&amp;gt;&lt;br /&gt;
[[Файл:3.JPEG|1030x300px|border|center|Греко-латинський квадрат 5х5]]&lt;br /&gt;
&amp;lt;center&amp;gt;Рис.3 - Греко-латинський квадрат 5х5&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
В греко-латинських квадратах є &amp;lt;math&amp;gt;{{n}^{2}}&amp;lt;/math&amp;gt; різких комбінацій рівнів факторів замість &amp;lt;math&amp;gt;{{n}^{4}}&amp;lt;/math&amp;gt; комбінацій повного чотирифакторного експерименту. Тому греко-латинський квадрат являє собою &amp;lt;math&amp;gt;1/{{n}^{2}}&amp;lt;/math&amp;gt; репліку від ПФЕ.&lt;br /&gt;
Дисперсійний аналіз греко-латинського квадрату проводять так само, як і аналіз звичайного латинського квадрата, з врахуванням четвертого фактора D. &lt;br /&gt;
Використання греко-латинських та гіпер-греко-латинських квадратів в якості планів експерименту одночасно дає економію в числі дослідів та приводить до спрощення обчислень.&lt;br /&gt;
&lt;br /&gt;
== Латинські куби ==&lt;br /&gt;
&lt;br /&gt;
Повному факторному експерименту для трьох факторів &amp;lt;math&amp;gt;{{n}^{3}}&amp;lt;/math&amp;gt; (n&amp;gt;2) відповідає кубічне розміщення з n елементів, що містить n3 позицій. Трьом ребрам кубу відповідають фактори А, В, С з рівнями 0, 1, 2, …, n-1. Коли ввести в план четвертий фактор D і рівні цього фактору (0, 1, 2, …, n-1) розмістити у відповідних до дослідів точках кубічного розміщення, то одержимо латинський куб розміру n першого порядку [1].&lt;br /&gt;
Планування експерименту по латинському кубу першого порядку дозволяє включити в розгляд чотири фактори (A, B, C i D). Відмінність від греко-латинського квадрату, котрий також дає можливість вивчити вплив чотирьох факторів є в тому, що в латинському кубі три фактори (A, B, C) рахуються головними і один фактор (D) складає елімінуюче групування, а в греко-латинському квадраті головними рахуються два фактори А та В, а C i D складають подвійне елімінуюче групування. Число дослідів в кубі в n раз більше, ніж в греко-латинському квадраті.&lt;br /&gt;
Два латинських куба розміром n першого порядку ортогональні, коли при накладанні їх один на одного кожний елемент одного кубу зустрічається з кожним елементом другого кубу n разів. Два таких ортогональних куба, накладених один на одного, представляють греко-латинський куб розміру n першого порядку. Планування по схемі греко-латинського кубу дозволяє ввести в експеримент п’ятий фактор.&lt;br /&gt;
&lt;br /&gt;
=Перелік використаних джерел=&lt;br /&gt;
&lt;br /&gt;
# Дисперсійний аналіз // режим доступу: http://lp.edu.ua/fileadmin/ICCT/top/pub/Chaykivskyy/mm/da.pdf (станом на 14.02.10)&lt;br /&gt;
# В. О. Аністратенко, В. Г. Федоров. Математичне планування експериментів в АПК. Київ: Вища школа, - 1993, - 375 с.&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=580</id>
		<title>2009-2010рр - Індивідуальні завдання для виступу на семінарах з предмету &quot;Планування експерименту Design Of Experiment (DOE)&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=580"/>
				<updated>2010-02-27T11:12:17Z</updated>
		
		<summary type="html">&lt;p&gt;Rosinets: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;# (20.01.2010р.) [[Користувач:Bojkoio|ст.гр.СНм-51 Бойко Ігор]]: [[ПЕ2010:Виступ_на_семінарі:Бойко_Ігор:Чорний ящик|Схема &amp;quot;чорного ящика&amp;quot; в плануванні експерименту. Фактори (входи) і параметри оптимізації (виходи) &amp;quot;чорного ящика&amp;quot;]].&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Сарабун П.|ст.гр.СНм-51 Сарабун П.]]: [[ПЕ2010:Виступ_на_семінарі:Павло_Сарабун:Історія та роль Р.Фішера а планування експерименту]]&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Фактори експеременту|Рівні факторів. Нульовий рівень. Інтервал варіювання фактору]].&lt;br /&gt;
# (28.01.2010р.) [[Користувач:Nata|ст.гр.СНм-51 Трушик Наталя]]: [[ПЕ2010:Виступ_на_семінарі:Трушик Наталя:|Проведення експерименту. Анкета для збору даних]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:walter|ст.гр.СНм-51 Готович Володимир]]: [[ПЕ2010:Виступ_на_семінарі:Готович Володимир:|Оптимізаційні методи планування експериментів. Крокова процедура, метод Гаусса-Зейделя, метод крутого сходження.]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:mars|ст.гр.СНм-51 Залецький Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Залецький Михайло:|Регресійні моделі при повному 2 дробовому факторному експерименті. Визначення коефіцієнтів регресії.]].&lt;br /&gt;
# (21.02.2010р.) [[Користувач:yulik|ст.гр.СНм-51 Белиця Юля]]: [[ПЕ2010:Виступ_на_семінарі:Белиця Юля:|Види параметрів оптимізації. Вимоги до факторів і параметрів оптимізації..]].&lt;br /&gt;
# (30.02.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Методи прогнозування|Методи прогнозування]].&lt;br /&gt;
# (26.02.2010р.) [[Користувач:Syrotiuk|ст.гр.СНм-52 Сиротюк Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Сиротюк Михайло:Планування експерименту при дисперсійному аналізі.|Планування експерименту при дисперсійному аналізі.Латинські і греко-латинські квадрати. Латинські куби]].&lt;br /&gt;
# (27.02.2010р.) [[Користувач:Rosinets|ст.гр.СНм-51 Росинець Наталія]]: [[ПЕ2010:Виступ_на_семінарі:Росинець Наталія:Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.|Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.]]. &lt;br /&gt;
 Дописуйте по аналогії самі свої виступи&lt;/div&gt;</summary>
		<author><name>Rosinets</name></author>	</entry>

	</feed>