<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="uk">
		<id>https://wiki.tntu.edu.ua/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Inna</id>
		<title>Wiki ТНТУ - Внесок користувача [uk]</title>
		<link rel="self" type="application/atom+xml" href="https://wiki.tntu.edu.ua/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Inna"/>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/%D0%A1%D0%BF%D0%B5%D1%86%D1%96%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0:%D0%92%D0%BD%D0%B5%D1%81%D0%BE%D0%BA/Inna"/>
		<updated>2026-04-20T03:56:30Z</updated>
		<subtitle>Внесок користувача</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1147</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1147"/>
				<updated>2010-03-18T20:23:28Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_3.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{_{Y(1.2)}}^{2}=R_{Y.12}^{2}-r_{Y2}^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y(1.2)}^{2}=\frac{{{({{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}})}^{2}}}{1-r_{12}^{2}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y(1.2)}}=\frac{{{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}}}{\sqrt{1-r_{12}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
де &amp;lt;math&amp;gt;{{r}_{Y1}}&amp;lt;/math&amp;gt; - проста кореляція між &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y2}}{{r}_{12}}&amp;lt;/math&amp;gt; - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sqrt{1-r_{_{12}}^{2}}&amp;lt;/math&amp;gt; - загальна дисперсія за винятком взаємозв’язку між &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{x}_{2}}&amp;lt;/math&amp;gt;.&lt;br /&gt;
 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_4.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y1.2}^{2}=\frac{R_{Y.12}^{2}-r_{Y2}^{2}}{1-r_{Y2}^{2}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y1.2}^{2}=\frac{({{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}})}{(1-r_{Y2}^{2})(1-r_{Y2}^{2})}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y1.2}}=\frac{{{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}}}{\sqrt{(1-r_{Y2}^{2})(1-r_{Y2}^{2})}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
де &amp;lt;math&amp;gt;{{r}_{Y1}}&amp;lt;/math&amp;gt; - &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y2}}{{r}_{12}}&amp;lt;/math&amp;gt; - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sqrt{1-r_{_{12}}^{2}}&amp;lt;/math&amp;gt; - загальна дисперсія за винятком всіх часткових взаємозв’язків між &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;{{x}_{2}}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то &amp;lt;math&amp;gt;{{r}_{Y1.2}}={{r}_{Y1}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
Згідно зі схемою статистичного доведення виконуємо таке.&lt;br /&gt;
1. Нульова гіпотеза: лінійного зв’язку немає, тоді істинний коефіцієнт кореляції дорівнює нулю: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:\rho (x,y)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
за двосторонньої альтернативи&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:\rho (x,y)\ne 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, наприклад, &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Обчислюємо вибірковий коефіцієнт кореляції &amp;lt;math&amp;gt;r&amp;lt;/math&amp;gt; і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;t=\frac{r}{\sqrt{1-{{r}^{2}}}}\sqrt{n-2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. Ця статистика має розподіл Стьюдента з &amp;lt;math&amp;gt;df=n-2&amp;lt;/math&amp;gt; ступенями вільності, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; можна використовувати й стандартний закон розподілу.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі розподілу Стьюдента (чи стандартного для великих вибірок) для заданого рівня значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;. Для &amp;lt;math&amp;gt;n\le 60&amp;lt;/math&amp;gt; маємо &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}={{t}_{Kp}}(\alpha ,d,f)&amp;lt;/math&amp;gt;, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; – наближену формулу &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}=\psi (\alpha )&amp;lt;/math&amp;gt;, &lt;br /&gt;
де &amp;lt;math&amp;gt;\psi (\alpha )={{\Phi }^{-1}}(\alpha )&amp;lt;/math&amp;gt; - обернена функція стандартного закону розподілу.&lt;br /&gt;
&lt;br /&gt;
6. Перевіряємо критерій: якщо &amp;lt;math&amp;gt;\left| t \right|\ge {{t}_{Kp}}&amp;lt;/math&amp;gt;, то нульову гіпотезу відхиляємо, тобто існує суттєвий лінійний зв’язок між даними (дані корелюють).&lt;br /&gt;
На практиці зручнішою є формула, яка дає критичне значення самого коефіцієнта кореляції. З рівняння статистики можна визначити &lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Kp}}=\frac{{{t}_{Kp}}}{\sqrt{n-2+t_{Kp}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
Ця формула дає змогу один раз відшукати критичне значення коефіцієнта кореляції (для фіксованого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;) і використовувати його в наступній серії порівнянь парних коефіцієнтів кореляції з критичним, наприклад, для перевірки на значущість коефіцієнтів кореляційної матриці.&lt;br /&gt;
&lt;br /&gt;
=Автокореляція=&lt;br /&gt;
Автокореляція або автокореляційна функція - це кореляція функції з самою собою зміщеною на певну величину незалежної змінної. Автокореляція використовується для знаходження закономірностей в ряді даних, таких як періодичність. Часто застосовується у статистиці та обробці сигналів для аналізу функцій або серій даних.&lt;br /&gt;
Математично автокореляційна функція визначається як:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{R}_{f}}(\tau )=\int\limits_{-\infty }^{\infty }{f(t){{f}^{*}}(t-\tau )}dt&amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
де функція &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; інтегрується у добутку з комплексно спряженою та зміщеною на певну величину &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; (часто &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; це час) функцією.&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
Нехай маємо групу з &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; випадкових змінних &amp;lt;math&amp;gt;{{x}_{1}},...,{{x}_{k}}&amp;lt;/math&amp;gt; (досліджуваних параметрів), що представлені вибірками обсягу &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; кожна. Для усіх можливих різних пар індексів &amp;lt;math&amp;gt;i,j=1,2,...,k&amp;lt;/math&amp;gt; можна обчислити парні коефіцієнти кореляції &amp;lt;math&amp;gt;{{r}_{ij}}=r({{x}_{i}},{{x}_{j}})&amp;lt;/math&amp;gt;.&lt;br /&gt;
Для &amp;lt;math&amp;gt;i=j&amp;lt;/math&amp;gt;, тобто для двох ідентичних наборів, можна прийняти &amp;lt;math&amp;gt;{{r}_{i}}_{j}=1&amp;lt;/math&amp;gt;, що відповідає лінійній функціональній залежності &amp;lt;math&amp;gt;{{x}_{i}}={{x}_{j}}&amp;lt;/math&amp;gt; (тотожності) для всіх пар значень у вибірках. Коефіцієнти кореляції запишемо у вигляді підсумкової симетричної матриці&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;R=\left[ \begin{matrix}&lt;br /&gt;
   1 &amp;amp; {{r}_{12}} &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{21}} &amp;amp; 1 &amp;amp; ...  \\&lt;br /&gt;
   ... &amp;amp; ... &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{k1}} &amp;amp; {{r}_{k2}} &amp;amp; ...  \\&lt;br /&gt;
\end{matrix} \right..&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Після перевірки кожного з коефіцієнтів на значущість (достатньо це зробити для елементів матриці над головною діагоналлю) і заміни коефіцієнтів, що менше &amp;lt;math&amp;gt;{{r}_{Kp}}&amp;lt;/math&amp;gt;, нулем, “очищена” кореляційна матриця відображає “справжні” статистично значимі зв’язки між змінними.&lt;br /&gt;
Аналіз структури кореляційної матриці є дуже важливим методом для виявлення, наприклад, парагенетичних асоціацій у геохімічних дослідженнях , а також основою інших методів аналізу (наприклад, факторного). З огляду на це часто виникає завдання порівняти різні коефіцієнти кореляції. Оскільки істинні коефіцієнти кореляції &amp;lt;math&amp;gt;{{\rho }_{i}}&amp;lt;/math&amp;gt;, та &amp;lt;math&amp;gt;{{\rho }_{j}}&amp;lt;/math&amp;gt; невідомі, то рішення ухвалюють, користуючись їхніми вибірковими оцінками &amp;lt;math&amp;gt;{{r}_{i}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{r}_{j}}&amp;lt;/math&amp;gt;на підставі статистичного доведення.&lt;br /&gt;
&lt;br /&gt;
1. Формулюємо нульову гіпотезу про рівність коефіцієнтів кореляції&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:{{\rho }_{i}}={{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
та альтернативну їй &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:{{\rho }_{i}}\ne {{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо рівень значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Оскільки розподіл коефіцієнтів кореляції за умови &amp;lt;math&amp;gt;\rho \ne 0&amp;lt;/math&amp;gt; має значну асиметрію, то використовуємо перетворені величини&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;z{}_{i}=\frac{1}{2}\ln \frac{1+{{r}_{i}}}{1-{{r}_{i}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{t}^{*}}=\frac{\left| {{z}_{i}}-{{z}_{j}} \right|}{s\sqrt{2}}&amp;lt;/math&amp;gt;       &amp;lt;math&amp;gt;s=1/\sqrt{n-3}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. В умовах гіпотези &amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt; статистика &amp;lt;math&amp;gt;{{t}^{*}}&amp;lt;/math&amp;gt; має асимптотично нормальний розподіл з нульовим середнім та дисперсією, що дорівнює 1.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі стандартного нормального розподілу, наприклад, для &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt; маємо &amp;lt;math&amp;gt;{{t}^{*}}={{\psi }^{-1}}(0,05)=1,96&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
6. Якщо &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\left| {{z}_{i}}-{{z}_{j}} \right|&amp;lt;{{t}^{*}}s\sqrt{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
то гіпотеза про рівність коефіцієнтів не суперечить вибірковим даним (для заданого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1146</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1146"/>
				<updated>2010-03-18T20:22:39Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_3.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{_{Y(1.2)}}^{2}=R_{Y.12}^{2}-r_{Y2}^{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y(1.2)}^{2}=\frac{{{({{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}})}^{2}}}{1-r_{12}^{2}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y(1.2)}}=\frac{{{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}}}{\sqrt{1-r_{12}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
де &amp;lt;math&amp;gt;{{r}_{Y1}}&amp;lt;/math&amp;gt; - проста кореляція між &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y2}}{{r}_{12}}&amp;lt;/math&amp;gt; - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sqrt{1-r_{_{12}}^{2}}&amp;lt;/math&amp;gt; - загальна дисперсія за винятком взаємозв’язку між &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{x}_{2}}&amp;lt;/math&amp;gt;.&lt;br /&gt;
 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_4.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y1.2}^{2}=\frac{R_{Y.12}^{2}-r_{Y2}^{2}}{1-r_{Y2}^{2}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y1.2}^{2}=\frac{({{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}})}{(1-r_{Y2}^{2})(1-r_{Y2}^{2})}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y1.2}}=\frac{{{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}}}{\sqrt{(1-r_{Y2}^{2})(1-r_{Y2}^{2})}}&amp;lt;/math&amp;gt;&lt;br /&gt;
де &amp;lt;math&amp;gt;{{r}_{Y1}}&amp;lt;/math&amp;gt; - &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y2}}{{r}_{12}}&amp;lt;/math&amp;gt; - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sqrt{1-r_{_{12}}^{2}}&amp;lt;/math&amp;gt; - загальна дисперсія за винятком всіх часткових взаємозв’язків між &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;{{x}_{2}}&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то &amp;lt;math&amp;gt;{{r}_{Y1.2}}={{r}_{Y1}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
Згідно зі схемою статистичного доведення виконуємо таке.&lt;br /&gt;
1. Нульова гіпотеза: лінійного зв’язку немає, тоді істинний коефіцієнт кореляції дорівнює нулю: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:\rho (x,y)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
за двосторонньої альтернативи&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:\rho (x,y)\ne 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, наприклад, &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Обчислюємо вибірковий коефіцієнт кореляції &amp;lt;math&amp;gt;r&amp;lt;/math&amp;gt; і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;t=\frac{r}{\sqrt{1-{{r}^{2}}}}\sqrt{n-2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. Ця статистика має розподіл Стьюдента з &amp;lt;math&amp;gt;df=n-2&amp;lt;/math&amp;gt; ступенями вільності, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; можна використовувати й стандартний закон розподілу.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі розподілу Стьюдента (чи стандартного для великих вибірок) для заданого рівня значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;. Для &amp;lt;math&amp;gt;n\le 60&amp;lt;/math&amp;gt; маємо &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}={{t}_{Kp}}(\alpha ,d,f)&amp;lt;/math&amp;gt;, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; – наближену формулу &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}=\psi (\alpha )&amp;lt;/math&amp;gt;, &lt;br /&gt;
де &amp;lt;math&amp;gt;\psi (\alpha )={{\Phi }^{-1}}(\alpha )&amp;lt;/math&amp;gt; - обернена функція стандартного закону розподілу.&lt;br /&gt;
&lt;br /&gt;
6. Перевіряємо критерій: якщо &amp;lt;math&amp;gt;\left| t \right|\ge {{t}_{Kp}}&amp;lt;/math&amp;gt;, то нульову гіпотезу відхиляємо, тобто існує суттєвий лінійний зв’язок між даними (дані корелюють).&lt;br /&gt;
На практиці зручнішою є формула, яка дає критичне значення самого коефіцієнта кореляції. З рівняння статистики можна визначити &lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Kp}}=\frac{{{t}_{Kp}}}{\sqrt{n-2+t_{Kp}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
Ця формула дає змогу один раз відшукати критичне значення коефіцієнта кореляції (для фіксованого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;) і використовувати його в наступній серії порівнянь парних коефіцієнтів кореляції з критичним, наприклад, для перевірки на значущість коефіцієнтів кореляційної матриці.&lt;br /&gt;
&lt;br /&gt;
=Автокореляція=&lt;br /&gt;
Автокореляція або автокореляційна функція - це кореляція функції з самою собою зміщеною на певну величину незалежної змінної. Автокореляція використовується для знаходження закономірностей в ряді даних, таких як періодичність. Часто застосовується у статистиці та обробці сигналів для аналізу функцій або серій даних.&lt;br /&gt;
Математично автокореляційна функція визначається як:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{R}_{f}}(\tau )=\int\limits_{-\infty }^{\infty }{f(t){{f}^{*}}(t-\tau )}dt&amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
де функція &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; інтегрується у добутку з комплексно спряженою та зміщеною на певну величину &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; (часто &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; це час) функцією.&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
Нехай маємо групу з &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; випадкових змінних &amp;lt;math&amp;gt;{{x}_{1}},...,{{x}_{k}}&amp;lt;/math&amp;gt; (досліджуваних параметрів), що представлені вибірками обсягу &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; кожна. Для усіх можливих різних пар індексів &amp;lt;math&amp;gt;i,j=1,2,...,k&amp;lt;/math&amp;gt; можна обчислити парні коефіцієнти кореляції &amp;lt;math&amp;gt;{{r}_{ij}}=r({{x}_{i}},{{x}_{j}})&amp;lt;/math&amp;gt;.&lt;br /&gt;
Для &amp;lt;math&amp;gt;i=j&amp;lt;/math&amp;gt;, тобто для двох ідентичних наборів, можна прийняти &amp;lt;math&amp;gt;{{r}_{i}}_{j}=1&amp;lt;/math&amp;gt;, що відповідає лінійній функціональній залежності &amp;lt;math&amp;gt;{{x}_{i}}={{x}_{j}}&amp;lt;/math&amp;gt; (тотожності) для всіх пар значень у вибірках. Коефіцієнти кореляції запишемо у вигляді підсумкової симетричної матриці&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;R=\left[ \begin{matrix}&lt;br /&gt;
   1 &amp;amp; {{r}_{12}} &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{21}} &amp;amp; 1 &amp;amp; ...  \\&lt;br /&gt;
   ... &amp;amp; ... &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{k1}} &amp;amp; {{r}_{k2}} &amp;amp; ...  \\&lt;br /&gt;
\end{matrix} \right..&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Після перевірки кожного з коефіцієнтів на значущість (достатньо це зробити для елементів матриці над головною діагоналлю) і заміни коефіцієнтів, що менше &amp;lt;math&amp;gt;{{r}_{Kp}}&amp;lt;/math&amp;gt;, нулем, “очищена” кореляційна матриця відображає “справжні” статистично значимі зв’язки між змінними.&lt;br /&gt;
Аналіз структури кореляційної матриці є дуже важливим методом для виявлення, наприклад, парагенетичних асоціацій у геохімічних дослідженнях , а також основою інших методів аналізу (наприклад, факторного). З огляду на це часто виникає завдання порівняти різні коефіцієнти кореляції. Оскільки істинні коефіцієнти кореляції &amp;lt;math&amp;gt;{{\rho }_{i}}&amp;lt;/math&amp;gt;, та &amp;lt;math&amp;gt;{{\rho }_{j}}&amp;lt;/math&amp;gt; невідомі, то рішення ухвалюють, користуючись їхніми вибірковими оцінками &amp;lt;math&amp;gt;{{r}_{i}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{r}_{j}}&amp;lt;/math&amp;gt;на підставі статистичного доведення.&lt;br /&gt;
&lt;br /&gt;
1. Формулюємо нульову гіпотезу про рівність коефіцієнтів кореляції&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:{{\rho }_{i}}={{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
та альтернативну їй &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:{{\rho }_{i}}\ne {{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо рівень значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Оскільки розподіл коефіцієнтів кореляції за умови &amp;lt;math&amp;gt;\rho \ne 0&amp;lt;/math&amp;gt; має значну асиметрію, то використовуємо перетворені величини&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;z{}_{i}=\frac{1}{2}\ln \frac{1+{{r}_{i}}}{1-{{r}_{i}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{t}^{*}}=\frac{\left| {{z}_{i}}-{{z}_{j}} \right|}{s\sqrt{2}}&amp;lt;/math&amp;gt;       &amp;lt;math&amp;gt;s=1/\sqrt{n-3}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. В умовах гіпотези &amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt; статистика &amp;lt;math&amp;gt;{{t}^{*}}&amp;lt;/math&amp;gt; має асимптотично нормальний розподіл з нульовим середнім та дисперсією, що дорівнює 1.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі стандартного нормального розподілу, наприклад, для &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt; маємо &amp;lt;math&amp;gt;{{t}^{*}}={{\psi }^{-1}}(0,05)=1,96&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
6. Якщо &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\left| {{z}_{i}}-{{z}_{j}} \right|&amp;lt;{{t}^{*}}s\sqrt{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
то гіпотеза про рівність коефіцієнтів не суперечить вибірковим даним (для заданого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1145</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1145"/>
				<updated>2010-03-18T20:11:21Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_3.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y1.2}^{2}=\frac{R_{Y.12}^{2}-r_{Y2}^{2}}{1-r_{Y2}^{2}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{Y1.2}^{2}=\frac{({{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}})}{(1-r_{Y2}^{2})(1-r_{Y2}^{2})}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y1.2}}=\frac{{{r}_{Y1}}-{{r}_{Y2}}{{r}_{12}}}{\sqrt{(1-r_{Y2}^{2})(1-r_{Y2}^{2})}}&amp;lt;/math&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
де &amp;lt;math&amp;gt;{{r}_{Y1}}&amp;lt;/math&amp;gt; - проста кореляція між &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Y2}}{{r}_{12}}&amp;lt;/math&amp;gt; - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\sqrt{1-r_{_{12}}^{2}}&amp;lt;/math&amp;gt; - загальна дисперсія за винятком взаємозв’язку між &amp;lt;math&amp;gt;{{x}_{1}}&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;{{x}_{2}}&amp;lt;/math&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_4.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
Згідно зі схемою статистичного доведення виконуємо таке.&lt;br /&gt;
1. Нульова гіпотеза: лінійного зв’язку немає, тоді істинний коефіцієнт кореляції дорівнює нулю: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:\rho (x,y)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
за двосторонньої альтернативи&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:\rho (x,y)\ne 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, наприклад, &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Обчислюємо вибірковий коефіцієнт кореляції &amp;lt;math&amp;gt;r&amp;lt;/math&amp;gt; і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;t=\frac{r}{\sqrt{1-{{r}^{2}}}}\sqrt{n-2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. Ця статистика має розподіл Стьюдента з &amp;lt;math&amp;gt;df=n-2&amp;lt;/math&amp;gt; ступенями вільності, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; можна використовувати й стандартний закон розподілу.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі розподілу Стьюдента (чи стандартного для великих вибірок) для заданого рівня значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;. Для &amp;lt;math&amp;gt;n\le 60&amp;lt;/math&amp;gt; маємо &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}={{t}_{Kp}}(\alpha ,d,f)&amp;lt;/math&amp;gt;, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; – наближену формулу &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}=\psi (\alpha )&amp;lt;/math&amp;gt;, &lt;br /&gt;
де &amp;lt;math&amp;gt;\psi (\alpha )={{\Phi }^{-1}}(\alpha )&amp;lt;/math&amp;gt; - обернена функція стандартного закону розподілу.&lt;br /&gt;
&lt;br /&gt;
6. Перевіряємо критерій: якщо &amp;lt;math&amp;gt;\left| t \right|\ge {{t}_{Kp}}&amp;lt;/math&amp;gt;, то нульову гіпотезу відхиляємо, тобто існує суттєвий лінійний зв’язок між даними (дані корелюють).&lt;br /&gt;
На практиці зручнішою є формула, яка дає критичне значення самого коефіцієнта кореляції. З рівняння статистики можна визначити &lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Kp}}=\frac{{{t}_{Kp}}}{\sqrt{n-2+t_{Kp}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
Ця формула дає змогу один раз відшукати критичне значення коефіцієнта кореляції (для фіксованого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;) і використовувати його в наступній серії порівнянь парних коефіцієнтів кореляції з критичним, наприклад, для перевірки на значущість коефіцієнтів кореляційної матриці.&lt;br /&gt;
&lt;br /&gt;
=Автокореляція=&lt;br /&gt;
Автокореляція або автокореляційна функція - це кореляція функції з самою собою зміщеною на певну величину незалежної змінної. Автокореляція використовується для знаходження закономірностей в ряді даних, таких як періодичність. Часто застосовується у статистиці та обробці сигналів для аналізу функцій або серій даних.&lt;br /&gt;
Математично автокореляційна функція визначається як:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{R}_{f}}(\tau )=\int\limits_{-\infty }^{\infty }{f(t){{f}^{*}}(t-\tau )}dt&amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
де функція &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; інтегрується у добутку з комплексно спряженою та зміщеною на певну величину &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; (часто &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; це час) функцією.&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
Нехай маємо групу з &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; випадкових змінних &amp;lt;math&amp;gt;{{x}_{1}},...,{{x}_{k}}&amp;lt;/math&amp;gt; (досліджуваних параметрів), що представлені вибірками обсягу &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; кожна. Для усіх можливих різних пар індексів &amp;lt;math&amp;gt;i,j=1,2,...,k&amp;lt;/math&amp;gt; можна обчислити парні коефіцієнти кореляції &amp;lt;math&amp;gt;{{r}_{ij}}=r({{x}_{i}},{{x}_{j}})&amp;lt;/math&amp;gt;.&lt;br /&gt;
Для &amp;lt;math&amp;gt;i=j&amp;lt;/math&amp;gt;, тобто для двох ідентичних наборів, можна прийняти &amp;lt;math&amp;gt;{{r}_{i}}_{j}=1&amp;lt;/math&amp;gt;, що відповідає лінійній функціональній залежності &amp;lt;math&amp;gt;{{x}_{i}}={{x}_{j}}&amp;lt;/math&amp;gt; (тотожності) для всіх пар значень у вибірках. Коефіцієнти кореляції запишемо у вигляді підсумкової симетричної матриці&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;R=\left[ \begin{matrix}&lt;br /&gt;
   1 &amp;amp; {{r}_{12}} &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{21}} &amp;amp; 1 &amp;amp; ...  \\&lt;br /&gt;
   ... &amp;amp; ... &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{k1}} &amp;amp; {{r}_{k2}} &amp;amp; ...  \\&lt;br /&gt;
\end{matrix} \right..&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Після перевірки кожного з коефіцієнтів на значущість (достатньо це зробити для елементів матриці над головною діагоналлю) і заміни коефіцієнтів, що менше &amp;lt;math&amp;gt;{{r}_{Kp}}&amp;lt;/math&amp;gt;, нулем, “очищена” кореляційна матриця відображає “справжні” статистично значимі зв’язки між змінними.&lt;br /&gt;
Аналіз структури кореляційної матриці є дуже важливим методом для виявлення, наприклад, парагенетичних асоціацій у геохімічних дослідженнях , а також основою інших методів аналізу (наприклад, факторного). З огляду на це часто виникає завдання порівняти різні коефіцієнти кореляції. Оскільки істинні коефіцієнти кореляції &amp;lt;math&amp;gt;{{\rho }_{i}}&amp;lt;/math&amp;gt;, та &amp;lt;math&amp;gt;{{\rho }_{j}}&amp;lt;/math&amp;gt; невідомі, то рішення ухвалюють, користуючись їхніми вибірковими оцінками &amp;lt;math&amp;gt;{{r}_{i}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{r}_{j}}&amp;lt;/math&amp;gt;на підставі статистичного доведення.&lt;br /&gt;
&lt;br /&gt;
1. Формулюємо нульову гіпотезу про рівність коефіцієнтів кореляції&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:{{\rho }_{i}}={{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
та альтернативну їй &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:{{\rho }_{i}}\ne {{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо рівень значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Оскільки розподіл коефіцієнтів кореляції за умови &amp;lt;math&amp;gt;\rho \ne 0&amp;lt;/math&amp;gt; має значну асиметрію, то використовуємо перетворені величини&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;z{}_{i}=\frac{1}{2}\ln \frac{1+{{r}_{i}}}{1-{{r}_{i}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{t}^{*}}=\frac{\left| {{z}_{i}}-{{z}_{j}} \right|}{s\sqrt{2}}&amp;lt;/math&amp;gt;       &amp;lt;math&amp;gt;s=1/\sqrt{n-3}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. В умовах гіпотези &amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt; статистика &amp;lt;math&amp;gt;{{t}^{*}}&amp;lt;/math&amp;gt; має асимптотично нормальний розподіл з нульовим середнім та дисперсією, що дорівнює 1.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі стандартного нормального розподілу, наприклад, для &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt; маємо &amp;lt;math&amp;gt;{{t}^{*}}={{\psi }^{-1}}(0,05)=1,96&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
6. Якщо &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\left| {{z}_{i}}-{{z}_{j}} \right|&amp;lt;{{t}^{*}}s\sqrt{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
то гіпотеза про рівність коефіцієнтів не суперечить вибірковим даним (для заданого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1144</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1144"/>
				<updated>2010-03-18T19:57:20Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_3.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_4.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
Згідно зі схемою статистичного доведення виконуємо таке.&lt;br /&gt;
1. Нульова гіпотеза: лінійного зв’язку немає, тоді істинний коефіцієнт кореляції дорівнює нулю: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:\rho (x,y)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
за двосторонньої альтернативи&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:\rho (x,y)\ne 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, наприклад, &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Обчислюємо вибірковий коефіцієнт кореляції &amp;lt;math&amp;gt;r&amp;lt;/math&amp;gt; і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;t=\frac{r}{\sqrt{1-{{r}^{2}}}}\sqrt{n-2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. Ця статистика має розподіл Стьюдента з &amp;lt;math&amp;gt;df=n-2&amp;lt;/math&amp;gt; ступенями вільності, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; можна використовувати й стандартний закон розподілу.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі розподілу Стьюдента (чи стандартного для великих вибірок) для заданого рівня значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;. Для &amp;lt;math&amp;gt;n\le 60&amp;lt;/math&amp;gt; маємо &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}={{t}_{Kp}}(\alpha ,d,f)&amp;lt;/math&amp;gt;, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; – наближену формулу &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}=\psi (\alpha )&amp;lt;/math&amp;gt;, &lt;br /&gt;
де &amp;lt;math&amp;gt;\psi (\alpha )={{\Phi }^{-1}}(\alpha )&amp;lt;/math&amp;gt; - обернена функція стандартного закону розподілу.&lt;br /&gt;
&lt;br /&gt;
6. Перевіряємо критерій: якщо &amp;lt;math&amp;gt;\left| t \right|\ge {{t}_{Kp}}&amp;lt;/math&amp;gt;, то нульову гіпотезу відхиляємо, тобто існує суттєвий лінійний зв’язок між даними (дані корелюють).&lt;br /&gt;
На практиці зручнішою є формула, яка дає критичне значення самого коефіцієнта кореляції. З рівняння статистики можна визначити &lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Kp}}=\frac{{{t}_{Kp}}}{\sqrt{n-2+t_{Kp}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
Ця формула дає змогу один раз відшукати критичне значення коефіцієнта кореляції (для фіксованого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;) і використовувати його в наступній серії порівнянь парних коефіцієнтів кореляції з критичним, наприклад, для перевірки на значущість коефіцієнтів кореляційної матриці.&lt;br /&gt;
&lt;br /&gt;
=Автокореляція=&lt;br /&gt;
Автокореляція або автокореляційна функція - це кореляція функції з самою собою зміщеною на певну величину незалежної змінної. Автокореляція використовується для знаходження закономірностей в ряді даних, таких як періодичність. Часто застосовується у статистиці та обробці сигналів для аналізу функцій або серій даних.&lt;br /&gt;
Математично автокореляційна функція визначається як:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{R}_{f}}(\tau )=\int\limits_{-\infty }^{\infty }{f(t){{f}^{*}}(t-\tau )}dt&amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
де функція &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; інтегрується у добутку з комплексно спряженою та зміщеною на певну величину &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; (часто &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; це час) функцією.&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
Нехай маємо групу з &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; випадкових змінних &amp;lt;math&amp;gt;{{x}_{1}},...,{{x}_{k}}&amp;lt;/math&amp;gt; (досліджуваних параметрів), що представлені вибірками обсягу &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; кожна. Для усіх можливих різних пар індексів &amp;lt;math&amp;gt;i,j=1,2,...,k&amp;lt;/math&amp;gt; можна обчислити парні коефіцієнти кореляції &amp;lt;math&amp;gt;{{r}_{ij}}=r({{x}_{i}},{{x}_{j}})&amp;lt;/math&amp;gt;.&lt;br /&gt;
Для &amp;lt;math&amp;gt;i=j&amp;lt;/math&amp;gt;, тобто для двох ідентичних наборів, можна прийняти &amp;lt;math&amp;gt;{{r}_{i}}_{j}=1&amp;lt;/math&amp;gt;, що відповідає лінійній функціональній залежності &amp;lt;math&amp;gt;{{x}_{i}}={{x}_{j}}&amp;lt;/math&amp;gt; (тотожності) для всіх пар значень у вибірках. Коефіцієнти кореляції запишемо у вигляді підсумкової симетричної матриці&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;R=\left[ \begin{matrix}&lt;br /&gt;
   1 &amp;amp; {{r}_{12}} &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{21}} &amp;amp; 1 &amp;amp; ...  \\&lt;br /&gt;
   ... &amp;amp; ... &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{k1}} &amp;amp; {{r}_{k2}} &amp;amp; ...  \\&lt;br /&gt;
\end{matrix} \right..&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Після перевірки кожного з коефіцієнтів на значущість (достатньо це зробити для елементів матриці над головною діагоналлю) і заміни коефіцієнтів, що менше &amp;lt;math&amp;gt;{{r}_{Kp}}&amp;lt;/math&amp;gt;, нулем, “очищена” кореляційна матриця відображає “справжні” статистично значимі зв’язки між змінними.&lt;br /&gt;
Аналіз структури кореляційної матриці є дуже важливим методом для виявлення, наприклад, парагенетичних асоціацій у геохімічних дослідженнях , а також основою інших методів аналізу (наприклад, факторного). З огляду на це часто виникає завдання порівняти різні коефіцієнти кореляції. Оскільки істинні коефіцієнти кореляції &amp;lt;math&amp;gt;{{\rho }_{i}}&amp;lt;/math&amp;gt;, та &amp;lt;math&amp;gt;{{\rho }_{j}}&amp;lt;/math&amp;gt; невідомі, то рішення ухвалюють, користуючись їхніми вибірковими оцінками &amp;lt;math&amp;gt;{{r}_{i}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{r}_{j}}&amp;lt;/math&amp;gt;на підставі статистичного доведення.&lt;br /&gt;
&lt;br /&gt;
1. Формулюємо нульову гіпотезу про рівність коефіцієнтів кореляції&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:{{\rho }_{i}}={{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
та альтернативну їй &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:{{\rho }_{i}}\ne {{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо рівень значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Оскільки розподіл коефіцієнтів кореляції за умови &amp;lt;math&amp;gt;\rho \ne 0&amp;lt;/math&amp;gt; має значну асиметрію, то використовуємо перетворені величини&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;z{}_{i}=\frac{1}{2}\ln \frac{1+{{r}_{i}}}{1-{{r}_{i}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{t}^{*}}=\frac{\left| {{z}_{i}}-{{z}_{j}} \right|}{s\sqrt{2}}&amp;lt;/math&amp;gt;       &amp;lt;math&amp;gt;s=1/\sqrt{n-3}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. В умовах гіпотези &amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt; статистика &amp;lt;math&amp;gt;{{t}^{*}}&amp;lt;/math&amp;gt; має асимптотично нормальний розподіл з нульовим середнім та дисперсією, що дорівнює 1.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі стандартного нормального розподілу, наприклад, для &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt; маємо &amp;lt;math&amp;gt;{{t}^{*}}={{\psi }^{-1}}(0,05)=1,96&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
6. Якщо &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\left| {{z}_{i}}-{{z}_{j}} \right|&amp;lt;{{t}^{*}}s\sqrt{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
то гіпотеза про рівність коефіцієнтів не суперечить вибірковим даним (для заданого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1143</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1143"/>
				<updated>2010-03-18T19:54:52Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_3.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:1_4.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
Згідно зі схемою статистичного доведення виконуємо таке.&lt;br /&gt;
1. Нульова гіпотеза: лінійного зв’язку немає, тоді істинний коефіцієнт кореляції дорівнює нулю: &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:\rho (x,y)=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
за двосторонньої альтернативи&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:\rho (x,y)\ne 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;, наприклад, &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Обчислюємо вибірковий коефіцієнт кореляції &amp;lt;math&amp;gt;r&amp;lt;/math&amp;gt; і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;t=\frac{r}{\sqrt{1-{{r}^{2}}}}\sqrt{n-2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. Ця статистика має розподіл Стьюдента з &amp;lt;math&amp;gt;df=n-2&amp;lt;/math&amp;gt; ступенями вільності, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; можна використовувати й стандартний закон розподілу.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі розподілу Стьюдента (чи стандартного для великих вибірок) для заданого рівня значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;. Для &amp;lt;math&amp;gt;n\le 60&amp;lt;/math&amp;gt; маємо &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}={{t}_{Kp}}(\alpha ,d,f)&amp;lt;/math&amp;gt;, а для &amp;lt;math&amp;gt;n&amp;gt;60&amp;lt;/math&amp;gt; – наближену формулу &lt;br /&gt;
&amp;lt;math&amp;gt;{{t}_{Kp}}=\psi (\alpha )&amp;lt;/math&amp;gt;, &lt;br /&gt;
де &amp;lt;math&amp;gt;\psi (\alpha )={{\Phi }^{-1}}(\alpha )&amp;lt;/math&amp;gt; - обернена функція стандартного закону розподілу.&lt;br /&gt;
&lt;br /&gt;
6. Перевіряємо критерій: якщо &amp;lt;math&amp;gt;\left| t \right|\ge {{t}_{Kp}}&amp;lt;/math&amp;gt;, то нульову гіпотезу відхиляємо, тобто існує суттєвий лінійний зв’язок між даними (дані корелюють).&lt;br /&gt;
На практиці зручнішою є формула, яка дає критичне значення самого коефіцієнта кореляції. З рівняння статистики можна визначити &lt;br /&gt;
&amp;lt;math&amp;gt;{{r}_{Kp}}=\frac{{{t}_{Kp}}}{\sqrt{n-2+t_{Kp}^{2}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
Ця формула дає змогу один раз відшукати критичне значення коефіцієнта кореляції (для фіксованого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;) і використовувати його в наступній серії порівнянь парних коефіцієнтів кореляції з критичним, наприклад, для перевірки на значущість коефіцієнтів кореляційної матриці.&lt;br /&gt;
&lt;br /&gt;
=Автокореляція=&lt;br /&gt;
Автокореляція або автокореляційна функція - це кореляція функції з самою собою зміщеною на певну величину незалежної змінної. Автокореляція використовується для знаходження закономірностей в ряді даних, таких як періодичність. Часто застосовується у статистиці та обробці сигналів для аналізу функцій або серій даних.&lt;br /&gt;
Математично автокореляційна функція визначається як:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{R}_{f}}(\tau )=\int\limits_{-\infty }^{\infty }{f(t){{f}^{*}}(t-\tau )}dt&amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
де функція &amp;lt;math&amp;gt;f(t)&amp;lt;/math&amp;gt; інтегрується у добутку з комплексно спряженою та зміщеною на певну величину &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; (часто &amp;lt;math&amp;gt;\tau &amp;lt;/math&amp;gt; це час) функцією.&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
Нехай маємо групу з &amp;lt;math&amp;gt;k&amp;lt;/math&amp;gt; випадкових змінних &amp;lt;math&amp;gt;{{x}_{1}},...,{{x}_{k}}&amp;lt;/math&amp;gt; (досліджуваних параметрів), що представлені вибірками обсягу &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; кожна. Для усіх можливих різних пар індексів &amp;lt;math&amp;gt;i,j=1,2,...,k&amp;lt;/math&amp;gt; можна обчислити парні коефіцієнти кореляції &amp;lt;math&amp;gt;{{r}_{ij}}=r({{x}_{i}},{{x}_{j}})&amp;lt;/math&amp;gt;.&lt;br /&gt;
Для &amp;lt;math&amp;gt;i=j&amp;lt;/math&amp;gt;, тобто для двох ідентичних наборів, можна прийняти &amp;lt;math&amp;gt;{{r}_{i}}_{j}=1&amp;lt;/math&amp;gt;, що відповідає лінійній функціональній залежності &amp;lt;math&amp;gt;{{x}_{i}}={{x}_{j}}&amp;lt;/math&amp;gt; (тотожності) для всіх пар значень у вибірках. Коефіцієнти кореляції запишемо у вигляді підсумкової симетричної матриці&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;R=\left[ \begin{matrix}&lt;br /&gt;
   1 &amp;amp; {{r}_{12}} &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{21}} &amp;amp; 1 &amp;amp; ...  \\&lt;br /&gt;
   ... &amp;amp; ... &amp;amp; ...  \\&lt;br /&gt;
   {{r}_{k1}} &amp;amp; {{r}_{k2}} &amp;amp; ...  \\&lt;br /&gt;
\end{matrix} \right..&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Після перевірки кожного з коефіцієнтів на значущість (достатньо це зробити для елементів матриці над головною діагоналлю) і заміни коефіцієнтів, що менше &amp;lt;math&amp;gt;{{r}_{Kp}}&amp;lt;/math&amp;gt;, нулем, “очищена” кореляційна матриця відображає “справжні” статистично значимі зв’язки між змінними.&lt;br /&gt;
Аналіз структури кореляційної матриці є дуже важливим методом для виявлення, наприклад, парагенетичних асоціацій у геохімічних дослідженнях , а також основою інших методів аналізу (наприклад, факторного). З огляду на це часто виникає завдання порівняти різні коефіцієнти кореляції. Оскільки істинні коефіцієнти кореляції &amp;lt;math&amp;gt;{{\rho }_{i}}&amp;lt;/math&amp;gt;, та &amp;lt;math&amp;gt;{{\rho }_{j}}&amp;lt;/math&amp;gt; невідомі, то рішення ухвалюють, користуючись їхніми вибірковими оцінками &amp;lt;math&amp;gt;{{r}_{i}}&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;{{r}_{j}}&amp;lt;/math&amp;gt;на підставі статистичного доведення.&lt;br /&gt;
&lt;br /&gt;
1. Формулюємо нульову гіпотезу про рівність коефіцієнтів кореляції&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{0}}:{{\rho }_{i}}={{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
та альтернативну їй &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{H}_{1}}:{{\rho }_{i}}\ne {{\rho }_{j}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
2. Вибираємо рівень значущості &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
3. Оскільки розподіл коефіцієнтів кореляції за умови &amp;lt;math&amp;gt;\rho \ne 0&amp;lt;/math&amp;gt; має значну асиметрію, то використовуємо перетворені величини&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;z{}_{i}=\frac{1}{2}\ln \frac{1+{{r}_{i}}}{1-{{r}_{i}}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
і будуємо статистику&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;{{t}^{*}}=\frac{\left| {{z}_{i}}-{{z}_{j}} \right|}{s\sqrt{2}}&amp;lt;/math&amp;gt;       &amp;lt;math&amp;gt;s=1/\sqrt{n-3}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
4. В умовах гіпотези &amp;lt;math&amp;gt;{{H}_{0}}&amp;lt;/math&amp;gt; статистика &amp;lt;math&amp;gt;{{t}^{*}}&amp;lt;/math&amp;gt; має асимптотично нормальний розподіл з нульовим середнім та дисперсією, що дорівнює 1.&lt;br /&gt;
&lt;br /&gt;
5. Знаходимо критичні значення статистики, тобто квантилі стандартного нормального розподілу, наприклад, для &amp;lt;math&amp;gt;\alpha =0,05&amp;lt;/math&amp;gt; маємо &amp;lt;math&amp;gt;{{t}^{*}}={{\psi }^{-1}}(0,05)=1,96&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
6. Якщо &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\left| {{z}_{i}}-{{z}_{j}} \right|&amp;lt;{{t}^{*}}s\sqrt{2}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
то гіпотеза про рівність коефіцієнтів не суперечить вибірковим даним (для заданого &amp;lt;math&amp;gt;\alpha &amp;lt;/math&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:1_4.jpg&amp;diff=1142</id>
		<title>Файл:1 4.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:1_4.jpg&amp;diff=1142"/>
				<updated>2010-03-18T19:53:16Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: Ілюстрація часткової кореляції&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ілюстрація часткової кореляції&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:1_3.jpg&amp;diff=1141</id>
		<title>Файл:1 3.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:1_3.jpg&amp;diff=1141"/>
				<updated>2010-03-18T19:52:53Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: Ілюстрація напівчасткової кореляції&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ілюстрація напівчасткової кореляції&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1136</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1136"/>
				<updated>2010-03-18T18:11:23Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1135</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1135"/>
				<updated>2010-03-18T18:10:38Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;br&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1134</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1134"/>
				<updated>2010-03-18T18:10:08Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &amp;lt;p&amp;gt;&lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1133</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1133"/>
				<updated>2010-03-18T18:09:05Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку &lt;br /&gt;
за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1132</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1132"/>
				<updated>2010-03-18T18:08:21Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1131</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1131"/>
				<updated>2010-03-18T18:07:36Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
Рис. 3.1. Візуальна оцінка характеру кореляційного зв’язку за кореляційним полем: ''a'' – пряма кореляція, &amp;lt;math&amp;gt;r&amp;gt;0&amp;lt;/math&amp;gt;; ''б'' – зворотна кореляція, &amp;lt;math&amp;gt;r&amp;lt;0&amp;lt;/math&amp;gt;. &lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Для прямої кореляції характерною тенденцією є збільшення одного з параметрів, якщо збільшується інший, а для оберненої, навпаки: збільшення одного супроводжується, як звичайно, зменшенням іншого. Причиною фіктивної кореляції (тобто такої, що спостережена, але не властива природним об’єктам) може бути неоднорідність сукупності даних, які відображають два різні об’єкти (рис. 3.2). Іноді методика дослідження впливає на створення видимості зв’язку там, де його немає. Наприклад, якщо вимірювати довжину і ширину без урахування орієнтації зразків, то всі точки кореляційного поля лежатимуть у секторі від 0 до 45° (замість сектора 0–90°), що помилково можна сприйняти як наявність деякого зв’язку&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:7.jpg]]&lt;br /&gt;
Рис. 3.2. Некорельовані дані, &amp;lt;math&amp;gt;r=0&amp;lt;/math&amp;gt; і фіктивна кореляція (неоднорідні дані).&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1130</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1130"/>
				<updated>2010-03-18T18:03:02Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Файл:6.jpg]]&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:7.jpg&amp;diff=1129</id>
		<title>Файл:7.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:7.jpg&amp;diff=1129"/>
				<updated>2010-03-18T18:00:46Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: Некорельовані дані&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Некорельовані дані&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:6.jpg&amp;diff=1128</id>
		<title>Файл:6.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:6.jpg&amp;diff=1128"/>
				<updated>2010-03-18T17:59:30Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: Візуальна оцінка характеру кореляційного зв’язку за кореляційним полем&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Візуальна оцінка характеру кореляційного зв’язку за кореляційним полем&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1127</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1127"/>
				<updated>2010-03-18T17:56:39Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Кореляційне поле */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
Графічно дані для кореляційного аналізу зображають у вигляді кореляційного поля, тобто точок на площині, кожна з яких має координати &amp;lt;math&amp;gt;({{x}_{i}},{{y}_{i}})&amp;lt;/math&amp;gt; (рис.3.1)&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1126</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=1126"/>
				<updated>2010-03-18T17:53:26Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Властивості коефіцієнта кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
1. Коефіцієнт кореляції є в межах від -1 до +1.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;-1\le \rho (x,y)\le +1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;gt;0&amp;lt;/math&amp;gt;, то кореляція пряма, а якщо &amp;lt;math&amp;gt;\rho (x,y)&amp;lt;0&amp;lt;/math&amp;gt; – зворотна. Пряма кореляція: більшим значенням випадкової змінної &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають більші значення &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;; зворотна кореляція: більшим значенням &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; відповідають менші &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; і навпаки, більшим &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; – менші &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
2. Симетрія&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\rho (x,y)=\rho (y,x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Якщо &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; та &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; пов’язані лінійним функціональним зв’язком &amp;lt;math&amp;gt;y\left( x \right)=a+bx&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; i &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; – сталі, то &amp;lt;math&amp;gt;\left| \rho (x,y) \right|=1&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
&lt;br /&gt;
4. Якщо випадкові змінні лінійно незалежні, то &amp;lt;math&amp;gt;\rho (x,y)=0&amp;lt;/math&amp;gt;, і навпаки.&lt;br /&gt;
Останні дві властивості можна сформулювати як необхідну й достатню умови, причому критерієм залежності випадкових величин &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; і &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; є відмінність коефіцієнта кореляції від нуля: &amp;lt;math&amp;gt;r\ne 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=886</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=886"/>
				<updated>2010-03-10T09:42:35Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Властивості коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційне поле =&lt;br /&gt;
&lt;br /&gt;
=Перевірка гіпотези про значущість коефіцієнта кореляції=&lt;br /&gt;
&lt;br /&gt;
=Кореляційна матриця=&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=885</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=885"/>
				<updated>2010-03-10T09:40:56Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Список використаних джерел */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Курсова робота на тему: “Розробка методів для обчислення часткової кореляційної функції”. &lt;br /&gt;
#http://uk.wikipedia.org/wikiАвтокореляція&lt;br /&gt;
#http://www.lnu.edu.ua/faculty/geology/phis_geo/Khomyak/E-book_Geostatistics/Part2/Lections2-3-1.htm &lt;br /&gt;
#Аністенко В.О., Федоров В.Г. – Математичне планування експерименту  АПК. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|inna|9 березня 2010|Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Кореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=884</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=884"/>
				<updated>2010-03-10T09:38:38Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=882</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=882"/>
				<updated>2010-03-10T09:36:18Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
[[Файл:6.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt; &lt;br /&gt;
[[Файл:7.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції &amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &amp;lt;center &amp;gt;&lt;br /&gt;
[[Файл:8.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
[[Файл:9.JPG]]&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
[[Файл:10.JPG]]&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=881</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=881"/>
				<updated>2010-03-10T09:35:13Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Часткова та напівчасткова кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації «взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
&lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
&lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
[[Файл:5.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
[[Файл:6.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt; &lt;br /&gt;
[[Файл:7.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
&lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &amp;lt;center &amp;gt;&lt;br /&gt;
[[Файл:8.JPG]]&lt;br /&gt;
&lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції буде мати вигляд: &lt;br /&gt;
[[Файл:9.JPG]]&lt;br /&gt;
&lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
[[Файл:&lt;br /&gt;
10.JPG]]&lt;br /&gt;
 &lt;br /&gt;
-  проста кореляція між у та х1 &lt;br /&gt;
&lt;br /&gt;
- результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
&lt;br /&gt;
- загальна дисперсія за винятком всіх часткових взаємозв’язків (між х1 і х2 та у і х2) &lt;br /&gt;
&lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=880</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=880"/>
				<updated>2010-03-10T09:29:49Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Поняття кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.JPG]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації&lt;br /&gt;
«взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції&lt;br /&gt;
буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
 - проста кореляція між у та х1 &lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком всіх часткових взаємозв’язків&lt;br /&gt;
(між х1 і х2 та у і х2) &lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:4.JPG&amp;diff=879</id>
		<title>Файл:4.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:4.JPG&amp;diff=879"/>
				<updated>2010-03-10T09:29:33Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: завантажив нову версію «Файл:4.JPG»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=878</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=878"/>
				<updated>2010-03-10T09:28:37Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Поняття кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
[[Файл:4.jpg]]&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації&lt;br /&gt;
«взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції&lt;br /&gt;
буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
 - проста кореляція між у та х1 &lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком всіх часткових взаємозв’язків&lt;br /&gt;
(між х1 і х2 та у і х2) &lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=877</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=877"/>
				<updated>2010-03-10T09:27:41Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Поняття кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.jpg]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою:&lt;br /&gt;
&lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації&lt;br /&gt;
«взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції&lt;br /&gt;
буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
 - проста кореляція між у та х1 &lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком всіх часткових взаємозв’язків&lt;br /&gt;
(між х1 і х2 та у і х2) &lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:2.jpg&amp;diff=876</id>
		<title>Файл:2.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:2.jpg&amp;diff=876"/>
				<updated>2010-03-10T09:26:58Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: завантажив нову версію «Файл:2.jpg»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=875</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=875"/>
				<updated>2010-03-10T09:26:13Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Поняття кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
&amp;lt;center&amp;gt; [[Файл:1.JPG]]&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
&lt;br /&gt;
[[Файл:2.JPG]]&lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
&lt;br /&gt;
Наприклад, &lt;br /&gt;
&lt;br /&gt;
[[Файл:3.JPG]]&lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке обчислюється за формулою: &lt;br /&gt;
 &lt;br /&gt;
=Часткова та напівчасткова кореляції=&lt;br /&gt;
&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації&lt;br /&gt;
«взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції&lt;br /&gt;
буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
 - проста кореляція між у та х1 &lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком всіх часткових взаємозв’язків&lt;br /&gt;
(між х1 і х2 та у і х2) &lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:13.JPG&amp;diff=874</id>
		<title>Файл:13.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:13.JPG&amp;diff=874"/>
				<updated>2010-03-10T09:23:08Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:12.JPG&amp;diff=873</id>
		<title>Файл:12.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:12.JPG&amp;diff=873"/>
				<updated>2010-03-10T09:22:56Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:11.JPG&amp;diff=872</id>
		<title>Файл:11.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:11.JPG&amp;diff=872"/>
				<updated>2010-03-10T09:22:45Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:10.JPG&amp;diff=871</id>
		<title>Файл:10.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:10.JPG&amp;diff=871"/>
				<updated>2010-03-10T09:22:34Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:9.JPG&amp;diff=870</id>
		<title>Файл:9.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:9.JPG&amp;diff=870"/>
				<updated>2010-03-10T09:22:22Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:8.JPG&amp;diff=869</id>
		<title>Файл:8.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:8.JPG&amp;diff=869"/>
				<updated>2010-03-10T09:22:09Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:7.JPG&amp;diff=868</id>
		<title>Файл:7.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:7.JPG&amp;diff=868"/>
				<updated>2010-03-10T09:21:56Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:6.JPG&amp;diff=867</id>
		<title>Файл:6.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:6.JPG&amp;diff=867"/>
				<updated>2010-03-10T09:21:43Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:5.JPG&amp;diff=866</id>
		<title>Файл:5.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:5.JPG&amp;diff=866"/>
				<updated>2010-03-10T09:21:28Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:4.JPG&amp;diff=865</id>
		<title>Файл:4.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:4.JPG&amp;diff=865"/>
				<updated>2010-03-10T09:21:17Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:3.JPG&amp;diff=864</id>
		<title>Файл:3.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:3.JPG&amp;diff=864"/>
				<updated>2010-03-10T09:21:05Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:2.jpg&amp;diff=863</id>
		<title>Файл:2.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:2.jpg&amp;diff=863"/>
				<updated>2010-03-10T09:20:50Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:1.JPG&amp;diff=862</id>
		<title>Файл:1.JPG</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%A4%D0%B0%D0%B9%D0%BB:1.JPG&amp;diff=862"/>
				<updated>2010-03-10T09:18:16Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=843</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=843"/>
				<updated>2010-03-09T21:26:16Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: /* Поняття кореляції */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
Наприклад, &lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
 &lt;br /&gt;
1.3 Часткова та напівчасткова кореляції&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації&lt;br /&gt;
«взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції&lt;br /&gt;
буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
 - проста кореляція між у та х1 &lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком всіх часткових взаємозв’язків&lt;br /&gt;
(між х1 і х2 та у і х2) &lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=842</id>
		<title>Кореляційний аналіз</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D1%96%D0%B9%D0%BD%D0%B8%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D1%96%D0%B7&amp;diff=842"/>
				<updated>2010-03-09T21:23:19Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: Створена сторінка: {{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}   ....... Презентація доповіді (університетський реп…&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Завдання|inna|Назаревич О.Б.|9 квітня 2010}}&lt;br /&gt;
&lt;br /&gt;
 ....... Презентація доповіді (університетський репозиторій).&lt;br /&gt;
&lt;br /&gt;
=Кореляційний аналіз, мета і завдання=&lt;br /&gt;
&lt;br /&gt;
'''Кореляційний аналіз''' – це статистичне дослідження (стохастичної) залежності між випадковими величинами (англ. correlation – взаємозв’язок). У найпростішому випадку досліджують дві вибірки (набори даних), у загальному – багатовимірні комплекси (групи) геологічних параметрів або об’єктів.&lt;br /&gt;
&lt;br /&gt;
'''Мета кореляційного аналізу''' – забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. В випадках, коли можливе досягнення мети, говорять, що змінні корелюють. В самому загальному вигляді сприйняття гіпотези про наявність кореляції означає, що зміна значення змінної А відбудеться одночасно з пропорційною зміною значення В.&lt;br /&gt;
&lt;br /&gt;
Мірою залежності між експериментальними наборами даних є числа – коефіцієнти зв’язку.&lt;br /&gt;
&lt;br /&gt;
Головні завдання кореляційного аналізу:&lt;br /&gt;
&lt;br /&gt;
1) оцінка за вибірковими даними коефіцієнтів кореляції;&lt;br /&gt;
&lt;br /&gt;
2) перевірка значущості вибіркових коефіцієнтів кореляції або кореляційного відношення;&lt;br /&gt;
&lt;br /&gt;
3) оцінка близькості виявленого зв’язку до лінійного;&lt;br /&gt;
&lt;br /&gt;
4) побудова довірчого інтервалу для коефіцієнтів кореляції. &lt;br /&gt;
&lt;br /&gt;
Визначення сили та напрямку взаємозв’язку між змінними є однією з важливих проблем аналізу даних. В загальному випадку для цього застосовують поняття кореляції.&lt;br /&gt;
&lt;br /&gt;
=Поняття кореляції=&lt;br /&gt;
&lt;br /&gt;
Коефіцієнт кореляції, а в загальному випадку кореляційна функція, дозволяють встановити степінь взаємозв’язку між змінними. Кореляція може бути лінійною або нелінійною в залежності від типу залежності, яка фактично існує між змінними. Досить часто на практиці розглядають тільки лінійну кореляцію (взаємозв’язок), але більш глибокий аналіз потребує використання для дослідження процесів нелінійних залежностей. Складну нелінійну залежність можна спростити, але знати про її існування необхідно для того, щоб побудувати адекватну модель процесу. &lt;br /&gt;
 &lt;br /&gt;
Рис. 1.1 - Ілюстрація «простої» кореляції&lt;br /&gt;
Формула для обчислення коефіцієнтів кореляції має вигляд: &lt;br /&gt;
  &lt;br /&gt;
де N − довжина вибірки даних; x, y − середні вибіркові x, y ; σx,σ y −&lt;br /&gt;
стандартні відхилення, тобто корені квадратні з їх дисперсій. &lt;br /&gt;
Наприклад, &lt;br /&gt;
 &lt;br /&gt;
де N − число вимірів змінної y ; y − середнє значення ряду {y(k)}, яке&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
 &lt;br /&gt;
1.3 Часткова та напівчасткова кореляції&lt;br /&gt;
У випадку двох нормальних або майже нормальних величин коефіцієнт кореляції між ними може бути використаний як міра взаємозв’язку і це підтверджено багатьма практичними результатами. Проте при інтерпретації&lt;br /&gt;
«взаємозв’язку» часто виникають наступні труднощі: якщо одна величина корельована с іншою, то це може бути відображенням того факту, що вони обидві корельовані з деякою третьою величиною або з сукупністю величин, які залишаються за кадром і не введені в модель. Така ситуація приводить до розгляду умовних кореляцій між двома величинами при фіксованих значеннях інших величин. Це так звані часткові кореляції. Якщо кореляція між двома величинами зменшується, коли ми фіксуємо деяку іншу випадкову величину, то це означає, що їх взаємозв’язок виникає частково через вплив цієї величини. Якщо ж часткова кореляція дорівнює нулю або дуже мала, то робимо висновок, що їх взаємозв’язок цілком обумовлений власним впливом і ніяк не пов’язаний з третьою величиною. &lt;br /&gt;
І навпаки, якщо часткова кореляція більше початкової кореляції між двома величинами, то ми робимо висновок, що інші величини ослабили зв’язок, або приховали (замазали) кореляцію. &lt;br /&gt;
Розрізняють поняття напівчасткової та часткової кореляції. Розглянемо ситуацію для трьох змінних (два при  Х1 та Х2 (пояснюючі, незалежні змінні) і одна змінна відклику Y (залежна змінна, змінна критерію)). Часткова та напівчасткова кореляції позбавляють впливу третьої змінної.&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.2 - Ілюстрація кореляції трьох змінних&lt;br /&gt;
Значення напівчасткової та часткової кореляції можна виразити через множинну кореляцію. Множинна кореляція у випадку трьох змінних&lt;br /&gt;
обчислюється за формулою: &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Напівчасткова кореляція названа так, тому що дисперсія контрольованої змінної (Х2) усувається з іншої незалежної змінної (Х1), але не із залежної змінної (Y). Тобто ми позбавляємось лише впливу Х2 на Х1. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.3 - Ілюстрація напівчасткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення напівчасткової кореляції буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
де   - проста кореляція між у та х1&lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком взаємозв’язку між х1 і х2 &lt;br /&gt;
Часткова кореляція відрізняється від напівчасткової тим, що усувається вплив третьої змінної з іншої незалежної змінної, а також і з залежної змінної. &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Рис. 1.4 - Ілюстрація часткової кореляції&lt;br /&gt;
У випадку трьох змінних формула для обчислення часткової кореляції&lt;br /&gt;
буде мати вигляд: &lt;br /&gt;
 &lt;br /&gt;
В термінах звичайних коефіцієнтів кореляції отримаємо: &lt;br /&gt;
 &lt;br /&gt;
 - проста кореляція між у та х1 &lt;br /&gt;
 - результат кореляції між у і х2 та х1 і х2 &lt;br /&gt;
  - загальна дисперсія за винятком всіх часткових взаємозв’язків&lt;br /&gt;
(між х1 і х2 та у і х2) &lt;br /&gt;
Якщо кореляція між х1 і х2 та у і х2 відсутня, то  &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Список використаних джерел=&lt;br /&gt;
&lt;br /&gt;
#Коррозия и защита в нефтегазовой промышленности: Экономическая эффективность катодной защиты обсадных колонн скважин / Под ред. Г.С. Кесельмана, В.Б. Максимова. - М.: ВНИИОЭНГ, 1974. - 74 с. &lt;br /&gt;
#http://nature.web.ru/db/msg.html?mid=1156624&amp;amp;uri=2_3.htm;&lt;br /&gt;
#http://buklib.net/component/option,com_jbook/task,view/Itemid,36/catid,128/id,3694.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
{{Завдання:Виступ|zvizdar|8 березня 2010|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.}}&lt;br /&gt;
&lt;br /&gt;
[[Категорія:ПЕ-2010]]&lt;br /&gt;
[[Категорія:Виступ на семінарі]]&lt;br /&gt;
[[Категорія:Планування експеримента]]&lt;br /&gt;
[[Категорія:Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]&lt;br /&gt;
[[Категорія:Багатозначні терміни]]&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B8%D1%81%D1%82%D1%83%D0%B2%D0%B0%D1%87:Inna&amp;diff=841</id>
		<title>Користувач:Inna</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=%D0%9A%D0%BE%D1%80%D0%B8%D1%81%D1%82%D1%83%D0%B2%D0%B0%D1%87:Inna&amp;diff=841"/>
				<updated>2010-03-09T21:19:08Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: Створена сторінка: Канєвська Інна група Сн-51&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Канєвська Інна група Сн-51&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=832</id>
		<title>2009-2010рр - Індивідуальні завдання для виступу на семінарах з предмету &quot;Планування експерименту Design Of Experiment (DOE)&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=832"/>
				<updated>2010-03-09T18:08:16Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;# (20.01.2010р.) [[Користувач:Bojkoio|ст.гр.СНм-51 Бойко Ігор]]: [[ПЕ2010:Виступ_на_семінарі:Бойко_Ігор:Чорний ящик|Схема &amp;quot;чорного ящика&amp;quot; в плануванні експерименту. Фактори (входи) і параметри оптимізації (виходи) &amp;quot;чорного ящика&amp;quot;]].&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Сарабун П.|ст.гр.СНм-51 Сарабун П.]]: [[ПЕ2010:Виступ_на_семінарі:Павло_Сарабун:Історія та роль Р.Фішера а планування експерименту]]&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Фактори експеременту|Рівні факторів. Нульовий рівень. Інтервал варіювання фактору]].&lt;br /&gt;
# (28.01.2010р.) [[Користувач:Nata|ст.гр.СНм-51 Трушик Наталя]]: [[ПЕ2010:Виступ_на_семінарі:Трушик Наталя:|Проведення експерименту. Анкета для збору даних]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:walter|ст.гр.СНм-51 Готович Володимир]]: [[ПЕ2010:Виступ_на_семінарі:Готович Володимир:|Оптимізаційні методи планування експериментів. Крокова процедура, метод Гаусса-Зейделя, метод крутого сходження.]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:mars|ст.гр.СНм-51 Залецький Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Залецький Михайло:|Регресійні моделі при повному 2 дробовому факторному експерименті. Визначення коефіцієнтів регресії.]].&lt;br /&gt;
# (21.02.2010р.) [[Користувач:yulik|ст.гр.СНм-51 Белиця Юля]]: [[ПЕ2010:Виступ_на_семінарі:Белиця Юля:|Види параметрів оптимізації. Вимоги до факторів і параметрів оптимізації..]].&lt;br /&gt;
# (30.02.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Методи прогнозування|Методи прогнозування]].&lt;br /&gt;
# (26.02.2010р.) [[Користувач:Syrotiuk|ст.гр.СНм-52 Сиротюк Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Сиротюк Михайло:Планування експерименту при дисперсійному аналізі.|Планування експерименту при дисперсійному аналізі.Латинські і греко-латинські квадрати. Латинські куби]].&lt;br /&gt;
# (27.02.2010р.) [[Користувач:Rosinets|ст.гр.СНм-51 Росинець Наталія]]: [[ПЕ2010:Виступ_на_семінарі:Росинець Наталія:Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.|Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.]]. &lt;br /&gt;
# (04.03.2010р.) [[Користувач:ulyasi4ka|ст.гр.СНм-51 Чорнописька Юля]]: [[Прогнозування за допомогою нейронних мереж]].&lt;br /&gt;
# (04.03.2010р.) [[Користувач:POWER|ст.гр.СНм-51 Вельмик C.В.]]: [[ПЕ2010:Виступ_на_семінарі:Вельмик Сергій:|Дробові репліки. Насичені плани. Генеруючі співвідношення. Ефективність реплік.]]. &lt;br /&gt;
# (05.03.2010р.) [[Користувач:ihor_p|ст.гр.СНм-51 Пельц І.В.]]: [[ПЕ2010:Виступ_на_семінарі:Пельц Ігор:|Рототабельне планування]]. &lt;br /&gt;
# (07.03.2010р.) [[Користувач:sloyka_yaroslav|ст.гр.СНм-51 Слойка Я.І.]]: [[ПЕ2010:Виступ_на_семінарі:Слойка Ярослав:|Дрейф неоднорідностей]].&lt;br /&gt;
# (07.03.2010р.) [[Користувач:olesia|ст.гр.СНм-51 Марценюк О.А.]]: [[ПЕ2010:Виступ_на_семінарі:Марценюк Олеся:|Планування експерименту при наявності некерованих змінних]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:Scoolf|ст.гр.СНм-51 Галас І.М.]]: [[ПЕ2010:Виступ_на_семінарі:Галас Іван:|Матриця планування експерименту]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:zvizdar|ст.гр.СНм-51 Бурак А.М.]]: [[ПЕ2010:Виступ_на_семінарі:Бурак Андрій:|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]. &lt;br /&gt;
# (09.03.2010р.) [[Користувач:Inna|ст.гр.СН-51 Канєвська І.М.]]: [[ПЕ2010:Виступ_на_семінарі:Канєвська Інна:|ПКореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці.]]. &lt;br /&gt;
Дописуйте по аналогії самі свої виступи&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=831</id>
		<title>2009-2010рр - Індивідуальні завдання для виступу на семінарах з предмету &quot;Планування експерименту Design Of Experiment (DOE)&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=831"/>
				<updated>2010-03-09T18:01:47Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;# (20.01.2010р.) [[Користувач:Bojkoio|ст.гр.СНм-51 Бойко Ігор]]: [[ПЕ2010:Виступ_на_семінарі:Бойко_Ігор:Чорний ящик|Схема &amp;quot;чорного ящика&amp;quot; в плануванні експерименту. Фактори (входи) і параметри оптимізації (виходи) &amp;quot;чорного ящика&amp;quot;]].&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Сарабун П.|ст.гр.СНм-51 Сарабун П.]]: [[ПЕ2010:Виступ_на_семінарі:Павло_Сарабун:Історія та роль Р.Фішера а планування експерименту]]&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Фактори експеременту|Рівні факторів. Нульовий рівень. Інтервал варіювання фактору]].&lt;br /&gt;
# (28.01.2010р.) [[Користувач:Nata|ст.гр.СНм-51 Трушик Наталя]]: [[ПЕ2010:Виступ_на_семінарі:Трушик Наталя:|Проведення експерименту. Анкета для збору даних]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:walter|ст.гр.СНм-51 Готович Володимир]]: [[ПЕ2010:Виступ_на_семінарі:Готович Володимир:|Оптимізаційні методи планування експериментів. Крокова процедура, метод Гаусса-Зейделя, метод крутого сходження.]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:mars|ст.гр.СНм-51 Залецький Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Залецький Михайло:|Регресійні моделі при повному 2 дробовому факторному експерименті. Визначення коефіцієнтів регресії.]].&lt;br /&gt;
# (21.02.2010р.) [[Користувач:yulik|ст.гр.СНм-51 Белиця Юля]]: [[ПЕ2010:Виступ_на_семінарі:Белиця Юля:|Види параметрів оптимізації. Вимоги до факторів і параметрів оптимізації..]].&lt;br /&gt;
# (30.02.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Методи прогнозування|Методи прогнозування]].&lt;br /&gt;
# (26.02.2010р.) [[Користувач:Syrotiuk|ст.гр.СНм-52 Сиротюк Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Сиротюк Михайло:Планування експерименту при дисперсійному аналізі.|Планування експерименту при дисперсійному аналізі.Латинські і греко-латинські квадрати. Латинські куби]].&lt;br /&gt;
# (27.02.2010р.) [[Користувач:Rosinets|ст.гр.СНм-51 Росинець Наталія]]: [[ПЕ2010:Виступ_на_семінарі:Росинець Наталія:Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.|Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.]]. &lt;br /&gt;
# (04.03.2010р.) [[Користувач:ulyasi4ka|ст.гр.СНм-51 Чорнописька Юля]]: [[Прогнозування за допомогою нейронних мереж]].&lt;br /&gt;
# (04.03.2010р.) [[Користувач:POWER|ст.гр.СНм-51 Вельмик C.В.]]: [[ПЕ2010:Виступ_на_семінарі:Вельмик Сергій:|Дробові репліки. Насичені плани. Генеруючі співвідношення. Ефективність реплік.]]. &lt;br /&gt;
# (05.03.2010р.) [[Користувач:ihor_p|ст.гр.СНм-51 Пельц І.В.]]: [[ПЕ2010:Виступ_на_семінарі:Пельц Ігор:|Рототабельне планування]]. &lt;br /&gt;
# (07.03.2010р.) [[Користувач:sloyka_yaroslav|ст.гр.СНм-51 Слойка Я.І.]]: [[ПЕ2010:Виступ_на_семінарі:Слойка Ярослав:|Дрейф неоднорідностей]].&lt;br /&gt;
# (07.03.2010р.) [[Користувач:olesia|ст.гр.СНм-51 Марценюк О.А.]]: [[ПЕ2010:Виступ_на_семінарі:Марценюк Олеся:|Планування експерименту при наявності некерованих змінних]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:Scoolf|ст.гр.СНм-51 Галас І.М.]]: [[ПЕ2010:Виступ_на_семінарі:Галас Іван:|Матриця планування експерименту]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:zvizdar|ст.гр.СНм-51 Бурак А.М.]]: [[ПЕ2010:Виступ_на_семінарі:Бурак Андрій:|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]. &lt;br /&gt;
# (09.03.2010р.) [[Користувач:inna|ст.гр.СН-51 Канєвська І.М]]: [[ПЕ2010:Виступ_на_семінарі:Канєвська Інна:|ПКореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці.]]. &lt;br /&gt;
Дописуйте по аналогії самі свої виступи&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=830</id>
		<title>2009-2010рр - Індивідуальні завдання для виступу на семінарах з предмету &quot;Планування експерименту Design Of Experiment (DOE)&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=830"/>
				<updated>2010-03-09T18:01:34Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;# (20.01.2010р.) [[Користувач:Bojkoio|ст.гр.СНм-51 Бойко Ігор]]: [[ПЕ2010:Виступ_на_семінарі:Бойко_Ігор:Чорний ящик|Схема &amp;quot;чорного ящика&amp;quot; в плануванні експерименту. Фактори (входи) і параметри оптимізації (виходи) &amp;quot;чорного ящика&amp;quot;]].&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Сарабун П.|ст.гр.СНм-51 Сарабун П.]]: [[ПЕ2010:Виступ_на_семінарі:Павло_Сарабун:Історія та роль Р.Фішера а планування експерименту]]&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Фактори експеременту|Рівні факторів. Нульовий рівень. Інтервал варіювання фактору]].&lt;br /&gt;
# (28.01.2010р.) [[Користувач:Nata|ст.гр.СНм-51 Трушик Наталя]]: [[ПЕ2010:Виступ_на_семінарі:Трушик Наталя:|Проведення експерименту. Анкета для збору даних]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:walter|ст.гр.СНм-51 Готович Володимир]]: [[ПЕ2010:Виступ_на_семінарі:Готович Володимир:|Оптимізаційні методи планування експериментів. Крокова процедура, метод Гаусса-Зейделя, метод крутого сходження.]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:mars|ст.гр.СНм-51 Залецький Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Залецький Михайло:|Регресійні моделі при повному 2 дробовому факторному експерименті. Визначення коефіцієнтів регресії.]].&lt;br /&gt;
# (21.02.2010р.) [[Користувач:yulik|ст.гр.СНм-51 Белиця Юля]]: [[ПЕ2010:Виступ_на_семінарі:Белиця Юля:|Види параметрів оптимізації. Вимоги до факторів і параметрів оптимізації..]].&lt;br /&gt;
# (30.02.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Методи прогнозування|Методи прогнозування]].&lt;br /&gt;
# (26.02.2010р.) [[Користувач:Syrotiuk|ст.гр.СНм-52 Сиротюк Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Сиротюк Михайло:Планування експерименту при дисперсійному аналізі.|Планування експерименту при дисперсійному аналізі.Латинські і греко-латинські квадрати. Латинські куби]].&lt;br /&gt;
# (27.02.2010р.) [[Користувач:Rosinets|ст.гр.СНм-51 Росинець Наталія]]: [[ПЕ2010:Виступ_на_семінарі:Росинець Наталія:Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.|Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.]]. &lt;br /&gt;
# (04.03.2010р.) [[Користувач:ulyasi4ka|ст.гр.СНм-51 Чорнописька Юля]]: [[Прогнозування за допомогою нейронних мереж]].&lt;br /&gt;
# (04.03.2010р.) [[Користувач:POWER|ст.гр.СНм-51 Вельмик C.В.]]: [[ПЕ2010:Виступ_на_семінарі:Вельмик Сергій:|Дробові репліки. Насичені плани. Генеруючі співвідношення. Ефективність реплік.]]. &lt;br /&gt;
# (05.03.2010р.) [[Користувач:ihor_p|ст.гр.СНм-51 Пельц І.В.]]: [[ПЕ2010:Виступ_на_семінарі:Пельц Ігор:|Рототабельне планування]]. &lt;br /&gt;
# (07.03.2010р.) [[Користувач:sloyka_yaroslav|ст.гр.СНм-51 Слойка Я.І.]]: [[ПЕ2010:Виступ_на_семінарі:Слойка Ярослав:|Дрейф неоднорідностей]].&lt;br /&gt;
# (07.03.2010р.) [[Користувач:olesia|ст.гр.СНм-51 Марценюк О.А.]]: [[ПЕ2010:Виступ_на_семінарі:Марценюк Олеся:|Планування експерименту при наявності некерованих змінних]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:Scoolf|ст.гр.СНм-51 Галас І.М.]]: [[ПЕ2010:Виступ_на_семінарі:Галас Іван:|Матриця планування експерименту]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:zvizdar|ст.гр.СНм-51 Бурак А.М.]]: [[ПЕ2010:Виступ_на_семінарі:Бурак Андрій:|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]. &lt;br /&gt;
&lt;br /&gt;
Дописуйте по аналогії самі свої виступи&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=829</id>
		<title>2009-2010рр - Індивідуальні завдання для виступу на семінарах з предмету &quot;Планування експерименту Design Of Experiment (DOE)&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=829"/>
				<updated>2010-03-09T18:01:11Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;# (20.01.2010р.) [[Користувач:Bojkoio|ст.гр.СНм-51 Бойко Ігор]]: [[ПЕ2010:Виступ_на_семінарі:Бойко_Ігор:Чорний ящик|Схема &amp;quot;чорного ящика&amp;quot; в плануванні експерименту. Фактори (входи) і параметри оптимізації (виходи) &amp;quot;чорного ящика&amp;quot;]].&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Сарабун П.|ст.гр.СНм-51 Сарабун П.]]: [[ПЕ2010:Виступ_на_семінарі:Павло_Сарабун:Історія та роль Р.Фішера а планування експерименту]]&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Фактори експеременту|Рівні факторів. Нульовий рівень. Інтервал варіювання фактору]].&lt;br /&gt;
# (28.01.2010р.) [[Користувач:Nata|ст.гр.СНм-51 Трушик Наталя]]: [[ПЕ2010:Виступ_на_семінарі:Трушик Наталя:|Проведення експерименту. Анкета для збору даних]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:walter|ст.гр.СНм-51 Готович Володимир]]: [[ПЕ2010:Виступ_на_семінарі:Готович Володимир:|Оптимізаційні методи планування експериментів. Крокова процедура, метод Гаусса-Зейделя, метод крутого сходження.]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:mars|ст.гр.СНм-51 Залецький Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Залецький Михайло:|Регресійні моделі при повному 2 дробовому факторному експерименті. Визначення коефіцієнтів регресії.]].&lt;br /&gt;
# (21.02.2010р.) [[Користувач:yulik|ст.гр.СНм-51 Белиця Юля]]: [[ПЕ2010:Виступ_на_семінарі:Белиця Юля:|Види параметрів оптимізації. Вимоги до факторів і параметрів оптимізації..]].&lt;br /&gt;
# (30.02.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Методи прогнозування|Методи прогнозування]].&lt;br /&gt;
# (26.02.2010р.) [[Користувач:Syrotiuk|ст.гр.СНм-52 Сиротюк Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Сиротюк Михайло:Планування експерименту при дисперсійному аналізі.|Планування експерименту при дисперсійному аналізі.Латинські і греко-латинські квадрати. Латинські куби]].&lt;br /&gt;
# (27.02.2010р.) [[Користувач:Rosinets|ст.гр.СНм-51 Росинець Наталія]]: [[ПЕ2010:Виступ_на_семінарі:Росинець Наталія:Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.|Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.]]. &lt;br /&gt;
# (04.03.2010р.) [[Користувач:ulyasi4ka|ст.гр.СНм-51 Чорнописька Юля]]: [[Прогнозування за допомогою нейронних мереж]].&lt;br /&gt;
# (04.03.2010р.) [[Користувач:POWER|ст.гр.СНм-51 Вельмик C.В.]]: [[ПЕ2010:Виступ_на_семінарі:Вельмик Сергій:|Дробові репліки. Насичені плани. Генеруючі співвідношення. Ефективність реплік.]]. &lt;br /&gt;
# (05.03.2010р.) [[Користувач:ihor_p|ст.гр.СНм-51 Пельц І.В.]]: [[ПЕ2010:Виступ_на_семінарі:Пельц Ігор:|Рототабельне планування]]. &lt;br /&gt;
# (07.03.2010р.) [[Користувач:sloyka_yaroslav|ст.гр.СНм-51 Слойка Я.І.]]: [[ПЕ2010:Виступ_на_семінарі:Слойка Ярослав:|Дрейф неоднорідностей]].&lt;br /&gt;
# (07.03.2010р.) [[Користувач:olesia|ст.гр.СНм-51 Марценюк О.А.]]: [[ПЕ2010:Виступ_на_семінарі:Марценюк Олеся:|Планування експерименту при наявності некерованих змінних]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:Scoolf|ст.гр.СНм-51 Галас І.М.]]: [[ПЕ2010:Виступ_на_семінарі:Галас Іван:|Матриця планування експерименту]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:zvizdar|ст.гр.СНм-51 Бурак А.М.]]: [[ПЕ2010:Виступ_на_семінарі:Бурак Андрій:|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]. &lt;br /&gt;
# (09.03.2010р.) [[Користувач:inna|ст.гр.СН-51 Канєвська І.М]]: [[ПЕ2010:Виступ_на_семінарі:Канєвська Інна:|ПКореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці.]]. &lt;br /&gt;
Дописуйте по аналогії самі свої виступи&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	<entry>
		<id>https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=828</id>
		<title>2009-2010рр - Індивідуальні завдання для виступу на семінарах з предмету &quot;Планування експерименту Design Of Experiment (DOE)&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.tntu.edu.ua/index.php?title=2009-2010%D1%80%D1%80_-_%D0%86%D0%BD%D0%B4%D0%B8%D0%B2%D1%96%D0%B4%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%96_%D0%B7%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B4%D0%BB%D1%8F_%D0%B2%D0%B8%D1%81%D1%82%D1%83%D0%BF%D1%83_%D0%BD%D0%B0_%D1%81%D0%B5%D0%BC%D1%96%D0%BD%D0%B0%D1%80%D0%B0%D1%85_%D0%B7_%D0%BF%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D1%83_%22%D0%9F%D0%BB%D0%B0%D0%BD%D1%83%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%B5%D0%BA%D1%81%D0%BF%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D0%BD%D1%82%D1%83_Design_Of_Experiment_(DOE)%22&amp;diff=828"/>
				<updated>2010-03-09T18:00:20Z</updated>
		
		<summary type="html">&lt;p&gt;Inna: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;# (20.01.2010р.) [[Користувач:Bojkoio|ст.гр.СНм-51 Бойко Ігор]]: [[ПЕ2010:Виступ_на_семінарі:Бойко_Ігор:Чорний ящик|Схема &amp;quot;чорного ящика&amp;quot; в плануванні експерименту. Фактори (входи) і параметри оптимізації (виходи) &amp;quot;чорного ящика&amp;quot;]].&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Сарабун П.|ст.гр.СНм-51 Сарабун П.]]: [[ПЕ2010:Виступ_на_семінарі:Павло_Сарабун:Історія та роль Р.Фішера а планування експерименту]]&lt;br /&gt;
# (27.01.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Фактори експеременту|Рівні факторів. Нульовий рівень. Інтервал варіювання фактору]].&lt;br /&gt;
# (28.01.2010р.) [[Користувач:Nata|ст.гр.СНм-51 Трушик Наталя]]: [[ПЕ2010:Виступ_на_семінарі:Трушик Наталя:|Проведення експерименту. Анкета для збору даних]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:walter|ст.гр.СНм-51 Готович Володимир]]: [[ПЕ2010:Виступ_на_семінарі:Готович Володимир:|Оптимізаційні методи планування експериментів. Крокова процедура, метод Гаусса-Зейделя, метод крутого сходження.]].&lt;br /&gt;
# (17.02.2010р.) [[Користувач:mars|ст.гр.СНм-51 Залецький Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Залецький Михайло:|Регресійні моделі при повному 2 дробовому факторному експерименті. Визначення коефіцієнтів регресії.]].&lt;br /&gt;
# (21.02.2010р.) [[Користувач:yulik|ст.гр.СНм-51 Белиця Юля]]: [[ПЕ2010:Виступ_на_семінарі:Белиця Юля:|Види параметрів оптимізації. Вимоги до факторів і параметрів оптимізації..]].&lt;br /&gt;
# (30.02.2010р.) [[Користувач:Hotcoffe|ст.гр.СНм-51 Олійник Євген]]: [[ПЕ2010:Виступ_на_семінарі:Євген_Олійник:Методи прогнозування|Методи прогнозування]].&lt;br /&gt;
# (26.02.2010р.) [[Користувач:Syrotiuk|ст.гр.СНм-52 Сиротюк Михайло]]: [[ПЕ2010:Виступ_на_семінарі:Сиротюк Михайло:Планування експерименту при дисперсійному аналізі.|Планування експерименту при дисперсійному аналізі.Латинські і греко-латинські квадрати. Латинські куби]].&lt;br /&gt;
# (27.02.2010р.) [[Користувач:Rosinets|ст.гр.СНм-51 Росинець Наталія]]: [[ПЕ2010:Виступ_на_семінарі:Росинець Наталія:Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.|Попередня обробка експериментальних даних. Критерії відсіювання завідомо помилкових даних.]]. &lt;br /&gt;
# (04.03.2010р.) [[Користувач:ulyasi4ka|ст.гр.СНм-51 Чорнописька Юля]]: [[Прогнозування за допомогою нейронних мереж]].&lt;br /&gt;
# (04.03.2010р.) [[Користувач:POWER|ст.гр.СНм-51 Вельмик C.В.]]: [[ПЕ2010:Виступ_на_семінарі:Вельмик Сергій:|Дробові репліки. Насичені плани. Генеруючі співвідношення. Ефективність реплік.]]. &lt;br /&gt;
# (05.03.2010р.) [[Користувач:ihor_p|ст.гр.СНм-51 Пельц І.В.]]: [[ПЕ2010:Виступ_на_семінарі:Пельц Ігор:|Рототабельне планування]]. &lt;br /&gt;
# (07.03.2010р.) [[Користувач:sloyka_yaroslav|ст.гр.СНм-51 Слойка Я.І.]]: [[ПЕ2010:Виступ_на_семінарі:Слойка Ярослав:|Дрейф неоднорідностей]].&lt;br /&gt;
# (07.03.2010р.) [[Користувач:olesia|ст.гр.СНм-51 Марценюк О.А.]]: [[ПЕ2010:Виступ_на_семінарі:Марценюк Олеся:|Планування експерименту при наявності некерованих змінних]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:Scoolf|ст.гр.СНм-51 Галас І.М.]]: [[ПЕ2010:Виступ_на_семінарі:Галас Іван:|Матриця планування експерименту]].  &lt;br /&gt;
# (08.03.2010р.) [[Користувач:zvizdar|ст.гр.СНм-51 Бурак А.М.]]: [[ПЕ2010:Виступ_на_семінарі:Бурак Андрій:|Приклади задач у народному господарстві, в тому числі у багатьох областях медицини та ін.]]. &lt;br /&gt;
Дописуйте по аналогії самі свої виступи&lt;br /&gt;
# (09.03.2010р.) [[Користувач:inna|ст.гр.СН-51 Канєвська І.М]]: [[ПЕ2010:Виступ_на_семінарі:Канєвська Інна:|ПКореляційний аналіз експериментальних даних. Кореляційна матриця. Перевірка гіпотез відносно значень кореляційної матриці.]]. &lt;br /&gt;
Дописуйте по аналогії самі свої виступи&lt;/div&gt;</summary>
		<author><name>Inna</name></author>	</entry>

	</feed>