лучшие книги по экономике
Главная страница

Главная

Замовити роботу

Последние поступления

Форум

Создай свою тему

Карта сайта

Обратная связь

Статьи партнёров


Замовити роботу
Книги по
алфавиту

Б
В
Г
Д
Е
Ж
З
И
К
Л
М
Н
О

системи підтримки прийняття рішень

Страницы [ 1 ] [ 2 ] [ 3 ] [ 4 ] [ 5 ] [ 6 ] [ 7 ] [ 8 ] [ 9 ] [ 10 ] [ 11 ] [ 12 ] [ 13 ] [ 14 ] [ 15 ]
[ 16 ] [ 17 ] [ 18 ] [ 19 ] [ 20 ] [ 21 ] [ 22 ] [ 23 ] [ 24 ] [ 25 ] [ 26 ] [ 27 ] [ 28 ] [ 29 ] [ 30 ] [ 31 ] [ 32 ]
[ 33 ] [ 34 ] [ 35 ] [ 36 ] [ 37 ] [ 38 ] [ 39 ] [ 40 ] [ 41 ] [ 42 ] [ 43 ] [ 44 ] [ 45 ] [ 46 ] [ 47 ] [ 48 ] [ 49 ] [ 50 ]

 

9.3. Дейтамайнінг — засоби інтелектуального аналізу даних у СППР


9.3.1. Розвиток і призначення дейтамайнінгу (Data Mining)
У 70-х роках минулого століття широко застосовувалася практика, коли компанії наймали аналітиків з бізнесу, котрі, використовуючи статистичні пакети подібні SAS і SPSS, виконували аналіз трендів даних і проводили їх кластерний аналіз. Як тільки стало технологічно можливим і доцільним зберігати великі обсяги даних, менеджери виявили бажання самим мати доступ до даних, подібних тим, що генеруються в пам’яті касового апарата роздрібної торгівлі й аналізувати їх. Запровадження штрихових кодів і глобальна гіпертекстова система Інтернету також зробили реальною можливість для компаній збирати великі обсяги нових даних. Однак у зв’язку з цим виникло питання про інструментальні засоби добування корисної інформації з нагромаджених обсягів «сирих» даних. Ці засоби опісля отримали назву «Data Mining» (дейтамайнінг).
Слід зауважити, що протягом багатьох років компанії проводили статистичні дослідження своїх даних. Коли статистик аналізує дані, то він спочатку висуває гіпотезу про можливий зв’язок між певними даними, а потім посилає запит до бази даних і використовує відповідні статистичні методи, щоб довести або спростувати сформульовану гіпотезу. Це підхід називається «режимом верифікації» («verification mode»). На противагу йому програмне забезпечення дейтамайнінгу функціонує в «режимі відкриття» (discovery mode), тобто виявляє приховані, часто невідомі для користувачів шаблони (patterns) зв’язків між даними, а не аналізує наперед створену гіпотезу щодо них.
За останні роки надзвичайно зріс інтерес до дейтамайнінгу з боку ділових користувачів, котрі вирішили скористатися перевагами даної технології для отримання конкурентної переваги в бізнесі (див. http://www.datamining.com/). Зростаюча зацікавленість щодо впровадження дейтамайнінгу (ДМ) у результаті закінчилася появою низки комерційних продуктів, кожен з яких має таку саму назву, описаний низкою подібних елементів, але фактично має неоднакові функціональні можливості й ґрунтується на різних особливих технічних підходах.
Менеджери з інформаційних технологій, що мають завдання підібрати відповідну СППР, часто безпосередньо зустрічаються зі складними питаннями стосовно реагування на потреби бізнес-користувачів через те, що засадні принципи створення дейтамайнінгу набагато складніші, ніж традиційні запити і формування звітів, крім того, вони відчувають підсилений тиск щодо часу реалізації потреб користувачів, тобто користувачі вимагають розробити дейтамайнінг якомога швидше. Проте очевидною перешкодою для розроблення і впровадження в корпораціях рішень з дейтамайнінгу є наявність багатьох різних підходів до нього, що мають свої певні властивості й переваги, у той час як фактично тільки кількома основними методами формуються основи більшості систем ДМ. У цьому контексті важливою є однозначна інтерпретація самого поняття дейтамайнінгу.
Дейтамайнінг (Data mining) це тип аналітичних додатків, які підтримують рішення, розшукуючи за прихованими шаблонами (patterns) інформацію в базі даних. Цей пошук може бути
зроблений або користувачем (тобто тільки за допомогою виконання запитів) або інтелектуальною програмою, яка автоматично розшукує в базах даних і знаходить важливі для користувача зразки інформації. Відповіді на інформаційні запити подаються в бажаній для користувача формі (наприклад, у вигляді діаграм, звітів тощо).
Англомовний термін «Data mining» часто перекладається як «добування даних»; «добування знань»; «добування інформації»; «аналіз, інтерпретація і подання інформації зі сховища даних»; «вибирання інформації із масиву даних». У даній книзі буде використовуватися як основний термін «дейтамайнінг» — україномовна транскрипція початково запровадженого і однозначно вживаного в англомовній літературі терміна «Data mining».
Добування даних — це процес фільтрування великих обсягів даних для того, щоб підбирати відповідну до контексту задачі інформацію. Вживається також термін «Data surfing» (дослідження даних в Інтернеті). Корпорація IBM визначає ДМ, як «процес екстракції з великих баз даних заздалегідь невідомої, важливої інформації, що дає підстави для дій та використання її для розроблення критичних бізнесових рішень». Інші визначення не пов’язують ні з обсягом бази даних, ні з тим, чи використовується підготовлена інформація в бізнесі, але переважно ці умови загальні.
Інструментальні засоби добування даних використовують різноманітні методи, включаючи доказову аргументацію(case-based reasoning), візуалізацію даних, нечіткі запити й аналіз, нейромережі та інші. Доказову аргументацію (міркування за прецеден-
тами) застосовують для пошуку записів, подібних до якогось певного запису чи низки записів. Ці інструментальні засоби дають змогу користувачеві конкретизувати ознаки подібності підібраних записів. За допомогою візуалізації даних можна легко і швид­ко оглядати графічні відображення інформації в різних аспектах (ракурсах). Ці та інші методи частково були розглянуті раніше,
а детальніше будуть розглянуті далі.
Дейтамайнінг як процес виявлення в загальних масивах даних раніше невідомих, нетривіальних, практично корисних і доступних для інтерпретації знань, необхідних для прийняття рішень у різних галузях людської діяльності, практично має нічим не обмежені сфери застосування. Але, насамперед, методи ДМ нині більше всього заінтригували комерційні підприємства, що створюють проекти на основі сховищ даних (Data Warehousing), хоча наявність сховища даних не є обов’язковою умовою здійснення дейтамайнінгу. Досвід багатьох таких підприємств свідчить, що рівень рентабельності від застосування дейтамайнінгу може досягати 1000 %. Наприклад, відомі повідомлення про економічний ефект, за якого прибутки у 10—70 раз перевищували первинні витрати, що становили від 350 до 750 тис. дол. Є відомості про проект у 20 млн дол., який окупився всього за 4 місяці. Інший приклад — річна економія 700 тис. дол. за рахунок упровадження дейтамайнінгу в мережі універсамів у Великобританії.
Дейтамайнінг являє собою велику цінність для керівників і аналітиків у їх повсякденній діяльності. Ділові люди усвідомили, що за допомогою методів ДМ вони можуть отримати відчутні переваги в конкурентній боротьбі. Описання інших успішних прикладів застосування дейтамайнінгу можна знайти в літературі [39].

9.3.2. Доступне програмне
забезпечення дейтамайнінгу

Як уже зазначалося, нині на ринку програмних продуктів пропонуються десятки готових до використання систем дейтамайнін­гу, причому деякі з них орієнтовані на широке охоплення технологічних засобів дейтамайнінгу, а інші ґрунтуються на специфічних методах (нейромережах, деревах рішень тощо). Охарактеризуємо найновіші системи ДМ з низкою різних підходів і методів дейтамайнінгу — PolyAnalyst, MineSet, KnowlengeSTUDIO. Вузькоорієнтовані на специфічні способи добування даних системи ДМ будуть згадуватися за ідентифікації найпоширеніших методів дейтамайнінгу в наступних параграфах даного розділу. PolyAnalyst

Компанія «Мегап’ютер» виробляє і пропонує на ринку сімейство продуктів для дейтамайнінгу — PolyAnalyst. Система PolyAnalyst призначена для автоматичного і напівавтоматичного аналізу числових баз даних і добування із загальних масивів даних практично корисних знань. PolyAnalyst відшукує багатофакторні залежності між змінними в базі даних, автоматично будує і тестує багатовимірні нелінійні моделі, що виражають знайдену залежність, виводить класифікаційні правила на навчальних прикладах, знаходить у даних багатовимірні кластери та будує алгоритми прийняття рішень.
Нині PolyAnalyst використовується в більш ніж 20 країнах світу для розв’язання задач з різних галузей людської діяльності: бізнесу, фінансів, науки, медицини. Зараз це одна із самих потужних і в той же час доступних за ціною комерційних систем для дейтамайнінгу.
Основу PolyAnalyst утворюють так звані машини досліджень (Exploration engines), тобто програмні модулі, що ґрунтуються на різних алгоритмах ДМ і призначені для автоматичного аналізу даних. Остання версія PolyAnalyst 4.3 містить 11 машин досліджень.

MineSet — візуальний інструмент аналітика

Компанія «Silicon Graphics» розробила систему дейтамайнінгу — MineSet, яка відрізняється специфічними особливостями як на концептуальному, так і на технологічному рівнях. Акцент при цьому робиться на унікальну процедуру візуальної інтерпретації складних взаємозв’язків у багатовимірних даних.
Система MineSet являє собою інструментарій для поглибленого інтелектуального аналізу даних на базі використання потужної візуальної парадигми. Характерною особливістю MineSet є комплексний підхід, що адаптує застосування не однієї, а кількох взаємодоповнюючих стратегій добування, аналізу й інтерпретації даних. Це дає користувачеві можливість вибирати найвідповідніший інструмент або ряд інструментів залежно від розв’язуваної задачі і видів використовуваних програмно-апаратних засобів. Архітектура MineSet має принципово відкритий характер — використовуючи стандартизований файловий формат, інші додатки можуть постачати дані для введення в MineSet, а також використовувати результати її роботи. Відкрита архітектура системи — це і ос­нова для майбутнього її розширення, що передбачає можливість вбудовування нових компонентів на основі концепції інтеграції (plug-in). У свою чергу, інтерфейс прикладного програмування (API) дає змогу інкорпорувати елементи MineSet в автономні додатки.

KnowledgeSTUDIO

KnowledgeSTUDIO є новою версією дейтамайнінгу корпорації з програмного забезпечення «ANGOSS» (http://www.angoss. com/). Система впроваджує найрозвинутіші методи ДМ у корпоративне середовище з тим, щоб підприємства могли досягати максимальної вигоди від своїх інвестицій у дані. Вона забезпечує високу продуктивність користувачів щодо розв’язання ділових проблем без суттєвих зусиль на навчання, як це, наприклад, потрібно для освоєння статистичного програмного забезпечення. Крім того, це також потужний інструментальний засіб для аналітиків.
KnowledgeSTUDIO сумісна з основними статистичними пакетами програм. Наприклад, ця система не тільки читає і записує файли даних, але також і генерує коди статистичного пакета
SAS. Із такими властивостями стосовно статистики моделювальники можуть швидко й легко адаптувати успадковані статистичні аналізи.
Система KnowledgeSTUDIO тісно інтегрується зі сховищами і вітринами даних. У такому разі дані можуть добуватися в ре-
жимі In-place Mining, тобто коли вони залишаються у вітрині або сховищі даних «на місці», автоматично використовуючи для цього «хвилі запитів», тобто серію тверджень SQL. Завдяки тому, що дані отримуються безпосередньо від джерела, дублювання не потребується. Альтернативно, з метою оптимізації ДМ дані можна вибирати з їх форматом зберігання, а потім дейтамайнінг виконується сервером високої продуктивності, який орієнтований на формат файлів KnowledgeSTUDIO.
Технологія ДМ ANGOSS ActiveX інтегрує моделі для прогнозування з Web-базовими додатками і бізнесовими клієнт/сер­верними додатками. Дослідження даних за допомогою використання дерев рішень і графіки може бути розширене через Інтранет і Iнтернет. Можна також застосовувати Java-розв’язування для розгортання моделей. Для виконання алгоритмів обчислення в проекті KnowledgeSTUDIO передбачено використання або віддаленого «обчислювального» сервера, або локальної робочої станції.
У KnowledgeSTUDIO реалізована велика кількість методів дейтамайнінгу. Пропонується п’ять алгоритмів дерев рішень, три алгоритми нейромереж і алгоритм кластеризації «неконтрольованого навчання» (unsupervised). Має місце повне інтегрування з додатками і бізнесовими процесами. Можна створювати нові додатки або вставляти дейтамайнінг у наявні додатки. Програмований комплекс KnowledgeSTUDIOSoftware (SDK) надає можливість розроблення додатків, наприклад створення моделей для прогнозування, з можливим використанням Visual Basic, Power­Builder, Delphi, C++, або Java. Формування, випробування і оцінювання нових моделей може бути також автоматизованим. Know­ledgeSTUDIO забезпечує різні шляхи, щоб візуально виразити і дослідити у великих базах даних зразки прихованих закономірностей.
9.3.3. Характеристика процесів
і активностей дейтамайнінгу.
Процеси дейтамайнінгу

Традиційно мали місце два типи статистичних аналізів: підтверджуючий (confirmatory analysis) і дослідницький аналіз (exploratory analysis). У підтверджуючому аналізі будь-хто має конкретну гіпотезу і в результаті аналізу або підтверджує, або спростовує її. Однак недоліком підтверджуючого аналізу є недостатня кількість гіпотез у аналітика. За дослідницького аналізу виявляють, підтверджуються чи спростовуються підхожі гіпотези. Тут система, а не користувач, бере ініціативу за аналізу даних.
Здебільшого термін «дейтамайнінг» використовується для описання автоматизованого процесу аналізу даних, в якому система сама бере ініціативу щодо генерування взірців, тобто дейтамайнінг належить до інструментальних засобів дослідницького аналізу.

Рис. 9.7. Типи процесів дейтамайнінгу
З погляду орієнтації на процес є три типи процесів дейтамайнінгу (рис. 9.7): відкриття (добування) (discovery,); моделювання передбачень (predictive modeling,); аналіз аномалій (forensic analysis).
Відкриття є процесом перегляду бази даних для знаходження невидимих взірців (pattern) без наперед визначеної ідеї або гіпотези взагалі про те, що вони можуть бути. Інакше кажучи, програма бере ініціативу без попередніх міркувань стосовно того, що взірці (шаблони), які цікавлять користувачів, мають насправді місце і можуть подаватися у формі доречних запитів. У великих базах даних є так багато інформаційних аспектів, про які користувач практично може ніколи й не думати і не робити правильних запитів стосовно відповідних їм взірців. Ключовим питанням тут може бути кількість взірців, які можуть бути виражені й відкриті та якість інформації, що добувається. Саме цим і визначається потужність засобів відкриття (discovery) інформації.
У разі моделювання передбачень добуваються взірці з бази даних для їх використання, щоб передбачити майбутнє. Моделювання передбачень дає змогу користувачеві створювати записи з деякими невідомими дослідницькими значеннями, і система визначає ці невідомі значення, які ґрунтуються на попередніх шаблонах, що відкриваються з бази даних. У той час як відкриття знаходить взірці в даних, за прогнозуючого моделювання взірці застосовуються для того, щоб підібрати значення для нових елементів даних, і в цьому полягає істотна відмінність між цими видами процесів дейтамайнінгу.
Аналіз аномалій (forensic analysis) є процесом застосування вибраних взірців (шаблонів) для виявлення аномалій або незвичайних елементів даних. Щоб виокремити незвичайні елементи, спершу потрібно знайти те, що є нормою, а вже потім виявляти за допомогою заданих порогових величин ті елементи, які відхиляються від звичайних. Зокрема, сюди відноситься виявлення девітації, тобто відхилення від правильного курсу.
Кожний із цих процесів може бути далі охарактеризований виділенням відповідних прийомів. Наприклад, є кілька методів відкриття взірців: правило «ЯКЩО…, ТО», асоціації, афінність (суміжність) тощо. У той час, коли правило «ЯКЩО…, ТО» для людини звичне, то асоціативні правила є новими. Вони стосуються групування елементів даних (наприклад, коли хтось купує один продукт, то за звичкою чи збігом обставин він може купити інший продукт у той самий час; такий процес, зазвичай, пов’язаний з аналізом ринкового кошика покупця). Потужність системи відкриття вимірюється кількістю типів і загальністю взірців, які можна знайти і виразити придатною для використання мовою.
Користувачі і дії дейтамайнінгу
Необхідно відрізняти описані щойно процеси від дій дейтамайнінгу, за допомогою яких процеси дейтамайнінгу можуть бути виконані, і користувачів, які виконують ці дії. Спершу про користувачів. Дії дейтамайнінгу, зазвичай, виконуються трьома різними типами користувачів: виконавцями (executives), кінцевими користувачами (end users) і аналітиками (analysts). Усі користувачі, як правило, виконують три види дії дейтамайнінгу всередині корпоративного середовища: епізодичні; стратегічні; безперервні (постійні).
Безперервні і стратегічні дії дейтамайнінгу часто стосуються безпосередньо виконавців і менеджерів, хоч аналітики також можуть у цьому їм допомагати.

9.3.4. Дерево методів дейтамайнінгу

Технології дейтамайнінгу використовують вели-
ку кількість методів, частина з яких запозичена з інструментарію штучного інтелекту, а інша належить або до класичних статистичних методів, або до інноваційних методів, породжених останніми досягненнями інформаційних технологій. Ви-
щий рівень класифікації методів дейтамайнінгу може ґрунтуватися на тому, чи зберігаються дані після дейтамайнінгу незмінними, чи вони фільтруються для подальшого викорис­тання.
На рис. 9.8 показано дерево методів дейтамайнінгу, де відображені основні види і підвиди методів, причому гілкування можна продовжити, оскільки низка методів, наприклад, кластерний аналіз, нейромережі, дерева рішень мають багато різновидів. Оскільки деякі з наведених методів були розглянуті поверхово раніше в контексті ідентифікації інструментів штучного інтелекту чи як складові деяких продуктів дейтамайнінгу, то зупинимося на короткому аналізі складових дерева методів дейтамайнінгу. Доклад­нішому висвітленню нейромереж, генетичних алгоритмів і про­грамних агентів будуть присвячені окремі параграфи даного розділу.

Рис. 9.8. Дерево методів дейтамайнінгу

Збереження даних (Data Retention)

У той час, як при дистиляції шаблонів ми аналізуємо дані, виділяємо необхідний зразок і потім залишаємо їх, то, застосовуючи метод збереження, дані зберігаються для зіставляння з шаблоном. Коли надходять нові елементи даних, то вони порівнюються з попереднім рядом даних.
Метод «найближчого сусіда» (самий схожий сусід, «nearest neighbor») — добре відомий приклад підходу, який ґрунтується на збереженні даних. При цьому ряд даних тримається в пам’яті для порівняння з новими елементами даних. Коли презентується новий запис для передбачення, знаходяться «відхилення» між ним і подібними низками даних, а найподібніший ідентифікується.
Міркування за аналогією (case-based reasoning — CBR) або міркування за прецедентами (аналогічними випадками). Даний метод має дуже просту ідею: щоб зробити прогноз на майбутнє або вибрати правильне рішення, система CBR знаходить близькі аналогії в минулому за різних умов і відбирає ту відповідь, яка за схожими ознаками була правильною. Інструментальні засоби міркування за прецедентами знаходять записи в базі даних, які подібні до описаних записів. Користувач описує, яким сильним зв’язок має бути перед тим, як новий випадок пропонується увазі. Цей тип інструментальних засобів також називається міркуванням на основі пам’яті (memory-based reasoning).
Кластерний аналіз — це спосіб групування багатовимірних об’єктів, що базується на поданні результатів окремих спостережень точками геометричного простору з наступним виділенням груп як «грон» цих точок. Термін «кластерний аналіз» запропонований К. Тріоном 1939 року (cluster, англ. — гроно, скупчення, пучок). Синонімами (хоч з обмовками і не завжди) є вирази: автоматична класифікація, таксономія, розпізнавання без навчання, розпізнавання образів без учителя, самонавчання та ін. У дейтамайнінгу використовується, головно, для класифікації (так­сономії).
Основна мета кластерного аналізу — виділити у початкових багатовимірних даних такі однорідні підмножини, щоб об’єкти всередині груп були схожими за певними ознаками, а об’єкти з різних — несхожими. Під «схожими» розуміється близькість об’єктів у багатовимірному просторі ознак, і тоді завдання зводиться до виділення в цьому просторі природних скупчень об’єктів, які і вважаються однорідними групами. В кластерному аналізі використовуються десятки різних алгоритмів і методів (один з таких методів — K-Means реалізований у системі дейтамайнінгу KnowledgeSTUDIO).

Дистиляція даних (Data Distilled)

Застосовуючи цей метод, вибирають шаблон (взірець) з низки даних, а потім використовують його з різними цілями. Природно, тут виникають два запитання: 1) «Які типи шаблонів можуть бути вибрані?» і 2) «Як вони будуть подаватися?» Очевидно, шаблон потрібно виражати формально і за допомогою мови. Ця альтернатива приводить до чотирьох виокремлених підходів: логічних; візуалізація; на основі рівнянь; крос-табуляція. Кожний із цих підходів історично має чіткі математичні корені. Зупинимося коротко на підході «крос-табуляції» (Cross Tabulation), який недостатньо описаний в україномовній літературі.
Крос-табуляція або перехресна табуляція (перехресні табличні дані) є основною і дуже простою формою аналізу даних, добре відомою в статистиці і широко використовуваною для створення звітів. Двохвимірна крос-таблиця (cross-tab) подібна до електрон­ної таблиці як щодо заголовків рядків і стовпців, так і щодо атрибутних значень. Комірки (cells) у таблиці являють собою агреговані операції, зазвичай, ряду атрибутних значень, що зустрічаються (co-occurances) разом. Багато крос-таблиць за ефективністю рівноцінні трьохвимірним стовпчиковим діаграмам (гістограмам) — (3D bar graph), що показують сумісні рахунки.
Довірчі мережі, як один із різновидів крос-табуляції, зазвичай, ілюструються з використанням графічного подання розподілу ймовірностей (отриманого шляхом підрахунків). Довірча мережа є орієнтованим графом (directed graph), що складається з вершин (змінні подання) і дуг (зображення ймовірнісної залежності) між вершинами змінних.
9.4. Нейронні мережі

9.4.1. Визначення та еволюція
нейронних мереж

Нейронна мережа (Neural Network) або просто нейромережа є програмно (інколи апаратно) реалізованою системою,
в основу якої покладена математична модель процесу передавання і оброблення імпульсів мозку людини, що імітує механізм взаємодії нейронів (neuron) з метою опрацювання інформації, що надходить,
і навчання досвіду. Інакше кажучи, проводиться комп’ютеризована імітація інтелектуального режиму поведінки людини. Ключовим аспектом штучних нейромереж є їх здатність навчатися в процесі розв’язання задач, наприклад, розпізнавання образів.
Еволюція штучних нейронних систем проходила протягом більше ніж двох тисяч років. Інтерес до моделювання людської системи навчання може бути віднесений до епохи Китайських майстрів, тобто ще майже 200 років до нашої ери. Однак найбільші дослідження з розроблення функції простого нейрона були проведені в кінці 30-х років ХХ століття Уореном Мак-Каллоком (Warren McCulloch) і Уолтером Піттсом (Walter Pitts), що може розглядатися як реальна стартова точка в даній галузі знань. 1943 року ці автори опублікували свої результати в книзі «Логічне числення ідей, що стосуються нервової діяльності».
Згідно з теорією Мак-Каллока і Піттса, виведення даних від нейрона має математичне значення, що дорівнює зваженій сумі введень. Хоч і було доведено, що ці прості нейрони можуть бути відмінними обчислювальними пристроями, коли використовуються відповідні ваги, відчувалася відсутність універсального правила навчання, тобто методу для регулювання ваг у нейронних функціях.
Одне з найзнаменитіших правил (законів) навчання було запропоновано 1949 року Дональдом Геббом (Donald Hebb).
У цьому правилі стверджується, що з більшою частотою сприяє збудженню одного нейрона перша секунда, тобто ефективнішим буде вплив на першій секунді. Отже, пам’ять зберігається в синаптичних зв’язках мозку, і навчання відбувається зі змінами в силі цих зв’язків.
Першим нейрокомп’ютером (neurocomputer) можна вважати пристрій «Snark», який розробив М. Мінський (Marvin Minsky) на початку 50-х років ХХ ст., що розглядається багатьма вченими як перший комп’ютерний аналог людського мозку. Хоча з технічного боку пристрій мав певний успіх, проте він був неспроможним виконати будь-яку значну функцію з оброблення інформації.
У середині 50-х років Франк Розенблат (Frank Rosenblatt), нейрофізик з університету Cornell (США), розробив пристрій апаратних засобів персептрон (Perceptron) — електронний пристрій для розпізнавання зорових образів (зображень). В персептроні використані штучні нейронні структури, які Розенблат назвав персептронами, комбінованими з простим правилом на­вчання. Персептрон міг узагальнювати й реагувати на незнайомі ввідні стимули. Хоч успіх Розенблата і сприяв появі надій на швидке створення штучного мозку, проте М. Мінський і С. Паперт (Seymour Papert), піонери в галузі штучного інтелекту, довели, що персептрони Розенблата не зможуть розв’язати прості проблеми логіки, що послужило тимчасовим гальмом дослідження нейромереж. Реальні досягнення щодо створення та широкого застосування нейромереж отримані за останні десять років.
Сучасні інструментальні засоби нейромереж використовуються для сприймання інформації за допомогою вивчення взірців (шаблонів) і потім застосовування їх з метою передбачення майбутніх зв’язків або відношень. Нейромережі є найзагальнішим типом методики дейтамайнінгу, причому деякі люди навіть вважають, що використання нейромереж є єдиним типом дейтамайнінгу. Продавці нейромережевих програмних продуктів часто використовують багато необґрунтованих рекламних тверджень стосовно можливостей нейромереж. Одним із таких тверджень, яке є особливо сумнівним, є те, що нейромережі можуть компенсувати низьку якість даних.
Нейромережі навчаються створювати взірці безпосередньо з даних за допомогою повторного їх вивчення, щоб ідентифікувати зв’язки і побудувати модель. Вони будують моделі методом проб і помилок. Мережа підбирає значення параметра шляхом зіставлення з фактичною величиною. Якщо приблизна оцінка вихідного параметра неправильна, то модель регулюється. Цей процес включає три ітеративні кроки: передбачення, порівняння і пристосування (або корегування). Нейромережі досить просто застосовуються в СППР з метою класифікування даних і для передбачень. При цьому вхідні дані комбінуються і зважуються, на основі чого генеруються вихідні значення.
Передусім, коли йдеться про нейронні мережі, то частіше маються на увазі штучні нейронні мережі. Деякі з них моделюють біологічні нейронні мережі, а деякі — ні. Однак історично склалося так, що перші штучні нейронні мережі були створені внаслідок спроб створити комп’ютерну модель, що відтворює діяльність мозку в спрощеній формі. Звичайно, можливості людського мозку незмірно більші, ніж можливості самої потужної штучної нейронної мережі.
Сучасні нейромережі мають низку властивостей, характерних для біологічних нейромереж, у тому числі й людського мозку. Головна їх властивість — здібність до навчання. Для розв’язання якої-небудь задачі на комп’ютері традиційним методом необхідно знати правила (математичні формули), за якими зі вхідних даних можна отримати вихідні, тобто знайти розв’язок задачі. А за допомогою нейромережі можна знайти розв’язок, не знаючи правил, а маючи лише кілька прикладів.
Нейромережі використовують підхід до розв’язання задач ближчий до людського, ніж традиційні обчислення. Дійсно, наприклад, коли людина переходить вулицю, вона оцінює швидкість руху автомобіля, виходячи з попереднього досвіду, не використовуючи математичних обчислень. Або, наприклад, як дитина без великих зусиль може відрізнити кішку від собаки, або дівчинку від хлопчика, ґрунтуючись на раніше бачених прикладах. При цьому часто вона не може точно сказати, за якими ознаками вона їх відрізняє, тобто дитина не знає чіткого алгоритму.
Інша важлива властивість нейромереж — здатність знаходити розв’язки, ґрунтуючись на змішаних, загальних, спотворених і навіть суперечливих даних. Ще одна чудова властивість — це стійкість до відмов у функціонуванні. У разі виходу з ладу частини нейронів, уся мережа загалом залишається працездатною, хоча, звичайно, точність обчислень знижується.

9.4.2. Застосування нейронних мереж

Поява і широке застосування останнім часом нейромереж і нейрокомп’ютерів зумовлено низкою важливих підстав. По-перше, дуже багато задач з інформатики та економіки не мож­на розв’язати класичними методами теорії управління, оптимі-
зації і системного аналізу. Річ у тім, що будь-який проектувальник складних систем має справу з тим самим комплексом проб­лем, що погано піддаються розв’язанню традиційними методами. Неповнота знань про зовнішній світ, неминуча погрішність даних, які надходять, непередбачуваність реальних ситуацій — усе це змушує розробників мріяти про адаптивні інтелектуальні системи, які здатні підстроюватися до змін у «правилах гри» і самостійно орієнтуватися за складних умов.
По-друге, «прокляття розмірності» стає реальним стримуючим чинником за розв’язання багатьох (якщо не більшості) серйозних задач. Проектувальник не в змозі врахувати і звести в загальну систему рівнянь всю сукупність зовнішніх умов, особливо за наявності безлічі активних протидій. Тому самостійна адаптація системи в процесі динамічного моделювання «умов, наближених до бойових» — чи не єдиний спосіб розв’язування задач за таких обставин.
Нейромережі (нейрокомп’ютери) забезпечують користувачів надзвичайно гнучким і в певному розумінні універсальним аналітичним інструментарієм. Вони дають змогу розв’язувати досить різні типи задач. Охарактеризуємо деякі з них.
Класифікація образів. Завдання полягає у визначенні належності вхідного образу (наприклад, мовного сигналу або рукописного символа), поданого вектором ознак, одному або кільком заздалегідь визначеним типам. До відомих додатків відносяться розпізнавання букв, розпізнавання мови, класифікація сигналу електрокардіограми, класифікація клітин крові тощо.
Кластеризація/категоризація. За розв’язання завдання з кластери­зації, яке відоме також як класифікація образів «без учителя», відсутня навчальна вибірка з мітками типів. Алгоритм кластеризації ґрун­тується на подібності образів і розміщує схожі образи в один клас­тер. Відомі випадки застосування кластеризації для добування знань, стиснення даних і дослідження їх властивостей.
Апроксимація функцій. Допустимо, що є навчальна вибірка (х1, у1), (х2, у2) .., (хn, уn) (пари відповідних даних входу-виходу), яка генерується невідомою функцією F(х), спотвореною шумом. Завдання апроксимації полягає в знаходженні оцінки невідомої функції F(х). Апроксимація функцій необхідна за розв’язання численних інженерних і наукових завдань з моделювання.
Передбачення/прогнозування. Нехай задані n дискретних значень {у(tl), у(t2)..., у(tn)} у послідовні моменти часу tl, t2,..., tn. Завдання полягає в прогнозуванні значення у (tn + 1) в деякий майбутній момент часу tn + 1. Передбачення мають значний вплив на прийняття рішень у бізнесі, науці і техніці. Прогноз цін на фондовій біржі і прогноз погоди є типовими додатками методів передбачення/прогнозування.
Оптимізація. Численні проблеми в економіці та інших наукових галузях можуть розглядатися як проблеми оптимізації. Завданням алгоритму оптимізації є знаходження такого розв’язку, який задовольняє систему обмежень і максимізує або мінімізує цільову функцію.
Контекстно-адресована пам’ять. У моделі обчислень фон Неймана, що послужила базисом традиційної обчислювальної техніки, звернення до пам’яті було можливим тільки за допомогою адреси комірки пам’яті, яка не залежить від її змісту. Більше того, якщо допущена помилка в адресі, то може бути знайдена абсолютно інша інформація. Контекстно-адресована (асоціативна) пам’ять або пам’ять, що адресується за змістом, доступна за вказівкою заданого змісту. Асоціативна пам’ять надзвичайно бажана за створення мультимедійних інформаційних баз даних.
Управління. Розглянемо динамічну систему, задану сукупністю {u(t), у(t)}, де u(t) є вхідним керуючим впливом, а у(t) — виходом системи в момент часу t. У системах управління з еталонною моделлю мети управління є можливість розрахунку такої величини вхідного впливу u(t), при якій система рухається за бажаною траєкторією, що визначається еталонною моделлю.
У принципі, нейронні мережі можуть обчислювати значення будь-яких функцій, інакше кажучи, виконувати все, що можуть робити традиційні комп’ютери. На практиці для того, щоб застосування нейронної мережі було доцільним, необхідно, щоб задача мала такі ознаки: невідомий алгоритм або принципи розв’язання задачі, але накопичена достатня кількість прикладів; проблема характеризується великими обсягами вхідної інформації; дані неповні або надмірні, містять шуми, частково суперечливі.
Отже, нейронні мережі добре підходять для розпізнавання образів і розв’язання задач з класифікації, оптимізації і прогнозування. Нижче наведений перелік можливих застосувань нейронних мереж у промисловості, на базі яких або вже створені комерційні продукти, або реалізовані демонстраційні прототипи.
Банки і страхові компанії: автоматичне зчитування чеків і фінансових документів; перевірка достовірності підписів; оцінювання ризику для позик; прогнозування змін економічних показників.
Адміністративне обслуговування: автоматичне зчитування до­кументів; автоматичне розпізнавання штрихових кодів.
Нафтова і хімічна промисловість: аналізування геологічної інформації; ідентифікація зіпсувань обладнання; розвідування покладів мінералів за даними аерофотознімків; аналіз складу домішок; управління процесами.
Військова промисловість і аеронавтика: оброблення звукових сигналів (поділ, ідентифікація, локалізація, усунення шуму, інтерпретація); оброблення радарних сигналів (розпізнавання цілей, ідентифікація і локалізація джерел); оброблення інфрачервоних сигналів (локалізація); узагальнення інформації; автоматичне пілотування.
Промислове виробництво: керування маніпуляторами; управління якістю; управління процесами; виявлення зіпсувань; адаптивна робототехніка; керування голосом.
Служба безпеки: розпізнавання осіб, голосів, відбитків пальців.
Біомедична промисловість: аналіз рентгенограм; виявлення відхилень в електрокардіограмах.
Телебачення і зв’язок: адаптивне управління мережею зв’язку; стиснення і відновлення зображень.
Можна продовжувати наведення прикладів вдалого використання технологій нейронних мереж. Проте є низка недоліків, по­в’язаних із застосуванням для розв’язання задач з ідентифікації взірців інформації. Головним із них є те, що для навчання нейромережі потрібна велика кількість фактичної інформації (кількість спостережень від 50 до 100). Для аналітичних задач у бізнесі це не завжди можна забезпечити. Крім цього, неявне навчання призводить до того, що структура зв’язків між нейронами стає «незрозумілою» — не існує іншого способу її прочитати, крім як запустити функціонування мережі. Стає складно відповісти на запитання: «Як нейронна мережа отримує результат?» — тобто побудувати зрозумілу людині логічну конструкцію, що відтворює дії мережі. Це явище можна назвати «логічною непрозорістю» нейронних мереж, навчених за неявними правилами. Навіть добре натренована нейромережа являє собою «чорний ящик», тобто систему, в якій зовнішньому спостерігачеві доступні лише вхідні та вихідні величини, а внутрішня будова її та процеси, що в ній перебігають, невідомі.

Страницы [ 1 ] [ 2 ] [ 3 ] [ 4 ] [ 5 ] [ 6 ] [ 7 ] [ 8 ] [ 9 ] [ 10 ] [ 11 ] [ 12 ] [ 13 ] [ 14 ] [ 15 ]
[ 16 ] [ 17 ] [ 18 ] [ 19 ] [ 20 ] [ 21 ] [ 22 ] [ 23 ] [ 24 ] [ 25 ] [ 26 ] [ 27 ] [ 28 ] [ 29 ] [ 30 ] [ 31 ] [ 32 ]
[ 33 ] [ 34 ] [ 35 ] [ 36 ] [ 37 ] [ 38 ] [ 39 ] [ 40 ] [ 41 ] [ 42 ] [ 43 ] [ 44 ] [ 45 ] [ 46 ] [ 47 ] [ 48 ] [ 49 ] [ 50 ]


ВНИМАНИЕ! Содержимое сайта предназначено исключительно для ознакомления, без целей коммерческого использования. Все права принадлежат их законным правообладателям. Любое использование возможно лишь с согласия законных правообладателей. Администрация сайта не несет ответственности за возможный вред и/или убытки, возникшие или полученные в связи с использованием содержимого сайта.
© 2007-2019 BPK Group.