КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Підсумок. Ми істотно скоротили число предикторів, тепер можна побудувати декілька регресійних моделей та по передбаченому відгуку порівняти їх якість. ⇐ ПредыдущаяСтр 2 из 2 Лабораторна робота №5_1
Тема: Пониження розмірності у фінансовому аналізі
Є дані показників фінансового стану підприємства, потрібно визначити, які чинники значуще впливають на загальний показник фінансового стану підприємства, а які можна виключити.
Структура даних:
Рис. 1.1. Фрагмент початкового файлу даних
В даних є залежна змінна Y (F46) і декілька десятків незалежних змінних (предикторів) (рис.1.2). Залежна змінна Y є безперервною і характеризує загальний показник фінансового стану; до незалежних змінних відносяться показники фінансового стану підприємства (коефіцієнт абсолютної ліквідності, коефіцієнт дебіторської заборгованості, коефіцієнт фінансової стабільності та інші). Дані носять модельний характер. Це типові дані, що виникають в фінансовому аналізі; завдання полягає в тому, щоб по значенню предикторів передбачити значення відгуку. Відзначимо, в даному завданні є велике число предикторів (близько 50), тому спочатку потрібно знизити розмірність, тобто зменшити кількість незалежних змінних і на їх основі побудувати передбачаючу модель. Побудова моделі Застосуємо методи пониження розмірності, що доступні в нейроних мережах Statistica. Крок 1. Запускаємо модуль Нейронні мережі STATISTICA. Стартове вікно показане на рис. 1.2.
Рис. 1.2. Стартове вікно модуля Нейронні мережі, вкладка Швидкий
У стартовому вікні вибираємо тип завдання: Регресія (залежна змінна безперервна). Далі вкажемо змінні для аналізу. Для цього в стартовому вікні модуля, на вкладці Швидкий, натискаємо кнопку Змінні. У діалоговому вікні (рис. 1.3), що з'явилося, вибираємо змінні. У даному прикладі є вихідна (залежна) змінна і 46 вхідних змінних. У лівому вікні вибираємо безперервну вихідну змінну – це змінна Y з номером F46.
Рис. 1.3. Діалогове вікно завдання змінних
Задамо вхідні змінні - це незалежні змінні, які передбачають відгук. У нашому прикладі є тільки одна категоріальна вхідна змінна - category, інші - безперервні. Після вибору змінних натискаємо ОК. У стартовому вікні переходимо на вкладку Додатково і вибираємо інструмент Пониження розмірності (рис. 1.4).
Рис. 1.4. Стартове вікно модуля Нейроні мережі, вкладка Додатково
Крок 2. На екрані з'являється діалогове вікно Пониження розмірності. Доступні наступні методи: послідовний з включенням, послідовний з виключенням, генетичний алгоритм відбору ознак. Спочатку отримаємо результати за допомогою алгоритму з включенням. Для цього на вкладці Швидкий вибираємо алгоритм Послідовний з включенням і натискаємо кнопку ОК (рис. 1.5).
Рис. 1.5. Вікно завдання параметрів для алгоритмів зниження розмірності Рис. 1.6. Початкова частина таблиці результатів алгоритму Послідовний з включенням
Результат роботи алгоритму представляється в таблиці (рис. 1.6). На першому етапі змінні окремо включаються в модель, знаходиться змінна, яка дає найменшу помилку. Потім модель починає процедуру пошуку другої змінної, яка зменшує значення помилки. І так до тих пір, поки включення нових змінних зменшує помилку. Підсумковий результат записується в останню строчку таблиці (рис. 1.7). Як значущі предиктори виділені всі вхідні змінні окрім F10. Рис. 1.7. Завершальна частина таблиці результатів алгоритму Послідовний з включенням
Крок 3. Тепер аналогічне завдання вирішимо за допомогою алгоритмів з виключенням. Для цього повертаємося до вікна завдання параметрів для алгоритмів зниження розмірності і вибираємо Послідовний з виключенням. Натискаємо ОК і переходимо до аналізу результатів. Рис. 1.8. Початкова частина таблиці результатів алгоритму Послідовний з виключенням Програма стартувала з моделі, в яку включені всі предиктори, і на кожному кроці виключала незначущі. Значущі, з погляду моделі з виключенням чинники F1-F14, F16-F37, F39, F40, F42-F45 . Крок 4. Знову повертаємося до вікна (див. мал. 8.1.5) і вибираємо Генетичний алгоритм. В результаті роботи генетичного алгоритму: виділяються всі предиктори окрім F10, F36, F38 Збільшимо значення штрафу за елемент в 5 разів (до 0,0005) і знову запустимо генетичний алгоритм (зміна параметра Штраф за елемент проводиться у вкладці Додатково). Виділяються наступні чинники: F4, F16, F22, F29, F30, F42. Результати відрізняються, оскільки у кожному випадку будується окрема нейрона мережа, для кожної мережі підганяються коефіцієнти. Експериментуючи з різними алгоритмами і штрафами за елемент можна виділити декілька наборів значущих предикторів. Це робочі моделі, з якими можна працювати далі. Підсумок. Ми істотно скоротили число предикторів, тепер можна побудувати декілька регресійних моделей та по передбаченому відгуку порівняти їх якість. Зробимо коментар з приводу вибору штрафів. Штрафи задаються у вкладці Додатково. Параметр, вказаний в полі Штраф за елемент множиться на число вибраних вхідних змінних і додається до контрольної помилки мережі після того, як вона навчена і протестована. Ненульовий штраф за елемент заохочує менші мережі і часто покращує продуктивність мережі. Якщо параметр дуже великий, число змінних стає важливішим, ніж якість мережі. Це може примусити алгоритм відключити всі входи. Невелике значення рекомендується, щоб компенсувати шум в процесі вибору спостережень. Типові значення лежать в діапазоні 0,001-0,005.
|