Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Підсумок. Ми істотно скоротили число предикторів, тепер можна побудувати декілька регресійних моделей та по передбаченому відгуку порівняти їх якість.




Лабораторна робота №5_1

 

Тема: Пониження розмірності у фінансовому аналізі

 

Є дані показників фінансового стану підприємства, потрібно визначити, які чинники значуще впливають на загальний показник фінансового стану підприємства, а які можна виключити.

 

Структура даних:

 

Рис. 1.1. Фрагмент початкового файлу даних

 

В даних є залежна змінна Y (F46) і декілька десятків незалежних змінних (предикторів) (рис.1.2). Залежна змінна Y є безперервною і характеризує загальний показник фінансового стану; до незалежних змінних відносяться показники фінансового стану підприємства (коефіцієнт абсолютної ліквідності, коефіцієнт дебіторської заборгованості, коефіцієнт фінансової стабільності та інші).

Дані носять модельний характер. Це типові дані, що виникають в фінансовому аналізі; завдання полягає в тому, щоб по значенню предикторів передбачити значення відгуку.

Відзначимо, в даному завданні є велике число предикторів (близько 50), тому спочатку потрібно знизити розмірність, тобто зменшити кількість незалежних змінних і на їх основі побудувати передбачаючу модель.

Побудова моделі

Застосуємо методи пониження розмірності, що доступні в нейроних мережах Statistica.

Крок 1. Запускаємо модуль Нейронні мережі STATISTICA. Стартове вікно показане на рис. 1.2.

 

 

Рис. 1.2. Стартове вікно модуля Нейронні мережі, вкладка Швидкий

 

У стартовому вікні вибираємо тип завдання: Регресія (залежна змінна безперервна).

Далі вкажемо змінні для аналізу. Для цього в стартовому вікні модуля, на вкладці Швидкий, натискаємо кнопку Змінні. У діалоговому вікні (рис. 1.3), що з'явилося, вибираємо змінні. У даному прикладі є вихідна (залежна) змінна і 46 вхідних змінних.

У лівому вікні вибираємо безперервну вихідну змінну – це змінна Y з номером F46.

 

Рис. 1.3. Діалогове вікно завдання змінних

 

Задамо вхідні змінні - це незалежні змінні, які передбачають відгук. У нашому прикладі є тільки одна категоріальна вхідна змінна - category, інші - безперервні. Після вибору змінних натискаємо ОК.

У стартовому вікні переходимо на вкладку Додатково і вибираємо інструмент Пониження розмірності (рис. 1.4).

 

Рис. 1.4. Стартове вікно модуля Нейроні мережі, вкладка Додатково

 

Крок 2. На екрані з'являється діалогове вікно Пониження розмірності. Доступні наступні методи: послідовний з включенням, послідовний з виключенням, генетичний алгоритм відбору ознак.

Спочатку отримаємо результати за допомогою алгоритму з включенням. Для цього на вкладці Швидкий вибираємо алгоритм Послідовний з включенням і натискаємо кнопку ОК (рис. 1.5).

 

Рис. 1.5. Вікно завдання параметрів для алгоритмів зниження розмірності

Рис. 1.6. Початкова частина таблиці результатів алгоритму Послідовний з включенням

 

Результат роботи алгоритму представляється в таблиці (рис. 1.6). На першому етапі змінні окремо включаються в модель, знаходиться змінна, яка дає найменшу помилку. Потім модель починає процедуру пошуку другої змінної, яка зменшує значення помилки. І так до тих пір, поки включення нових змінних зменшує помилку. Підсумковий результат записується в останню строчку таблиці (рис. 1.7). Як значущі предиктори виділені всі вхідні змінні окрім F10.

Рис. 1.7. Завершальна частина таблиці результатів алгоритму Послідовний з включенням

 

Крок 3. Тепер аналогічне завдання вирішимо за допомогою алгоритмів з виключенням. Для цього повертаємося до вікна завдання параметрів для алгоритмів зниження розмірності і вибираємо Послідовний з виключенням. Натискаємо ОК і переходимо до аналізу результатів.

Рис. 1.8. Початкова частина таблиці результатів алгоритму Послідовний з виключенням

Програма стартувала з моделі, в яку включені всі предиктори, і на кожному кроці виключала незначущі. Значущі, з погляду моделі з виключенням чинники F1-F14, F16-F37, F39, F40, F42-F45 .

Крок 4. Знову повертаємося до вікна (див. мал. 8.1.5) і вибираємо Генетичний алгоритм. В результаті роботи генетичного алгоритму: виділяються всі предиктори окрім F10, F36, F38

Збільшимо значення штрафу за елемент в 5 разів (до 0,0005) і знову запустимо генетичний алгоритм (зміна параметра Штраф за елемент проводиться у вкладці Додатково). Виділяються наступні чинники: F4, F16, F22, F29, F30, F42. Результати відрізняються, оскільки у кожному випадку будується окрема нейрона мережа, для кожної мережі підганяються коефіцієнти.

Експериментуючи з різними алгоритмами і штрафами за елемент можна виділити декілька наборів значущих предикторів. Це робочі моделі, з якими можна працювати далі.

Підсумок. Ми істотно скоротили число предикторів, тепер можна побудувати декілька регресійних моделей та по передбаченому відгуку порівняти їх якість.

Зробимо коментар з приводу вибору штрафів. Штрафи задаються у вкладці Додатково. Параметр, вказаний в полі Штраф за елемент множиться на число вибраних вхідних змінних і додається до контрольної помилки мережі після того, як вона навчена і протестована. Ненульовий штраф за елемент заохочує менші мережі і часто покращує продуктивність мережі.

Якщо параметр дуже великий, число змінних стає важливішим, ніж якість мережі. Це може примусити алгоритм відключити всі входи.

Невелике значення рекомендується, щоб компенсувати шум в процесі вибору спостережень. Типові значення лежать в діапазоні 0,001-0,005.

 

 


Поделиться:

Дата добавления: 2015-09-15; просмотров: 44; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.005 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты