НАВЧАННЯ ІМОВІРНІСНИХ НЕЙРОННИХ МЕРЕЖ НА ПОКЛАСОВІЙ ЕТАЛОННІЙ МАТРИЦІ ТА НА КОНКАТЕНАЦІЇ ЕТАЛОННИХ МАТРИЦЬ

Автор(и)

  • V V Romanuke
  • G A Yegoshyna
  • S M Voronoy

DOI:

https://doi.org/10.33243/2518-7139-2019-1-2-86-97

Анотація

Вивчається можливість оптимізувати імовірнісну нейронну мережу на основі ефективної навчальної множини. Зазвичай навчальний набір даних для імовірнісної нейронної мережі представляє собою матрицю, чиї стовпці репрезентують класи. Якщо кожен клас має лише один стовпець, ця матриця називається покласовою еталонною матрицею. Однак проста архітектура імовірнісної нейронної мережі не означає, що кожен клас має бути представлений одним еталоном. По-перше, діапазон значень ознаки класу може бути занадто широким. Тоді бажано розбити його на піддіапазони, кожен з яких дасть своє середнє, і таким чином буде сформовано декілька еталонів для даного класу. По-друге, ознака класу може мати скінченну кількість значень, де кожне значення має однакову значимість. Тоді було б некоректно обчислювати середнє і використовувати його у відповідному покласовому еталоні. Тому вивчається, чи доцільною буде конкатенація еталонних матриць у довгу еталонну матрицю. Фактично метою дослідження є встановлення того, чи є ефективною побудова імовірнісних нейронних мереж на довгих еталонних матрицях. Критерієм ефективності є продуктивність імовірнісної нейронної мережі, тобто її точність або відсоток помилок. Для досягнення цієї мети продуктивність імовірнісної нейронної мережі оцінюється на випадку, коли клас описується декількома еталонами. Далі імовірнісні нейронні мережі тестуються для двох підвипадків: коли об’єкти, що подаються на вхід, генеруються за різних класових еталонів, і коли об’єкти генеруються за узагальненого покласового еталону. Зрештою, встановлюється, що навчання імовірнісних нейронних мереж на покласовій еталонній матриці (отриманій або на основі усереднення за наявними еталонними матрицями або просто за використання одного еталону для кожного класу) є більш ефективним, коли об’єкти для класифікації не наслідують жодних числових властивостей класових еталонів. І навпаки, коли об’єкти для класифікації можуть мати деякі виразні числові властивості кількох класових еталонів, тоді навчання імовірнісних нейронних мереж на довгих еталонних матрицях є більш ефективним, забезпечуючи значно вищу точність. Метод гладкого навчання в удосконаленні продуктивності виявляється неефективним.

##submission.downloads##

Номер

Розділ

Радіотехніка і телекомунікації