Tulup.ru - Клуб любителей фигурного катания

Искусственный интеллект

Автор
Сообщение
bregalad
Сообщений: 11520
Москва
20.05.2023, 01:38
Классическое машинное обучение
Я по-прежнему не верю в возможности искусственного интеллекта в области обработки текстов. Могу сказать, что где-то в середине 80-х мой знакомый с мехмата написал программу, генерирующие случайные стихи — бессмысленные, но составленные по всем правилам русского языка. Это напоминало калейдоскоп — встряхиваешь его и получаешь очередной прекрасный рисунок. Как "Сонет" Гребенщикова:

 Таинственный бокал похож на крюк
 Вокруг него рассыпаны алмазы
 Не целовался я с тобой ни разу
 Мой омерзительный, безногий друг


Но, скорее, это человеческое воображение способно приписать смысл любому тексту, написанному без ошибок — пусть и бессмысленному изначально. (Мой омерзительный безногий друг — бюст В.И.Ленина.) Как рисунки в пейзажных агатах.

Мне, кстати, в магистратуре мехмата МГУ пришлось вести курс по классическому машинному обучению (всё, что было до нейросетей). Это совсем не моя тематика, поэтому новая для меня, и, надо сказать, от некоторых алгоритмов я был в полном восторге (век живи, век учись) — например, ядровый метод опорных векторов. Теорему Куна-Таккера, на которой он основан, мы проходили в курсе функционального анализа (или оптимального управления) на мехмате где-то в конце 70-х годов, и вот уж я никак не ожидал, что она мне понадобится через 40 лет! (Теперь ее называют теоремой Карруша-Куна-Таккера.) Можно почитать про всё это на моей страничке. Пришлось написать много программ на Питоне для графических иллюстраций разных методов. Самое последнее: рассказ про решающие деревья (цель всего был градиентный бустинг, один из самых сильных классических методов машинного обучения наряду с ядровым методом опорных векторов), вот разные забавные картинки оттуда:

Построение классификатора на основе решающего дерева

Исходные объекты (обучающая база данных):

После классификации (максимальная глубина дерева 4):

И прогноз для произвольных объектов:

(Исходный код основной программы на Питоне decisionTrees.py, архив всех необходимых файлов decisionTrees.zip)

В задаче регрессии с применением решающих деревьев довольно забавным получается представление изображения с помощью решающего дерева. Вот исходная картинка, здание МГУ:

Применение решающего дерева глубины 10 в задаче регрессии дает вот такую картинку:

Дерево глубины 15:

Дерево глубины 20 дает уже почти что исходное изображение:

Исходный код программы на Питоне: imageRegrTrees.py
(Деревья очень легко переобучаются, но в данном примере это неважно, потому что нам не надо строить математическую модель, способную предсказывать. Но в градиентном бустинге такие глубокие деревья не используются, поскольку они переобучаются, там используется ансамбль деревьев небольшой глубины, зато деревьев много — по умолчанию до 100, каждое следующее дерево исправляет ошибки ансамбля предыдущих деревьев.)
Вход


Имя
Пароль
 
Поиск по сайту
Найти пользователя
Найти

© Tulup 2005–2024
Время подготовки страницы: 0.021 сек.