Перейти к основному содержанию
Реклама
Прямой эфир
Мир
В МИДе заявили об отсутствии готовности ЕС восстановить диалог с РФ
Мир
WSJ сообщила о возможности Уиткоффа снова посетить Россию
Мир
Папа римский Франциск умер в возрасте 88 лет
Мир
Путин подписал закон о ратификации договора о стратегическом партнерстве с Ираном
Общество
Путин отметил способность россиян преодолеть любые угрозы
Армия
ВСУ 4,9 тыс. раз нарушили режим пасхального перемирия
Общество
Жителя Крыма задержали за передачу спецслужбам Украины данных о военных объектах
Армия
Путин сообщил о возобновлении боевых действий после пасхального перемирия
Мир
Султан Омана прибыл в Россию с официальным визитом
Мир
В Кремле позитивно оценили позицию США о невозможности вступления Украины в НАТО
Мир
В Одессе трое мужчин выдавали себя за военкомов с целью похищения людей
Мир
Захарова заявила о неумении Запада конкурировать в торговле на основе права
Мир
Келлог заявил об усталости США от конфликта на Украине
Армия
ВСУ после окончания перемирия потеряли до 50 человек на курском направлении
Спорт
Гол Свечникова помог «Каролине Харрикейнз» начать с победы плей-офф НХЛ
Политика
Военный эксперт назвал нонсенсом возможное разоружение ФРГ армии ради Киева
Мир
В Харьковской области военные ВСУ въехали на детскую площадку и устроили драку

Нобелевский советский след

Математик Константин Воронцов — об истории исследований в области искусственных нейросетей и машинного обучения
0
Озвучить текст
Выделить главное
Вкл
Выкл

8 октября 2024 года Нобелевская премия по физике была присвоена Джону Хопфилду и Джеффри Хинтону за открытия и изобретения в области искусственных нейронных сетей для машинного обучения. Сам этот факт означает признание не только заслуг этих двух ученых, но и той роли, которую технологии ИИ играют сегодня во всех сферах науки, индустрии и жизни людей. Включая также и физику, где редкий эксперимент обходится без машинного обучения, а нейросети всё чаще применяются для построения сложных математических моделей по экспериментальным данным.

Большое видится издалека. Как часто случается с нобелевскими премиями, основные результаты были получены довольно давно, и лишь спустя годы стало ясно, что это крупные прорывы и вехи в развитии технологий искусственного интеллекта.

Биологические нейросети позволяют животным и человеку ориентироваться во внешнем мире, обучаться, запоминать, принимать решения, управлять своим поведением. Мозг человека содержит 86 млрд нейронов и около сотни триллионов синапсов — связей между ними. Каждый из них может пропускать через себя электрический сигнал лучше или хуже, причем эта способность может как изменяться, так и надолго сохраняться. Таким образом, синапсы — это элементарные ячейки памяти в мозге.

Искусственные нейросети строятся по схожим принципам, но на совершенно иной элементной базе, в виде программы на компьютере. Там синапс — это одно число, хранящееся в памяти компьютера. Как обучить искусственную нейросеть делать всё то, что делают сети биологические? Для начала, как заставить сеть запоминать и надежно хранить образы? Много различных образов в одной сети — изображения, тексты, сигналы, ситуации.

Искусственная нейросеть, предложенная Джоном Хопфилдом в 1982 году, реализует ассоциативную память для хранения и распознавания образов. В ее основе лежит математическая модель двумерных магнитных материалов, называемых спиновыми стеклами.

В 1985 году Джеффри Хинтон обобщил сеть Хопфилда, назвав новую продвинутую конструкцию машиной Больцмана. В основе этой сети также лежали идеи статистической физики и принцип минимума энергии. Позже они получили развитие в генеративных нейросетях для создания реалистичных изображений и в диалоговых чат-ботах.

Джеффри Хинтон сделал настолько много для теории и приложений нейронных сетей, что по праву носит титул «крестного отца искусственного интеллекта». Он был одним из немногих, кто не поддавался разочарованиям «зим искусственного интеллекта», и оставался верен идеям нейросетевого подхода.

В 1986 году Хинтон стал одним из соавторов метода обратного распространения ошибок, который по сей день является наиболее эффективным способом обучения нейросетей по большим данным. Тогда «идея носилась в воздухе». Годом ранее такой же метод был независимо описан в двух статьях других авторов. Основа была заложена в теории быстрого аналитического дифференцирования еще в 1970-е годы. Профессор МФТИ Александр Галушкин описал процедуру быстрого вычисления градиентов для обучения многослойных нейронных сетей в 1974 году.

В 2012-м Хинтон с двумя своими аспирантами Алексом Крижевски и Ильей Суцкевером опубликовали работу про сверточную AlexNet, она стала прорывом в области компьютерного зрения. Эта работа задала тренды в обучении глубоких нейросетей, которые остаются определяющими и сейчас. Кстати, Илья Суцкевер родился в советском городе Горьком в семье инженера Ефима Суцкевера, но, когда ему было пять лет, переехал с семьей в Израиль. Алекс Крижевски также родился в СССР, на Украине, но вырос и получил образование уже в Канаде.

Сам термин «глубокое обучение» вошел в обиход после публикации Джеффри Хинтона и Руслана Салахутдинова в середине 2000-х годов. При этом общепризнано, что первую глубокую нейросеть построили и описали в своей статье 1965 года Алексей Ивахненко и Валентин Лапа из Института кибернетики АН УССР в Киеве. В последующие десятилетия научная школа Ивахненко развивала метод группового учета аргументов (МГУА), который находил сотни применений в советском народном хозяйстве — от прогнозирования стока паводковых вод до управления технологическими процессами. Важнейший принцип МГУА заключается в комбинаторном переборе огромного числа вариантов структуры модели. Сегодня эти идеи всё чаще находят применение при построении глубоких нейросетей.

Почему они должны быть такими и почему прозорливость Хинтона и его непоколебимая вера в эту научную гипотезу достойны восхищения? Потому что долгое время считалось, что двух слоев достаточно для решения любой задачи приближения функций. Это было доказано многими математиками, в различных вариантах, еще в 1960-е и даже ранее. Андрей Колмогоров и Владимир Арнольд доказали это в работах 1956-го и 1957 годов, закрыв тринадцатую проблему Гильберта.

В конце 1960-х Владимир Вапник и Алексей Червоненкис заложили основы теории статистического обучения как математической основы всего машинного обучения. В 1963-м Вапник и Александр Лернер предложили метод обобщенного портрета, переименованный после небольших модификаций в машину опорных векторов (1992). Знаменитый на весь мир SVM, самый эффективный способ обучения двухслойных нейронных сетей, имевший изящное теоретическое обоснование в теории статистического обучения. Называвшийся убийцей нейронных сетей на протяжении долгих лет «зимы искусственного интеллекта»…

И всё же нет! Одно важное обстоятельство поддерживала веру в идею: глубина биологических нейронных сетей в головном мозге человека, согласно нейрофизиологическим оценкам, составляет от 15 до 30 слоев. Ведь зачем-то природе это нужно.

Сегодня мы обучаем глубокие нейросети из сотен слоев для компьютерного зрения, распознавания и синтеза речи, управления роботами, генерации изображений и текстов на естественном языке. Они имеют десятки и сотни слоев. Самые большие сети пока имеют на два-три порядка меньше синапсов, чем в мозге человека. Но уже способны решать многие задачи не хуже людей.

В мае 2023 года Джеффри Хинтон публично объявил о своем уходе из Google, где он проработал десять лет, чтобы свободно высказываться о рисках, которые несет человечеству слишком быстрый прогресс в области искусственного интеллекта. Благодаря самостоятельному обучению большие нейросетевые модели языка приобрели эмерджентные способности к коммуникации и решению проблем. «Системы ИИ оказались в состоянии ставить перед собой неожиданные подцели, которые не закладывались разработчиками, — считает нобелевский лауреат. — Нам нужно серьезно подумать о том, как контролировать системы ИИ, способные к самосовершенствованию».

Автор — профессор РАН, завкафедрой машинного обучения и цифровой гуманитаристики МФТИ, руководитель лаборатории машинного обучения и семантического анализа Института искусственного интеллекта МГУ

Читайте также
Прямой эфир