Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Мелони на встрече с Трампом призвала сделать Запад снова великим
Спорт
Овечкин забил 897-ю шайбу и обновил рекорд НХЛ
Мир
Южная Корея провела масштабные ночные учения на границе с КНДР
Мир
Армия США уничтожила принадлежащий хуситам порт Рас-Иса
Армия
Силы ПВО уничтожили 56 БПЛА ВСУ над российскими регионами за ночь
Мир
В Госдепе опровергли отказ России от предложения США по Украине
Спорт
Российский хоккеист Кучеров стал трехкратным обладателем «Арт Росс Трофи»
Общество
В ГД предложили сделать день после Пасхи выходным
Здоровье
В России врачи спасли зрение ребенку с редким течением тяжелого заболевания
Мир
Рубио сообщил Лаврову о желании Трампа завершения конфликта на Украине
Мир
NYP узнала о безуспешных попытках Байдена дать выступление стоимостью $300 тыс.
Мир
В Италии указали на угрозу от торговых пошлин Трампа
Мир
СМИ уличили власти Польши в сокрытии информации о взрыве в Варшаве
Мир
В раде назвали аферой намерение Украины купить реакторы для АЭС у Болгарии
Общество
Хранившего оружие и крупную партию наркотиков мужчину задержали в ДНР
Мир
Глава МАГАТЭ призвал к сдержанности после атаки ВСУ на Запорожскую АЭС
Мир
В США в результате ДТП с автобусом один человек погиб и еще 21 пострадал

Российские ученые создали новый метод для понимания решений ИИ

0
EN
Фото: ИЗВЕСТИЯ/Павел Волков
Озвучить текст
Выделить главное
Вкл
Выкл

Ученые из лаборатории исследований искусственного интеллекта (ИИ) T-Bank AI Research разработали метод, который позволяет определить, в какой момент ИИ начинает давать неправильные или нежелательные ответы, и скорректировать их.

Как рассказали в «Т-Технологиях», результаты исследования доступны в открытых источниках. Также их огласят на международной конференции по обучению представлениям (ICRL), которая пройдет в Сингапуре с 24 по 28 апреля.

«Наша задача не только сделать модели лучше, но и понять, как они работают изнутри. Представьте умного голосового помощника, который рекомендует фильмы. И вдруг он начинает выдавать недостоверную или даже грубую информацию. Сейчас изменить его поведение – сложная задача, ведь существующие методы не дают нам четкого понимания, где именно возникла проблема. Наши исследования в области интерпретируемости ИИ направлены на то, чтобы такие сбои можно было заметить и быстро исправить их без дорогостоящего переобучения модели», — рассказал Никита Балаганский, руководитель научной группы LLM Foundations, T-Bank AI Research.

Метод SAE Match направлен на то, чтобы сделать работу ИИ более прозрачной и понятной: человек сможет отслеживать, как модель обрабатывает информацию и почему она принимает те или иные решения. Это позволяет, в частности, контролировать процесс генерации текста, а не просто накладывать внешние ограничения или обучать модель на новых данных, что требует больших вычислительных ресурсов.

Ученые считают, что данное научное открытие сыграет важную роль при внедрении ИИ в критически важные сферы, такие как медицина, финансы и безопасность.

Читайте также
Прямой эфир