Исследование, проведённое научным журналом Nature, показало, что по мере выпуска новых моделей чат-боты на базе искусственного интеллекта совершают всё больше ошибок.
По словам одного из экспертов Лексин Чжоу, сервисы ИИ оптимизированы под правдоподобные ответы, которые могут быть не всегда точными. Постепенно эти ошибки накапливаются, так как для обучения новых чат-ботов используются старые модели. Это и приводит к «краху» и падению интереса к нейросетям.
Одна из комичных ситуаций сложилась с платформой ИИ от Google, который в начале 2024 года начал создавать исторически неточные изображения. Например, нейросеть выдавала изображения азиатов и негров в форме нацистских офицеров.
Компании-разработчики чат-ботов ищут возможности справиться с этими ошибками. В частности, генеральный директор Nvidia Дженсен Хуанг предложил заставлять нейросети проводить более точные исследования и предоставлять источники для каждого сгенерированного ответа. Некоторые модели уже используют эти меры, но ситуация с галлюцинациями не улучшилась.
В сентябре гендиректор HyperWrite Мэтт Шумер заявил, что новая нейросеть компании использует функцию «настройка отображения», которая даёт возможность ИИ-боту учиться, анализируя собственные ошибки, корректируя их со временем.
Обсуждение криптовалют, политики и технологий, видео и мемы в нашем Telegram-канале. Подпишись!