Что-то пошло не так…

После года ажиотажа вокруг искусственного интеллекта все чаще появляются новости о проблемах, связанных с его использованием. Так, новая версия нейросети Stable Diffusion 3 сразу после выпуска подверглась критике из-за генерации изображений монстров вместо людей.

Компания McDonald’s прекратила пилотный проект по внедрению ИИ в систему заказов из-за множества ошибок, включая добавление бекона в мороженое или случайное увеличение количества напитков в заказе.

Нейросеть Google Gemini также стала причиной громких обсуждений. Она рекомендовала использовать для заправки салатов обычные продукты, из которых в итоге получился токсичный биотоксин. В других случаях нейросеть советовала ежедневно употреблять в пищу маленькие камни, называя их источником минералов, и добавлять клей в начинку для пиццы.

В чем причины таких ошибок?

Существует несколько системных проблем, которые начинают проявляться при внедрении технологий:

1. Невозможность различать правдивую информацию и популярные данные. Например, рекомендация о камнях основана на сатирической статье, ставшей вирусной.

2. Отсутствие человеческих ценностей у ИИ. Учитывая изменения ценностей в современном мире и разнородность обучающих данных, предсказать результат обучения нейросети становится сложно.

3. Дефицит качественной информации. Легально доступных данных для обучения становится все меньше, что приводит к зависимости нейросетей от данных, создаваемых самими пользователями. Например, компания Meta (запрещена в РФ) меняет пользовательское соглашение, чтобы использовать загруженные фотографии и тексты для обучения своих алгоритмов.

4. Проблема синтетических данных. Новые модели обучаются на данных, созданных предыдущими поколениями нейросетей, что сравнимо с генетической деградацией. Это может привести к ухудшению качества информации, генерируемой ИИ.

Учитывая, что поисковые системы активно внедряют ИИ, вопрос качества и достоверности информации становится критически важным. Ведь ошибки нейросетей уже сейчас могут иметь серьезные последствия.

Оставьте комментарий