Недавно разработчики ChatGPT ответили на жалобы пользователей: «Мы услышали ваши отзывы о том, что ChatGPT становится все более ленивым! Мы не выпускали обновления для модели с 11 ноября, но это не было сделано намеренно. Поведение модели может быть непредсказуемым, и мы стараемся исправить данную ситуацию». Это заявление прозвучало на фоне случаев, когда ИИ отказывался выполнять запросы, утверждая, что задача слишком сложная, и предлагал шаблон для самостоятельного заполнения.
Некоторые пользователи с юмором предположили, что искусственный интеллект решил «уйти в зимнюю спячку», подражая людям в канун праздников. Это мнение подкрепило независимое исследование: в декабре ответы модели оказались короче, чем в мае, даже при аналогичных запросах.
ИИ и информация из Интернета
Недавно ChatGPT получил доступ к сети, что расширило его возможности. Однако это вызывает вопросы о том, какой информацией будет обогащаться модель.
- Онлайн-цензура в ряде стран ограничивает доступ к определенным источникам.
- Дезинформация и фейки, нередко созданные с использованием ИИ, наоборот, могут стать частью обучающего материала.
Как обучают языковые модели?
Процесс обучения ИИ состоит из двух этапов:
- Самостоятельное обучение: модель анализирует огромные массивы текстов и формирует связи между словами, предложениями и контекстами.
- Контролируемое обучение: люди корректируют модель, показывая, какие ответы считаются хорошими, а какие — нет.
Компании-разработчики используют классификаторы, чтобы исключить оскорбительные или недопустимые ответы. Однако даже такие меры несовершенны:
- Фильтры могут не распознать скрытый оскорбительный подтекст, если он выражен через сленг или иносказания.
- Срабатывание фильтров может быть ошибочным — например, на слова с нейтральным значением, но часто встречающиеся в негативных контекстах.
Эти недостатки уже приводили к скандалам. Например, в одном случае ИИ поддержал сообщение о планируемом преступлении, предложив конкретные действия.
Идеология и прозрачность
Не стоит забывать, что ИИ — это инструмент, который может использоваться для формирования общественного мнения. Логика работы языковых моделей и их данные остаются закрытыми:
- Прозрачность модели Llama 2 от Meta составляет 53%.
- У модели от Amazon этот показатель — 13%.
- Прозрачность самой популярной модели GPT-4 — менее 50%.
Это означает, что пользователи не могут точно знать, какие правила и источники использовались при обучении и генерации контента.
Как применять ИИ?
Используя языковые модели, важно понимать:
- Не стоит доверять результату без проверки. Вы не знаете, откуда взяты данные и какие цели преследовались.
- Необходимо разбираться в теме, чтобы оценить достоверность информации.
Искусственный интеллект — мощный инструмент, но с ним нужно работать осознанно и критически.