Порочен ли искусственный интеллект? Что такое хорошо и что такое плохо?

Недавно разработчики ChatGPT ответили на жалобы пользователей: «Мы услышали ваши отзывы о том, что ChatGPT становится все более ленивым! Мы не выпускали обновления для модели с 11 ноября, но это не было сделано намеренно. Поведение модели может быть непредсказуемым, и мы стараемся исправить данную ситуацию». Это заявление прозвучало на фоне случаев, когда ИИ отказывался выполнять запросы, утверждая, что задача слишком сложная, и предлагал шаблон для самостоятельного заполнения.

Некоторые пользователи с юмором предположили, что искусственный интеллект решил «уйти в зимнюю спячку», подражая людям в канун праздников. Это мнение подкрепило независимое исследование: в декабре ответы модели оказались короче, чем в мае, даже при аналогичных запросах.

ИИ и информация из Интернета

Недавно ChatGPT получил доступ к сети, что расширило его возможности. Однако это вызывает вопросы о том, какой информацией будет обогащаться модель.

  • Онлайн-цензура в ряде стран ограничивает доступ к определенным источникам.
  • Дезинформация и фейки, нередко созданные с использованием ИИ, наоборот, могут стать частью обучающего материала.

Как обучают языковые модели?

Процесс обучения ИИ состоит из двух этапов:

  1. Самостоятельное обучение: модель анализирует огромные массивы текстов и формирует связи между словами, предложениями и контекстами.
  2. Контролируемое обучение: люди корректируют модель, показывая, какие ответы считаются хорошими, а какие — нет.

Компании-разработчики используют классификаторы, чтобы исключить оскорбительные или недопустимые ответы. Однако даже такие меры несовершенны:

  • Фильтры могут не распознать скрытый оскорбительный подтекст, если он выражен через сленг или иносказания.
  • Срабатывание фильтров может быть ошибочным — например, на слова с нейтральным значением, но часто встречающиеся в негативных контекстах.

Эти недостатки уже приводили к скандалам. Например, в одном случае ИИ поддержал сообщение о планируемом преступлении, предложив конкретные действия.

Идеология и прозрачность

Не стоит забывать, что ИИ — это инструмент, который может использоваться для формирования общественного мнения. Логика работы языковых моделей и их данные остаются закрытыми:

  • Прозрачность модели Llama 2 от Meta составляет 53%.
  • У модели от Amazon этот показатель — 13%.
  • Прозрачность самой популярной модели GPT-4 — менее 50%.

Это означает, что пользователи не могут точно знать, какие правила и источники использовались при обучении и генерации контента.

Как применять ИИ?

Используя языковые модели, важно понимать:

  • Не стоит доверять результату без проверки. Вы не знаете, откуда взяты данные и какие цели преследовались.
  • Необходимо разбираться в теме, чтобы оценить достоверность информации.

Искусственный интеллект — мощный инструмент, но с ним нужно работать осознанно и критически.

Оставьте комментарий