YMAG.media

Антон Черкасов-Нисман — о том, что даже самые совершенные ИИ-помощники — прекрасный инструмент в умелых руках и опасный — в неумелых

Антон Черкасов-Нисман — яхтенный журналист

Минуло почти три года с тех пор, как я впервые попробовал использовать большие языковые модели (LLM) для выполнения несложной прикладной задачи по яхтенной теме. Сделал я это по просьбе приятеля и помню, что с большим удовлетворением доложил ему о результате: модель с треском провалилась, выдав абсолютно противоречащий реальности ответ. Садясь писать этот текст, я снова задал одному из самых умных ИИ-ассистентов похожий вопрос об интегрированных в композитный корпус фотоэлектрических панелях и получил дивный по красоте завуалированной лжи пассаж.

Нет, я не собираюсь ругать LLM. Сталкиваясь с ними ежедневно, я вижу, что они объективно поумнели, стали полезнее и — не побоюсь сказать — человечнее. Прекрасный инструмент в умелых руках. А в неумелых — опасный. 

«Да ладно! — возразит читатель. — Чего там опасного?» Опасна ситуация, когда искусно вплетенные в ткань ответа галлюцинации модели встречаются с отсутствием или недостаточным напряжением критического мышления у пользователя. Я с ужасом наблюдаю, как довольно умные люди из моего окружения с каждым днем все больше доверяют нейросетям, в том числе в вопросах, связанных с выживанием. Например, когда спрашивают их про нюансы погружений в техническом дайвинге. В итоге происходит классическая нормализация отклонений: сначала пользователи прощают ИИ-помощникам небольшую порцию безобидного вранья на фоне в целом правдивого ответа, а потом в какой-то момент перестают замечать перемены в соотношении этих составляющих. Один такой ответ вряд ли существенно навредит, но вот когда подобная «мягкая» дезинформация приобретает системные очертания, сами по себе некритичные ошибки однажды могут сложиться в опасную матрицу. Поэтому мой совет: если используете LLM для серьезных задач, а не просто болтаете с ней от нечего делать, заставляйте себя проверять предложенные вам факты. Причем проверять, выискивая подтверждение в авторитетных источниках, а не опираясь исключительно на когнитивные схемы, которые подкидывает мозг в рамках здравого смысла. Чем выше цена ошибки, тем тщательнее должна быть проверка.

Другой побочный эффект ИИ-помощников связан с тем, что, поручая им думать за себя, мы довольно быстро разучиваемся работать с объемной и сложной информацией. Нет, не глупеем, а просто теряем навык, меняя его на время. Цену этого обмена каждый определяет для себя сам, но помните: что не используется, то редуцируется.

Не стоит воспринимать эти предостережения как намек на то, чтобы записаться в луддиты. Элэлэмки — действительно мощный и полезный инструмент, с которым просто нужно научиться обращаться. Особенно хороши они для накидывания различных идей, будь то возможные причины поломки бортового генератора, варианты маршрутов выходного дня или имя для новой яхты. Порой бывает так, что даже самые дурацкие их рекомендации помогают скинуть шоры и повернуть собственные мысли в другом, неочевидном направлении.

И последнее: в общении с LLM железно работает простое правило, которому учат со школьной скамьи. Грамотно сформулированный вопрос позволит получить наиболее точный ответ. Умение правильно спросить может значительно повысить осведомленность и помочь в нештатных стрессовых ситуациях, когда особо нет времени на размышления и нужно действовать. Разумеется, этот инструмент не отменяет, а лишь дополняет качественное обучение и постоянную морскую практику. Теперь, когда вы знаете, на что обращать внимание, не поленитесь найти время и потренироваться получать от искусственного интеллекта то, что вам нужно. 

Похожие статьи