YMAG.media

Антон Черкасов-Нисман — о только что принятом в Европе первом законе об искусственном интеллекте

Антон Черкасов-Нисман, яхтенный журналист

Часто говорят, что искусственный интеллект (ИИ) — это хайп. Если даже и так, то пройдет он очень нескоро. ИИ уже стремительно «прорастает» в яхтенную индустрию: им пользуются и судовладельцы, и верфи. За примерами далеко ходить не нужно. Взять хотя бы комплекс машинного зрения Sentry от SEA.AI с автоматическим распознаванием объектов на воде или разработанную стартапом Cetasol систему iHelm, которая собирает данные от маршевых двигателей, чтобы моделировать их работу и в реальном времени советовать капитану, как сэкономить топливо. На крупных яхтах ИИ помогает следить за безопасностью цифровой инфраструктуры и прогнозирует неисправности оборудования.

Сами того не замечая, мы начали доверять ИИ «по умолчанию». И если цена его ошибки на офисной задаче, как правило, невелика, то когда речь идет о безопасности, уже хочется каких-то гарантий. Именно для этого в Европе только что приняли закон об искусственном интеллекте (EU AI Act). Он стал первой в своем роде расширенной законодательной базой для ИИ. Работая над его проектом, в ЕС стремились начать регулировать ИИ как продукт. Использующие его системы будут проверять на безопасность и наличие рисков перед допуском на европейский рынок, как это происходит, например, с автомобилями.

В законе системы с ИИ разделили на несколько групп в зависимости от степени риска для здоровья, безопасности и основных прав. Системы с неприемлемым риском (правительственный социальный рейтинг, нецелевой скрейпинг и подобные вещи) запрещены; продукты с минимальным риском или без оного (разного рода ассистенты, модели общего назначения) почти никак не регулируются. Наконец, системы с высоким риском (автоматизированная обработка резюме для составления рейтинга кандидатов, компоненты медицинского оборудования, элементы облачного контроля пожарных сигнализаций и пр.) должны соответствовать ряду требований.

В морской индустрии наиболее распространена именно высокорисковая группа. К разработчикам таких моделей AI Act выдвигает ряд требований: обеспечение управления рисками и контроля качества, понятная документация, прозрачность продукта, защита от киберугроз. Кроме того, обязателен контроль работы ИИ со стороны человека. Также провайдеры должны сообщать обо всех серьезных инцидентах и назначать авторизованных представителей в ЕС, если сами они из других стран. Перед выводом продукта на рынок им следует зарегистрировать его в соответствующей базе и пройти экспертизу соответствия. Требования к системным интеграторам чуть проще. Тем не менее те тоже должны обеспечивать человеческий контроль, отслеживать проблемы и сообщать о них. Контролировать исполнение закона будут национальные компетентные органы и европейский офис ИИ в составе Еврокомиссии.

Необходимость регулировать применение ИИ зрела давно, и теперь разработчикам придется соотносить свои инновации с новыми требованиями. Эксперты отмечают, что плюс AI Act заключается в том, что он направлен не на сами ИИ-технологии, а на то, как их используют в той или иной области.

Есть много примеров того, как регулирование «душит» новаторство, поэтому существуют опасения, что AI Act может стать такой же обузой, как, скажем, Общий регламент защиты персональных данных (GDPR). Последний обернулся для многих компаний творческими ограничениями и дополнительными тратами, однако те, кто увидел в нем окно возможностей, а не глухую стену, преуспели. Чтобы облегчить адаптацию к закону, его будут применять поэтапно. В течение шести месяцев начнут действовать запреты, в течение года заработают механизм управления и правила для моделей ИИ общего назначения. На протяжении трех лет — все остальные правила.

Искусственный интеллект сейчас умнеет чуть ли не быстрее растущего ребенка. При этом оснащаемые им системы значительно усложняются, и с ними связаны новые риски. Когда речь идет об использовании ИИ в море, вдвой­не важно понимать, как он работает в реальном мире, сколько у него власти, чтобы принимать собственные решения, какие у него точки отказа, какое дублирование должно быть на этот случай. И когда знаешь, что такой помощник «сдал экзамен» и соответствует требованиям, то доверять ему становится гораздо легче.

Похожие статьи