Новости

ЕС рассказал разработчикам ИИ с системными рисками, как не нарваться на огромные штрафы

Европейская комиссия (ЕК) опубликовала в пятницу руководство, призванное помочь разработчикам ИИ-моделей, которые, по её мнению, подвержены системным рискам, соблюдать требования «Закона об ИИ» (AI Act) с целью снижения потенциальных угроз.

Как сообщает агентство Reuters, этот шаг ЕК направлен на противодействие критике со стороны некоторых компаний в отношении «Закона об ИИ» и регуляторной нагрузки. Также руководство должно обеспечить большую ясность для потенциальных нарушителей закона, которым грозят штрафы в размере от €7,5 млн ($8,7 млн) или 1,5 % от оборота до €35 млн ($40,8 млн) или 7 % от мирового оборота.

«Закон об ИИ» был принят в прошлом году и вступает в силу поэтапно. Со 2 августа он будет регламентировать использование ИИ-моделей с системными рисками и базовых моделей, представляющих собой основу для различных приложений. Речь идёт об ИИ-моделях компаний Google, OpenAI, Meta✴ Platforms, Anthropic и Mistral. ЕК относит к категории ИИ-моделей с системными рисками те, что обладают значительно развитыми вычислительными возможностями и могут оказывать существенное влияние на общественное здоровье, безопасность, основные права или общество в целом.

В отношении таких моделей должна проводиться оценка с целью выявления и снижения рисков, а также состязательное тестирование. Их разработчики обязаны уведомлять ЕК о серьёзных инцидентах и обеспечивать надлежащую защиту от кражи и неправомерного использования.

Что касается ИИ-моделей общего назначения (GPAI) или базовых моделей, то к ним будут предъявляться требования по обеспечению прозрачности, включая составление технической документации, принятие политики в области авторских прав и предоставление подробных обзоров контента, используемого для обучения алгоритмов.

По словам Хенны Вирккунен (Henna Virkkunen), руководителя технического отдела ЕК, опубликованное руководство поможет обеспечить бесперебойное и эффективное применение «Закона об ИИ».

Источник