Несмотря на протесты, ЕС вводит жесткое регулирование ИИ
Евросоюз окончательно подтвердил свои намерения внедрить комплексное регулирование в сфере искусственного интеллекта, несмотря на усиливающееся давление со стороны ведущих мировых технологических компаний. Закон об ИИ, разработанный Европейской комиссией и утвержденный весной 2024 года, вступает в силу поэтапно, и к середине 2026 года должен быть полностью реализован. Его положения вызвали резкую реакцию со стороны более сотни IT-компаний, включая Alphabet (владельца Google), Meta, Mistral AI и ASML, которые призвали отложить внедрение регулирования - безуспешно.
По словам официального представителя Европейской комиссии Томаса Ренье, несмотря на массовые обращения и публичные призывы, не планируется ни приостановка процесса, ни предоставление переходного периода. "Не будет ни паузы, ни отсрочки. Мы действуем по графику", - отметил он.
Что предусматривает закон об ИИ ЕС?
Регламент основывается на принципе классификации AI-систем по уровню риска. Все ИИ-разработки делятся на четыре категории: от минимального до недопустимого риска. Запрещаются технологии, потенциально опасные с этической и социальной точки зрения - например, системы поведенческой манипуляции или социального рейтинга, подобного китайской модели.
К числу "высокорисковых" относятся системы распознавания лиц, алгоритмы принятия решений в сферах образования, трудоустройства и здравоохранения. Такие технологии обязаны проходить тщательную проверку, регистрацию и соответствовать целому комплексу требований: от управления рисками до прозрачности и обеспечения качества.
Так называемые "ограниченно рискованные" системы - включая популярные чат-боты и генеративные ИИ-модели - должны будут соблюдать базовые нормы прозрачности. Разработчики обязаны раскрывать источники обучения, предупреждать пользователей, что перед ними не человек, а алгоритм, и отчитываться о мерах по предотвращению злоупотреблений.
Почему закон вызывает недовольство
Согласно новой правовой архитектуре, закон будет распространяться на любые компании, поставляющие ИИ-решения на рынок ЕС - независимо от их географического происхождения. Это означает, что глобальные игроки, такие как Google и Meta, обязаны будут адаптировать свои технологии под европейские стандарты, в том числе проходить проверку систем, внедрять механизмы отслеживания качества и предоставлять документацию о рисках. В противном случае им грозят штрафы до 35 миллионов евро или 7% от мирового годового оборота.
Технологические гиганты уже выразили обеспокоенность отсутствием достаточных методических разъяснений, особенно в отношении общих ИИ-моделей (GPAI), таких, как GPT, Gemini и другие. Ожидаемое добровольное руководство по применению закона (Code of Practice) должно быть опубликовано лишь в конце 2025 года - то есть почти за год до завершения внедрения закона. Это, по словам представителей компаний, ставит их в положение неопределенности и вынуждает действовать "вслепую".
Что дальше?
Европейский союз настаивает: прозрачность, защита прав потребителей и предотвращение злоупотреблений в сфере ИИ важнее краткосрочных интересов индустрии. Введение закона уже началось: с августа 2024 года вступили в силу базовые положения, к 2025 году будет введен полный запрет на ИИ-технологии "неприемлемого риска", а с 2026-го - ужесточенный контроль над высокорисковыми системами.
Для крупных технологических компаний это означает необходимость быстрой адаптации к новым реалиям — от переработки архитектуры продуктов до корректировки бизнес-моделей. В противном случае им грозит потеря одного из крупнейших и наиболее регулируемых цифровых рынков в мире.