
Еврокомиссия опубликовала проект новых правил, направленных на более жесткое регулирование использования искусственного интеллекта (ИИ). Эти меры направлены на защиту конфиденциальности данных граждан ЕС и ограничение рисков, связанных с массовым внедрением ИИ-технологий.
Новая инициатива требует от компаний детальной оценки рисков для конфиденциальности, а также обязывает информировать пользователей о том, когда и как используются алгоритмы для принятия решений. Это касается особенно чувствительных сфер, таких как медицина, финансы и реклама.
Особое внимание уделяется алгоритмам, способным существенно влиять на жизнь человека, — например, в подборе кандидатов на работу, анализе кредитоспособности или диагностике заболеваний. Компании, использующие ИИ в этих сферах, должны будут регулярно отчитываться перед европейскими регуляторами и проходить аудит.
По мнению Еврокомиссии, ужесточение правил будет способствовать формированию доверия к ИИ, что станет стимулом для инноваций. Тем не менее, многие бизнес-структуры обеспокоены ростом бюрократической нагрузки и возможными сложностями адаптации к новым требованиям.
Эксперты отмечают, что новые правила могут замедлить инновации и увеличить расходы компаний, особенно малых предприятий, которые не всегда имеют ресурсы для выполнения жестких стандартов. Однако сторонники мер подчеркивают, что долгосрочные преимущества в виде безопасности и доверия пользователей окупят текущие неудобства.
Новые правила еще должны быть утверждены Европейским парламентом и государствами-членами, однако, скорее всего, вступят в силу в ближайшие 1-2 года.