
19 мая 2025 года OpenAI представила новую open-source библиотеку под названием “SafeCore” — модульную платформу для создания безопасных и управляемых моделей искусственного интеллекта. Это стало ответом на растущий спрос со стороны разработчиков, регуляторов и бизнеса на прозрачные и подотчётные ИИ-решения.
SafeCore включает в себя готовые компоненты для:
- фильтрации и модерирования текстов;
- отслеживания предвзятости;
- ограничения доступа к вредным сценариям генерации;
- логирования действий моделей;
- внедрения человеко-ориентированных политик.
Одной из ключевых функций стала “встроенная этика” — модуль, позволяющий моделям корректировать свои ответы с учётом контекста, аудитории и юридических ограничений. Библиотека также предлагает инструменты для встраивания «переключателей доверия», которые дают конечному пользователю возможность оценить или отклонить результат.
OpenAI заявила, что цель проекта — демократизировать безопасный ИИ и сделать эти инструменты доступными не только для крупных компаний, но и для разработчиков, стартапов, образовательных учреждений.
По словам технического директора OpenAI:
“Мы не просто выпускаем код — мы делаем безопасный ИИ отраслевым стандартом”.
Библиотека совместима с популярными фреймворками (PyTorch, TensorFlow), имеет расширяемую архитектуру и уже получила поддержку от GitHub, HuggingFace и Mozilla AI. Ранее закрытые протоколы теперь публикуются в открытом репозитории с открытыми лицензиями.
Разработчики могут использовать SafeCore для создания чат-ботов, рекомендательных систем, генераторов кода, моделей перевода и других приложений с встроенной логикой ответственности. Особенно это актуально в сферах медицины, финансов, образования и социальных платформ, где цена ошибки ИИ крайне высока.
Эксперты считают это шагом к формированию глобальной инфраструктуры ответственного ИИ, где open-source становится не просто технологией, а гарантией прозрачности.