OpenAI объявила во вторник о выпуске набора подсказок, которые разработчики могут использовать для создания приложений, безопасных для подростков. Компания сообщила, что набор политик безопасности для подростков можно использовать с её моделью безопасности с открытым весом gpt-oss-safeguard.

Вместо того чтобы разрабатывать решения с нуля для обеспечения безопасности ИИ для подростков, разработчики могут использовать эти подсказки для укрепления своих приложений. Они охватывают такие проблемы, как графическое насилие и сексуальный контент, вредные идеалы и поведение в отношении тела, опасные действия и вызовы, романтические или насильственные ролевые игры, а также товары и услуги с ограничениями по возрасту.

Эти политики безопасности разработаны как подсказки, что делает их совместимыми с другими моделями помимо gpt-oss-safeguard, хотя они, вероятно, наиболее эффективны в экосистеме OpenAI.

При разработке этих подсказок OpenAI сотрудничала с организациями Common Sense Media и everyone.ai, которые занимаются контролем ИИ.

«Эти политики на основе подсказок помогают установить значительный уровень безопасности во всей экосистеме, и поскольку они выпускаются как открытый исходный код, они могут быть адаптированы и улучшены со временем», — сказал Робби Торни, руководитель направления ИИ и цифровых оценок в Common Sense Media.

OpenAI отметила в своём блоге, что разработчики, в том числе опытные команды, часто испытывают трудности с переводом целей безопасности в точные операционные правила.

«Это может привести к пробелам в защите, непоследовательному применению или чрезмерно широкой фильтрации», — написала компания. «Чёткие и хорошо определённые политики — это критическая основа для эффективных систем безопасности».

OpenAI признаёт, что эти политики не являются решением сложных проблем безопасности ИИ. Однако они являются продолжением её предыдущих усилий, включая встроенные функции безопасности, такие как родительский контроль и прогноз возраста. В прошлом году OpenAI обновила рекомендации для своих больших языковых моделей — известные как Model Spec — для решения вопроса о том, как её модели ИИ должны взаимодействовать с пользователями моложе 18 лет.

Однако у самой OpenAI не совсем безупречный послужной список. Компания сталкивается с несколькими исками, поданными семьями людей, покончивших с собой после интенсивного использования ChatGPT. Эти опасные отношения часто возникают после того, как пользователь преодолевает защиту чатбота, и ни одна модель не имеет полностью неуязвимых защитных механизмов. Тем не менее, эти политики являются по крайней мере шагом вперёд, особенно поскольку они могут помочь независимым разработчикам.