OpenAI, разработчик ChatGPT, объявила о новой политике: искусственный интеллект будет выявлять потенциально опасные запросы пользователей и передавать их на рассмотрение специалистам, которые могут уведомить правоохранительные органы. Эта мера, как указано в обзоре компании, направлена на предотвращение преступлений и обеспечение безопасности. Однако нововведение вызывает вопросы о конфиденциальности и этике использования ИИ.
Согласно заявлению OpenAI, система использует автоматизированные алгоритмы для выявления запросов, содержащих угрозы или признаки планирования преступлений. Такие случаи передаются команде модераторов, обученных политикам компании. При необходимости они могут инициировать контакт с полицией. Точные критерии флагирования запросов остаются неясными, что создает риск неоднозначной интерпретации пользовательских намерений.
Нововведение отражает стремление OpenAI минимизировать юридические и репутационные риски, связанные с использованием ИИ в деструктивных целях. Однако оно поднимает проблему баланса между безопасностью и правом на приватность. Критики указывают, что мониторинг чатов может привести к ложным срабатываниям, особенно если запросы носят гипотетический или творческий характер. Например, обсуждение сценариев для книг или фильмов может быть ошибочно воспринято как реальная угроза.
OpenAI подчеркивает, что данные передаются властям только в крайних случаях, но отсутствие прозрачности в процессе вызывает опасения. Пользователям рекомендуется избегать обсуждения чувствительных тем, чтобы не попасть под подозрение. Эта политика может повлиять на доверие к платформе и требует четких разъяснений от OpenAI.