ИИ-стартап OpenAI планирует перенаправлять конфиденциальные разговоры на модели рассуждений и внедрить родительский контроль.
ИИ-стартап OpenAI планирует перенаправлять конфиденциальные разговоры на модели рассуждений и внедрить родительский контроль.
Меры предпринимаются в рамках ответных действий на недавние инциденты, связанные с безопасностью. В некоторых случаях ChatGPT не смог обнаружить психическое расстройство у пользователей.
OpenAI усилит безопасность ChatGPT после трагедии с подростком28 августа газета The Wall Street Journal сообщила об еще одном случае — Стейн-Эрик Соэльберг использовал чат-бот для усиления своей паранойи. Ему казалось, будто он стал жертвой грандиозного заговора. Синдром прогрессировал настолько, что Соэльберг убил свою мать и покончил жизнь самоубийством.
«Вскоре мы начнем перенаправлять некоторые деликатные разговоры — например, когда наша система обнаруживает признаки острого дистресса — в модель рассуждения, такую как GPT-5-thinking. Она может давать более полезные и выгодные ответы, независимо от того, какую модель человек выбрал вначале», — говорится в блоге стартапа.
OpenAI утверждает, что ее «думающие» нейросети более устойчивы к враждебным промптам.
Уведомления о потенциально вредоносном контенте уже интегрированы в ChatGPT.
Родительский контроль позволит связывать учетные записи с аккаунтами своих детей через приглашение по электронной почте.
Родители смогут контролировать то, как ChatGPT отвечает их детям. Также можно будет отключить функцию памяти и историю чата. Благодаря этому снизится вероятность возникновения зависимости и привязанности к чат-боту.
Среди других грядущих функций — уведомления о том, что ребенок находится в состоянии «острого дистресса».
Напомним, в июле OpenAI представила специальный режим обучения для студентов в ChatGPT, который помогает прорабатывать задачи поэтапно, а не просто получать готовый ответ.
GPT-5 — прорыв, провал или посредственность?