Компания Anthropic запрограммировала Claude на завершение диалогов «в редких, экстремальных случаях систематически вредоносного или оскорбительного взаимодействия».
Компания Anthropic запрограммировала чат-боты Claude Opus 4 и 4.1 на завершение диалогов с пользователями «в редких, экстремальных случаях систематически вредоносного или оскорбительного взаимодействия».
После завершения беседы пользователь потеряет возможность писать в чат, но сможет создать новый. История переписки также сохранится.
При этом разработчики уточнили, что функция в первую очередь предназначена для безопасности самой нейросети.
«[…] мы работаем над выявлением и внедрением малозатратных мер по снижению рисков для благополучия моделей, если такое благополучие возможно. Одной из таких мер является предоставление LMM возможности прекращать или выходить из потенциально травмирующих ситуаций», — говорится в публикации.
В рамках сопутствующего исследования в Anthropic изучили «благополучие модели» — оценили самооценку и поведенческие предпочтения. Чат-бот продемонстрировал «устойчивую неприязнь к насилию». У версии Claude Opus 4 выявили:
«Такое поведение обычно возникало в тех случаях, когда пользователи продолжали отправлять вредоносные запросы и/или оскорблять, несмотря на то, что Claude неоднократно отказывался подчиниться и пытался продуктивно перенаправить взаимодействие», — уточнил в компании.
Напомним, в июне исследователи Anthropic выяснили, что ИИ способен пойти на шантаж, раскрыть конфиденциальные данные компании и даже допустить смерть человека в экстренных обстоятельствах.