Глава OpenAI Сэм Альтман (Sam Altman) предупредил пользователей ChatGPT о серьезной угрозе приватности. Разговоры с искусственным интеллектом могут быть использованы в качестве доказательств в судебных процессах, поскольку они не защищены законом как конфиденциальные данные. ChatGPT без защиты Альтман назвал отсутствие правовой защиты разговоров с ChatGPT «огромной проблемой» в интервью автору подкаста Тео Вону (Theo Von)… Сообщение Сэм Альтман: ваши разговоры с ChatGPT могут быть использованы в суде появились сначала на Hash Telegraph.
Глава OpenAI Сэм Альтман (Sam Altman) предупредил пользователей ChatGPT о серьезной угрозе приватности. Разговоры с искусственным интеллектом могут быть использованы в качестве доказательств в судебных процессах, поскольку они не защищены законом как конфиденциальные данные.
Альтман назвал отсутствие правовой защиты разговоров с ChatGPT «огромной проблемой» в интервью автору подкаста Тео Вону (Theo Von) на прошлой неделе. В отличие от бесед с терапевтами, юристами или врачами, которые защищены профессиональной тайной, разговоры с ChatGPT таких гарантий не имеют.
«Сейчас, если ты говоришь с терапевтом, юристом или врачом о своих проблемах, существует правовая защита этих разговоров», — объяснил генеральный директор OpenAI. А вот с разговорами с ChatGPT такой ясности и безопасности нет.
Альтман прямо предупредил: если пользователь обсуждает с ChatGPT «самые деликатные вещи», а затем по какой-то причине начинается судебный процесс, то «нас могут обязать предоставить эту информацию».
Предупреждение главы OpenAI особенно актуально на фоне растущего использования искусственного интеллекта для получения психологической поддержки, медицинских и финансовых консультаций. Многие пользователи доверяют ChatGPT личную информацию, не осознавая потенциальных последствий.
«Я считаю, это очень неправильно», — заявил Альтман, добавив, что «у нас должна быть такая же концепция приватности для разговоров с ИИ, как и с терапевтом».
Глава OpenAI признался, что сам иногда опасается использовать определенные ИИ-технологии: «Это одна из причин, почему я иногда боюсь использовать некоторые ИИ-сервисы — я не знаю, сколько личной информации хочу туда вводить, потому что не знаю, кто получит к ней доступ».
Альтман подчеркнул острую потребность в создании правовых рамок для искусственного интеллекта. По его словам, политики, с которыми он обсуждал эту проблему, согласны с необходимостью нахождения быстрого решения этого вопроса.
Генеральный директор OpenAI также выразил обеспокоенность усилением слежки в связи с широким внедрением ИИ-технологий. «Меня беспокоит, что чем больше в мире ИИ, тем больше слежки за ними хочет мир», — отметил он, объясняя это желанием правительств убедиться, что люди не используют технологии для терроризма или других преступных целей.
Альтман готов пойти на компромисс с приватностью ради общественной безопасности, но с важной оговоркой: «История показывает, что правительство заходит в этом слишком далеко, и меня это очень беспокоит».
Предупреждение Альтмана указывает на критический пробел в правовом регулировании ИИ-технологий. В то время как миллионы людей ежедневно делятся с ChatGPT личной информацией, эти данные остаются уязвимыми для судебных запросов и потенциального неправомерного использования.
Пока не будут созданы соответствующие правовые механизмы защиты, пользователям стоит тщательно взвешивать, какую информацию они готовы доверить искусственному интеллекту.
Самые интересные и важные новости на нашем канале в Telegram
Сообщение Сэм Альтман: ваши разговоры с ChatGPT могут быть использованы в суде появились сначала на Hash Telegraph.