Только биологические существа способны к сознанию. Разработчики и исследователи должны прекратить работу над проектами, предполагающими обратное.
Только биологические существа способны к сознанию. Разработчики и исследователи должны прекратить работу над проектами, предполагающими обратное, заявил руководитель ИИ-отдела Microsoft Мустафа Сулейман в разговоре с CNBC.
«Я не думаю, что люди должны заниматься такой работой. Если задать неверный вопрос, то получишь неверный ответ. Я считаю, что это абсолютно этот случай», — сказал он на конференции AfroTech в Хьюстоне.
Топ-менеджер Microsoft выступает против перспективы создания искусственного интеллекта, способного к сознанию, или ИИ-сервисов, которые якобы могут страдать.
В августе Сулейман написал эссе, в котором предложил новый термин — «кажущийся сознательным ИИ» (Seemingly Conscious AI, SCAI). Такой искусственный интеллект имеет все признаки разумных существ и, следовательно, кажется, что имеет сознание. Он симулирует все характеристики восприятия себя, но внутренне пуст.
«Воображаемая мной система на самом деле не является сознательной, но она будет настолько убедительно имитировать наличие похожего на человеческий разум, что это будет неотличимо от утверждения, которое вы или я могли бы сделать друг другу о нашем собственном мышлении», — пишет Сулейман.
Приписывать ИИ сознание опасно, считает эксперт. Это будет усиливать заблуждения, создавать новые проблемы зависимости, эксплуатировать наши психологические уязвимости, вводить новые измерения поляризации, усложнять уже существующие споры о правах и создавать колоссальную новую категориальную ошибку для общества.
В 2023 году Сулейман стал автором книги The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, в которой подробно рассматриваются риски ИИ и других новых технологий. Среди них:
Рынок искусственного интеллекта движется в сторону AGI — общего искусственного интеллекта, способного выполнять любые задачи на уровне человека. В августе глава OpenAI Сэм Альтман сообщил, что данный термин, возможно, «не очень полезный». Модели развиваются быстро и вскоре мы будем полагаться на них «все больше и больше», считает он.
Для Сулеймана важно провести четкую грань между тем, что искусственный интеллект становится умнее, и его способностью когда-либо испытывать человеческие эмоции.
«Наше физическое переживание боли — это то, что делает нас очень грустными и заставляет чувствовать себя ужасно, но ИИ не чувствует грусти, когда испытывает “боль”», — сказал он.
По словам эксперта, это очень важное различие. На самом деле искусственный интеллект создает восприятие — кажущееся повествование об опыте — о себе и о сознании, но он не испытывает этого на самом деле.
«Технически вы знаете это, поскольку мы можем видеть, что делает модель», — подчеркнул эксперт.
В сфере искусственного интеллекта есть предложенная философом Джоном Серлом теория под названием биологический натурализм. Она гласит, что сознание зависит от процессов живого мозга.
«Причина, по которой мы сегодня даем людям права, заключается в том, что мы не хотим причинять им вред, поскольку они страдают. У них есть боль и предпочтения, которые включают в себя ее избегания. Эти модели такого не имеют. Это всего лишь симуляция», — сказал Сулейман.
Топ-менеджер против идеи исследования сознания у ИИ, поскольку у него его нет. Он сказал, что Microsoft создает сервисы, которые осознают, что они являются искусственным интеллектом.
«Проще говоря, мы создаем ИИ, который всегда работает на благо человека», — подметил он.
Напомним, в октябре эксперты Anthropic выяснили, что ведущие модели способны проявлять форму «интроспективного самосознания» — они могут распознавать и описывать собственные внутренние «мысли», а в некоторых случаях даже управлять ими.