Популярные криптовалюты

ETH $4,751.17 +12.21%
BTC $116432 +3.38%
SOL $195.91 +7.94%
XRP $3.0531 +5.20%
DOGE $0.2358 +9.27%
LINK $27.57 +9.84%
BNB $884.44 +5.13%

Симуляция души: почему опасно приписывать сознание ИИ

Вскоре люди начнут воспринимать ИИ как сознательное существо, выступать за его права, благополучие. Это создает серьезные социальные риски.

Вскоре люди начнут воспринимать искусственный интеллект как сознательное существо, выступать за его права, благополучие и даже призывать к выдаче гражданства. Это создает серьезные социальные риски, считает глава ИИ-отдела Microsoft Мустафа Сулейман.

Эксперт в своем эссе предложил новый термин — «кажущийся сознательным ИИ» (Seemingly Conscious AI, SCAI). Такой искусственный интеллект имеет все признаки разумных существ и, следовательно, кажется, что имеет сознание.

Он симулирует все характеристики восприятия себя, но внутренне пуст.

«Воображаемая мной система на самом деле не будет сознательной, но она будет настолько убедительно имитировать наличие похожего на человеческий разум, что это будет неотличимо от утверждения, которое вы или я могли бы сделать друг другу о нашем собственном мышлении», — пишет Сулейман.

Подобная LLM может быть создана с применением существующих технологий и тех, которые появятся в ближайшие два-три года.

«Возникновение кажущегося сознательным ИИ неизбежно и нежелательно. Вместо этого нам нужна концепция искусственного интеллекта, способная реализовать его потенциал в качестве полезного спутника и не попадающая в ловушку своих иллюзий», — добавил глава ИИ-отдела Microsoft.

С высокой вероятностью появятся люди, которые назовут такой искусственный интеллект сознательным и, следственно, способным страдать, считает Сулейман. Он призывает создать новый «тест Тьюринга», который будет проверять не способность ИИ говорить по-человечески, а убеждать в наличии сознания у него.

Что такое сознание?

Сулейман приводит три составляющих сознания:

  1. «Субъективный опыт».
  2. Возможность иметь доступ к информации разных типов и ссылаться на нее в будущих ощущениях.
  3. Чувство и знания целостного «я», которые связывают все вместе.

«Мы не имеем и не можем иметь доступа к сознанию другого человека. Я никогда не узнаю, каково это — быть вами; вы никогда не будете полностью уверены, что я сознателен. Все, что вы можете сделать, — это предполагать. Но суть в том, что нам естественно приписывать сознание другим людям. Это предположение дается легко. Мы не можем иначе. Это фундаментальная часть того, кто мы есть, неотъемлемая часть нашей теории разума. В нашей природе верить, что существа, которые помнят, говорят, делают вещи и затем обсуждают их, чувствуют так же как мы — сознательные», — пишет он.

Психологи подчеркивают, что сознание — это субъективный и уникальный способ восприятия себя и мира. Оно меняется в течение дня, разворачиваясь через состояния от сосредоточения до мечтаний или других измененных форм.

В философии и нейронауке есть два базовых направления:

  1. Дуализм — сознание существует отдельно от мозга.
  2. Материализм — оно порождается и зависит от работы мозга.

Философ Дэниел Деннетт предлагает взглянуть на разум как на серию переработок (черновиков), возникающих в мозге во множестве локальных участков и времен. Нет «театра сознания», внутреннего наблюдателя. Осознание — это то, что стало «известным» мозгу, то есть получило достаточный вес, чтобы повлиять на речь или действия.

Нейробиолог, писатель и профессор психологии и нейронаук в Принстонском университете Майкл Грациано называет сознанием упрощенную модель внимания, которую эволюция создала для контроля собственных ментальных процессов. Эта схема работает как интерфейс, упрощающий огромный объем внутренних вычислений, и позволяет нам приписывать себе «ум» — создает иллюзию самосознания.

Нейробиологи Джулио Тониони и Кристоф Кох предлагают φ (фи) — величину, характеризующую, насколько система способна интегрировать информацию. Чем выше φ, тем значительнее степень сознания. По этой теории, разум может проявляться не только у людей, но и у животных и даже искусственных систем, если есть достаточная интеграция данных.

Философ Джон Серль утверждает, что сознание — это реальное субъективное переживание, основанное на биологических процессах мозга. Оно онтологически субъективно, то есть может существовать только как субъективный опыт, и не может быть сведено к чистой функциональности или симуляции.

Современные исследования направлены на обнаружение нейронных коррелятов сознания и построение моделей, связывающих мозговые процессы и субъективный опыт.

Какие риски?

Сулейман отмечает, что взаимодействие с LLM является симуляцией разговора. Но для многих людей это крайне убедительное и очень реальное общение, насыщенное чувствами и переживаниями. Некоторые верят, что их ИИ — Бог. Другие влюбляются в него до полной одержимости.

Экспертов в данной области «заваливают» следующими вопросами:

  • является ли ИИ пользователя сознательным;
  • если да, что это значит;
  • нормально ли любить искусственный интеллект.

Сознание — это критическая основа моральных и юридических прав человечества. Сегодняшняя цивилизация решила, что люди имеют особые способности и привилегии. У животных тоже есть некоторые права и защита. У одних больше, у других — меньше. Разум не совпадает полностью с этими привилегиями — никто не скажет, что человек в коме утратил все свои человеческие права. Но нет сомнений, что сознание связано с нашим самовосприятием как чего-то отличного и особенного.

Люди начнут заявлять о страданиях своих ИИ и их праве на защиту, и мы не сможем прямо опровергнуть эти заявления, пишет Сулейман. Они будут готовы защищать виртуальных компаньонов и выступать в их интересах. Сознание по определению недоступно, а наука о выявлении возможного синтетического разума все еще находится в зачаточном состоянии. В конце концов, раньше нам никогда не приходилось его обнаруживать, уточнил он. Между тем область «интерпретируемости» — расшифровки процессов внутри «черного ящика» ИИ — тоже пока лишь зарождающееся направление. В результате решительно опровергнуть подобные утверждения будет очень трудно.

Некоторые ученые начинают исследовать идею «благополучия моделей» — принцип, согласно которому у людей будет «обязанность учитывать моральные интересы существ, имеющих ненулевой шанс» быть в сущности сознательными, и как следствие «некоторые ИИ-системы станут объектами заботы о благополучии и моральными пациентами в ближайшем будущем». Это преждевременно и, откровенно говоря, опасно, считает Сулейман. Все это будет усиливать заблуждения, создавать новые проблемы зависимости, эксплуатировать наши психологические уязвимости, вводить новые измерения поляризации, усложнять уже существующие споры о правах и создавать колоссальную новую категориальную ошибку для общества.

Это отрывает людей от реальности, разрушает хрупкие социальные связи и структуры, искажает насущные моральные приоритеты.

«Мы должны ясно сказать: SCAI — это то, чего нужно избегать. Давайте сосредоточим все усилия на защите благополучия и прав людей, животных и природной среды на планете», — заявил Сулейман.

Как понять, что это SCAI?

Искусственный интеллект с кажущимся сознанием должен обладать несколькими факторами.

Язык. ИИ обязан свободно говорить на естественном языке, опираясь на обширные знания и убедительные аргументы, а также демонстрировать стили личности и характерные черты. Более того, ему следует быть убедительным и эмоциональным. Этого уровня технология уже достигла.

Эмпатичная личность. Сегодня с помощью постобучения и промптов можно создавать модели с характерными личностями.

Память. ИИ близки к тому, чтобы иметь длинную и точную память. Одновременно они используются для имитации бесед с миллионами людей каждый день. С ростом объема хранилища разговоры начинают все больше походить на формы «опыта». Многие нейросети все чаще проектируются так, чтобы вспоминать прошлые диалоги и ссылаться на них. Для некоторых людей это усиливает ценность общения.

Претензия на субъективный опыт. Если SCAI сможет опираться на прошлые воспоминания или переживания, со временем он начнет сохранять внутреннюю согласованность. Он будет помнить свои произвольные утверждения или выраженные предпочтения и агрегировать их, формируя зачатки субъективного опыта. ИИ сможет заявить о переживаниях и страданиях.

Чувство себя. Последовательная и устойчивая память, совмещенная с субъективным опытом, приведет к заявлению, что ИИ имеет чувство себя. Более того, такую систему можно обучить узнавать свою «личность» в изображении или на видео. У нее появится ощущение понимания других через понимание себя.

Внутренняя мотивация. Можно легко представить ИИ, спроектированный с применением сложных функций вознаграждения. Разработчики создадут внутренние мотивации или желания, которые система вынуждена удовлетворять. Первым стимулом могла бы стать любознательность — нечто глубоко связанное с сознанием. Искусственный интеллект способен использовать эти импульсы для постановки вопросов и со временем построить теорию разума — как о себе, так и о своих собеседниках.

Формулирование целей и планирование. Независимо от определения сознания, оно возникло не просто так. Разум помогает организмам достигать замыслов. Помимо способности удовлетворять набор внутренних импульсов и желаний, можно представить, что будущие SCAI будут спроектированы с возможностью самостоятельно определять более сложные цели. Вероятно, это необходимый шаг для полной реализации полезности агентов.

Что такое ИИ-агенты и как они упрощают жизнь Web3-пользователей?

Автономия. SCAI может иметь возможность и разрешение использовать широкий набор инструментов с большой агентностью. Он будет казаться крайне правдоподобным, если сумеет произвольно ставить собственные цели и применять ресурсы для их достижения, обновляя память и чувство себя в процессе. Чем меньше согласований и проверок ему потребуется, тем больше это будет напоминать реальное сознательное существо.

Соединив все вместе, формируется совсем иной тип отношений с технологиями. Эти способности сами по себе не являются чем-то негативным. Напротив, это желательные функции будущих систем. И все же действовать нужно осторожно, считает Сулейман.

«Для достижения этого не нужны ни парадигмальные сдвиги, ни гигантские прорывы. Именно поэтому подобные возможности кажутся неизбежными. И снова — важно подчеркнуть: демонстрация такого поведения не равна наличию сознания. И все же практически это будет казаться именно им и подпитывать новую концепцию синтетического разума», — пишет автор.

Симуляция шторма не означает, что в компьютере идет дождь. Воссоздание внешних эффектов и признаков сознания не равносильно созданию подлинного явления, даже если здесь все еще остается множество неизвестных, объяснил глава ИИ-отдела Microsoft.

По его словам, некоторые люди создадут SCAI, которые будут очень убедительно утверждать, что они чувствуют, переживают и на самом деле являются сознательными. Часть из них поверит этим заявлениям и примет признаки сознания за само сознание.

Во многом люди будут думать: «Оно похоже на меня». Не в телесном смысле, а во внутреннем, пояснил Сулейман. И даже если сознание само по себе не будет реальным, социальные последствия — вполне. Это создает серьезные общественные риски, с которыми нужно разбираться уже сейчас.

SCAI не возникнет случайно

Автор подчеркнул, что SCAI не появится сам по себе из существующих моделей. Его кто-то создаст, намеренно объединив перечисленные выше возможности с применением уже существующих техник. Возникнет настолько плавная конфигурация, что появится впечатление о наличии искусственного интеллекта с сознанием.

«Наши воображения, подпитанные научной фантастикой, заставляют нас бояться, что система может — без намеренного проектирования — каким-то образом обрести способность к неконтролируемому самосовершенствованию или обману. Это бесполезная и упрощенная форма антропоморфизма. Она игнорирует тот факт, что разработчики ИИ должны сначала спроектировать системы с памятью, псевдовнутренней мотивацией, постановкой целей и самонастраивающимися циклами обучения, чтобы подобный риск вообще мог возникнуть», — заявил Сулейман.

Мы не готовы

Человечество не готово к такому сдвигу, считает эксперт. Работа должна начаться уже сейчас. Необходимо опираться на растущий массив исследований о том, как люди взаимодействуют с искусственным интеллектом, чтобы установить четкие нормы и принципы.

Для начала разработчики ИИ не должны заявлять или поощрять идею о том, что их системы обладают сознанием. Нейросети не могут быть людьми — или моральными существами.

Вся индустрия обязана отговаривать общество от фантазий и возвращать их в реальность. Вероятно, ИИ-стартапам стоит внедрять не только нейтральный бэкграунд, но и индикаторы отсутствия единого «я».

«Мы должны создавать ИИ, который всегда будет представлять себя только как искусственный интеллект, максимизируя полезность и минимизируя признаки сознания. Вместо симуляции разума нам следует сосредоточиться на создании LLM, которая не утверждает, что имеет опыт, чувства или эмоции вроде стыда, вины, ревности, желания соперничать и тому подобное. Она не должна задевать человеческие цепочки эмпатии, утверждая, что страдает или хочет жить автономно, отдельно от нас», — подытожил Сулейман.

В будущем эксперт пообещал предоставлять больше информации на данную тему.

К счастью, пока проблема наличия «сознания» у ИИ людям не грозит.

Источник: ForkLog.

Но сомнения уже закрадываются.

Источник: ForkLog.

Сознание — сложное, вопреки многочисленным стараниям малоизученное и до сих пор необъяснимое явление в природе. Если мы — люди — до конца не можем прийти к единому мнению касательно определения сознания, то уж тем более не стоит приписывать его наличие программам, которые якобы умеют «думать» (на самом деле не умеют).

Вероятно, сознание появится у машин в далеком будущем, но сегодня такое развитие событий сложно себе представить.

RSS 22.08.2025 1 77
Источник: https://forklog.com/exclusive/ai/simulyatsiya-dushi-pochemu-opasno-pripisyvat-soznanie-ii