Популярные криптовалюты

ETH $2,664.04 +1.89%
BTC $109,243.38 +0.39%
SOL $154.43 +1.76%
XRP $2.3791 +3.29%
PEPE $0.0000103 +1.17%
DOGE $0.17353 +1.20%
BONK $0.0000200 -9.76%

Нейросеть цифровых копий разума

О когнитивном искусственном интеллекте, его моральной ценности и альтернативном видении сингулярности.

В конце июня сооснователь OpenAI Илья Суцкевер поделился видением развития искусственного интеллекта. По его мнению, уже скоро ИИ-агенты смогут выполнять месячный объем работы человека за считанные часы и станут полноценными виртуальными коллегами, которых можно масштабировать до миллионов. Переход к моделям с истинным «рассуждением», которые «меняют все», вызывают у многих тревогу. Суцкевер призвал не бояться будущего, а формировать его, адаптируясь к изменениям.

В новом материале ForkLog рассмотрим, как развиваются когнитивные системы искусственного интеллекта и какие вызовы они бросают не только разработчикам, но  и пользователям. 

Думай о том, что думаешь

Последние два года ИИ-сообщество все чаще обсуждает будущие последствия параболического развития цифрового разума, достижения интеллекта общего назначения (AGI) и даже сверхразумного ASI. В этом контексте ученые пытаются определить, каким будет следующий шаг.

Большинство корпоративных «провидцев» предсказывают, что ближайшим поколением ИИ станут разные формы когнитивного искусственного интеллекта (CAI).

Генеральный директор Google DeepMind Демис Хассабис в интервью Wired заявил, что шанс достичь AGI в ближайшие 5–10 лет составляет 50%. Дальше, по его словам, нас ждет «эра максимального расцвета человечества» с колонизацией галактики, стартующей уже в 2030 году. 

Режим Deep Think чат-бота Gemini от Google может стать следующим этапом «метапознания», в котором машина выполняет многослойную логику и планирование, приближаясь к когнитивному мышлению.

Старший научный сотрудник Meta AI Ян ЛеКун год назад предложил молодому поколению воздержаться от изучения LLM. Он считает, что в этой области уже доминируют крупные компании и это не путь к развитию искусственного интеллекта.

«Если вы студент, заинтересованный в создании систем ИИ следующего поколения, не работайте над LLM», — сказал он.

Вместо этого команда Meta сосредоточилась на «моделях мира» как у животных и людей — системе V-JEPA, предназначенной для формирования подлинного понимания окружающей среды. Она обучается интуитивному мышлению на основе видео с помощью самоконтролируемого обучения. По сравнению с мультимодальными LLM она продемонстрировала более глубокое понимание физики, несмотря на то, что ей потребовалось меньше обучающих данных. Модель делает прогнозы в абстрактном пространстве представлений — подобно тому как, по мнению ЛеКуна, обрабатывает информацию человеческий мозг.

С начала 2024 года OpenAI начала внедрять долговременную память в ChatGPT, делая шаг к моделированию устойчивого «я» и индивидуального стиля мышления. Компания стремится в будущем создать сеть ИИ-агентов с глубоким пониманием пользователя.

Один из главных поставщиков инфраструктурных ресурсов для мирового ИИ — корпорация Nvidia — создала серию инициатив в поддержку развития технологии ориентации роботов в пространстве — стека DePAI. Глава компании Дженсен Хуанг считает моделирование реального мира и его цифровых копий, включая людей, предварительным этапом рассуждающих ИИ. 

Если обобщить, CAI — это попытка встроить в систему следующие качества:

  • причинно-следственное мышление;
  • предсказание последствий;
  • учет моральных и правовых норм;
  • поддержание целостности суждений на протяжении времени;
  • контекстную память и моделирование идентичности пользователя.

Такие модели пока далеки от настоящего сознания, но они уже создают системный сдвиг в сторону симуляции мышления. Если LLM — это синтаксис и риторика, то CAI, скорее, логика и философия.

Когнитивные бомбы

То, что 20 лет назад можно было увидеть лишь в фантастических боевиках, сегодня повсеместно внедряется в оборонные механизмы ведущих государств.

Учитывая накаленность внешней политики последних лет, бюджеты на оборону с каждым годом раздуваются все сильнее. Главным драйвером прорыва в эффективной защите граждан выступает ИИ, а именно передовые разработки в области самостоятельного принятия решений и моделировании последствий.

Армия США активно тестировала когнитивное взаимодействие задолго до появления моделей с уклоном в размышления. 

Так, в 2012 году Агентство по перспективным оборонным научно-исследовательским разработкам США (DARPA) представило уникальную систему компьютерного зрения.

Работа оператора когнитивного нейроинтерфейса CT2WS. Данные: ExtremeTech.

CT2WS — система «мозг-компьютер», использующая нейроинтерфейсы и нейронные сети — предупреждала пехоту об угрозах. Она состоит из 120-мегапиксельных камер, радара, кластера компьютеров для распознавания объектов и операторов со сканерами мозговой активности.

Для минимизации ложных срабатываний задействован мозг оператора. К системе видеонаблюдения подключали людей и быстро прокручивали перед ними подозрительные кадры. При этом с операторов снимали электроэнцефалограмму. Если человек видел опасность, его реакцию моментально фиксировал нейроинтерфейс. В результате количество фальшивых срабатываний удалось уменьшить с 810 до пяти в час.

Системы компьютерного зрения в последние годы стали доступны рядовым пользователям. В первую очередь они пригодились в автомобилях Tesla для функции автопилота.

Учитывая секретность и приоритетность правительственных организаций, трудно предположить, насколько развилось военное дело спустя декаду. За последний год темпы милитаризации искусственного интеллекта, информацию о которых можно найти в открытом доступе, настораживают.

В марте стало известно о применении ИИ-агентов в Минобороны США для моделирования столкновений с иностранными армиями. В рамках сотрудничества со Scale AI планируется разработка платформы Thunderforge, предназначенной для повышения эффективности принятия решений на поле боя. Реализация проекта запланирована в сотрудничестве с Anduril и Microsoft.

Это не первое участие ИИ-корпораций в оборонной сфере. Известно о многолетнем сотрудничестве Microsoft с Армией обороны Израиля: в феврале 2025 года это вызвало протесты со стороны сотрудников техгиганта. 

В январе OpenAI заключила соглашение с Национальными лабораториями США для применения ИИ-моделей стартапа в исследовании ядерного оружия. Ранее Meta открыла свои технологии для правительственных учреждений и оборонных подрядчиков США и союзников. Вслед за ней это сделала компания Anthropic.

К тому же существуют многочисленные свидетельства некорректной работы милитаризованного ИИ, приведшей к необоснованным разрушениям и гибели мирного населения.

Все эти факторы наряду с централизацией технологии корпорациями вдохновляют инженеров на разработку методов этичного использования технологий искусственного интеллекта.

Главное за месяц: вызовы для биткоина, актуальная кибербезопасность и милитаризация ИИ

Моральный компромисс

Один из пионеров ИИ Йошуа Бенжио раскритиковал многомиллиардную гонку за разработкой передовых технологий. Он заявил о наличии опасных характеристик в последних моделях и обмане пользователей.

Свои предостережения ученый высказал в начале лета во время запуска новой некоммерческой организации LawZero. По словам Бенжио, группа сосредоточится на создании более безопасных систем и «изолирует исследования от коммерческого давления». Решение специалиста совпадает с намерением OpenAI отойти от своих «благотворительных» корней и превратиться в коммерческую компанию.

Предполагается, что ИИ-модели от LawZero не станут давать однозначных ответов, как это делают современные системы. Вместо этого они будут предоставлять вероятность того, насколько ответ может быть верным.

В интервью The Guardian Бенжио отметил, что его модели будут обладать «чувством скромности — осознанием того, что они не уверены в своем ответе».

Ученый надеется создать модель, которая сможет совершенствовать существующие предложения ведущих групп искусственного интеллекта и предотвращать их действия, противоречащие интересам человека.

«Худший сценарий — это вымирание человечества. Если мы создадим искусственный интеллект, который будет умнее нас, не будет согласован с нами и конкурировать, то нам, по сути, конец», — заявил он.

Среди новых стартапов находятся также те, кто готов отстаивать будущее человечества, строя разумные и этичные модели ИИ.

MindCast AI (MCAI) — концептуально проработанный пример когнитивного ИИ. Система моделирует принятие решений с акцентом на этическую целостность суждений и предсказуемость поведения в будущем. 

Основатель компании Ноэль Ли появился в публичном пространстве на Substuck около трех месяцев назад с предельно ясным и укомплектованным решением. Хотя практических подтверждений технологии продемонстрировать пока не удалось, сама концепция вызывает интерес.

MCAI — это CAI, разработанная для симуляции суждений и поведения человеческих агентов. Она сосредоточена на результатах вместо предсказаний на основе исторических данных. Система использует моделирование, чтобы предвосхищать поведение в реальном мире.

Согласно техническому описанию, с помощью MCAI пользователи могут:

  • моделировать поведение ключевых фигур в условиях неопределенности или давления;
  • предвидеть юридические, репутационные и эмоциональные реакции до того, как они произойдут;
  • определить расхождения между речью и действиями;
  • отслеживать влияние институциональных стимулов на траекторию решений;
  • прогнозировать моральные риски и социальную реакцию;
  • протестировать стратегии предвидения до их реализации.

Текущие ИИ-модели оптимизированы под скорость и масштаб, но игнорируют более глубокие вопросы, определяющие разумные решения: доверие, благополучие человека, предсказуемость.

«Миллиарды направляются в стартапы на основе репутации основателей, а не продемонстрированных возможностей», — говорится в манифесте MCAI.

Сравнение LLM, специализированных инструментов и CDT от MCAI. Данные: MCAI.

Система MCAI включает три основные способности:

  • интеграция предвидения. Моделирование будущего с помощью запатентованного движка вероятностного прогнозирования, слоев байесовского вывода, сценарного анализа и оценки непредвиденных последствий;
  • калибровка доверия. Все данные проходят через модель доверительных когнитивных сигналов, которая различает корреляцию и причинность, отфильтровывает статистический шум до включения логики решений;
  • архитектура согласованности. Обеспечивает логическую и моральную согласованность с помощью движка ALI (языковая целостность действий), системы CMF (когнитивная точность моторики) для достоверности инсайтов в конкретной области.

Патентованная структура когнитивного цифрового двойника (CDT) зарегистрирована в апреле 2025 года. Система уже применяется в анализе корпоративных стратегий, разработке политик и антимонопольных расследованиях.

В построении личного ИИ-агента стартап использует доверие.

«Без доверительных когнитивных архитектур ИИ-компаньоны превращаются в системы тотального наблюдения», — сказано в манифесте.

MCAI решает эту проблему с помощью памяти, целостности и идентичности.

Ноэль Ли утверждает, что их CDT моделирует решения, привязывается к моральной архитектуре, а также поддерживает согласованность с течением времени, развиваясь вместе с историей и ценностями.

Отцы и дети

Основатель ИИ-криптостартапа SingularityNET Бен Герцель считается одним из отцов ИИ, а также идейным лидером концепции AGI. Наверное, поэтому он так усердно пытается защитить ее будущее.

Исследователь не приемлет централизацию и милитаризацию технологий, которые могут навредить свободе выбора и проявлению человека. Основанная Герцелем в 2017 году блокчейн-платформа SingularityNET стала продолжением его видения о достижении AGI. В основе проекта лежит децентрализованная инфраструктура для разработки ИИ с особым акцентом на системы вроде Hyperon. 

Совместно с Fetch.ai, CUDOS и Ocean Protocol компания SingularityNET объединилась в коалицию под названием Artificial Superintelligence Alliance с токеном ASI. Цель альянса — максимально сконцентрировать ресурсы для конкуренции с лидерами индустрии.    

В сентябре 2024 Герцель заявил, что система на базе OpenCog Hyperon проявляет признаки частичного самосознания: это автономный агент с «собственными целями» — не просто чат-бот. Выход экспериментальной версии Baby AGI запланирован на 2025 год.

Еще один ИИ-отец — автор концепции «память-предсказание»Джефф Хокинс. Сейчас он работает над созданием «биологически правдоподобного» ИИ, основанного на неокортикальных принципах устройства мозга. Модель мира, память, иерархия представлений — все это приближает открытую в начале года некоммерческую организацию Thousand Brains Project на базе Numenta к когнитивному ИИ.

Децентрализованная атмосфера Web3 располагает всем необходимым для свободного развития ИИ, позволяет отслеживать и корректировать вектор технологии. Artificial Superintelligence Alliance, построенная на схожих принципах, удачно воспользовалась всеми преимуществами блокчейна. 

Развитие CAI происходит достаточно быстро, первые рабочие модели ожидаются в этом году. Пока гигантские ИИ-корпорации соревнуются за превосходство и новые оборонные заказы, обнадеживает растущее количество стартапов с уклоном в децентрализацию.

RSS 09.07.2025 1 59
Источник: https://forklog.com/exclusive/ai/nejroset-tsifrovyh-kopij-razuma