Виталик Бутерин предупреждает, что супер-ИИ может появиться в ближайшие несколько лет. В новом эссе он представил примерные меры регулирования, которые помогут избежать худшего сценария развития искусственного интеллекта. The post Супер-ИИ ближе, чем мы думали — Виталик Бутерин appeared first on BeInCrypto.
Сооснователь Ethereum Виталик Бутерин предупреждает о рисках искусственного интеллекта (ИИ) со сверхразумом и важности сильной защиты
Виталик Бутерин опубликовал новое эссе. Помимо прочего, в нем соучредитель Ethereum сфокусировался на вопросе о регулировании ИИ.
Подпишитесь на нашу рассылку и получайте новости о том, что происходит в мире Web3, прямо на почту!
В новом эссе Бутерин представил идею «d/acc», или защитного ускорения, в рамках которой технологии должны развиваться для защиты, а не для вреда. Это далеко не первый раз, когда сооснователь Ethereum говорит об опасности искусственного интеллекта.
«Самый (почти) ужасный способ, как ИИ может ухудшить мир, — это буквально привести к вымиранию человечества», — отмечал он в 2023 году.
С тех пор Виталик продолжает развивать идеи о том, как можно защититься от супер-ИИ. По его словам, искусственный интеллект со сверхразумом может появиться в ближайшие несколько лет.
«Кажется, у нас есть три года до появления сильного искусственного интеллекта общего уровня (AGI) и еще три года до суперинтеллекта. Если мы не хотим, чтобы мир был разрушен или попал в необратимую ловушку, мы не можем просто ускорять хорошее, мы также должны замедлять плохое», — написал Бутерин.
AGI, или сильный интеллект общего уровня, — это тип ИИ, который может мыслить и действовать так же, как человек.
Для того, чтобы снизить связанные с ИИ риски, Бутерин предлагает создавать децентрализованные системы на базе искусственного интеллекта. Важно, чтобы технология оставалась инструментом в руках человека. Тогда катастрофические последствия могут быть сведены к минимуму, считает Виталик.
Сооснователь Ethereum отметил, что ответственными участниками сценария гибели от ИИ могут стать военные. Использование искусственного интеллекта в военных целях растет по всему миру — это видно по Украине и Газе. По мнению Бутерина, любое регулирование ИИ, скорее всего, освободит армии от ответственности, что делает их значительной угрозой.
Виталик подчеркнул, что для избежания связанных с ИИ рисков необходимо привлекать пользователей к ответственности.
«Хотя связь между тем, как модель разрабатывается и как она в итоге используется, часто неясна, именно пользователь решает, как именно использовать ИИ», — указал он на роль пользователей.
Если правила ответственности за создание искусственного интеллекта работать не будут, следующим шагом может стать внедрение «мягкой паузы». Это позволит замедлить тем потенциально опасных разработок, написал Бутерин.
«Цель — иметь возможность сократить доступные вычислительные мощности в мире на ~90-99% на 1-2 года в критический период, чтобы выиграть больше времени для подготовки человечества».
По его словам, паузу можно реализовать через проверку местоположения и регистрацию ИИ.
Еще один подход — контроль аппаратного обеспечения искусственного интеллекта. Виталик объяснил, что в оборудование для ИИ можно встроить чип для контроля. Этот чип даст системам ИИ возможность работать только при получении трех подписей от международных организаций каждую неделю. Одна из этих организаций должна быть гражданской, не связанной с военными.
Однако Бутерин отметил, что все предложенные им стратегии имеют свои недостатки. По его словам, это — всего лишь временные меры, способные замедлить наступление эры машин.
Хотите стать частью большого и дружного сообщества BIC? Тогда подписывайтесь на нашу группу в «Телеграме» — там вас ждет общение с криптоэнтузиастами, помощь от наших экспертов и эксклюзивные комментарии опытных аналитиков.
The post Супер-ИИ ближе, чем мы думали — Виталик Бутерин appeared first on BeInCrypto.