Популярные криптовалюты

BTC $62,016.43 -0.31%
ETH $2,419.5 -0.12%
PEPE $0.0000093 -1.38%
SOL $143.6 -0.46%
SUI $1.7277 +1.35%
WIF $2.263 -2.71%
OG $4.655 +67.21%

Академическое исследование показало: чат-боты постепенно глупеют

BTC $62,016.43 -0.31%

Казалось бы, прогресс не стоит на месте, и чат-боты должны становиться все умнее. Но не тут-то было! Свежее исследование, опубликованное в легендарном научном журнале Nature, преподнесло нам сюрприз почище, чем падение биткоина на 50%: оказывается, наши кремниевые собеседники с каждым днем становятся все глупее. Ученые, видимо, решили подложить свинью Кремниевой долине и выпустили работу с… Сообщение Академическое исследование показало: чат-боты постепенно глупеют появились сначала на Hash Telegraph.

Казалось бы, прогресс не стоит на месте, и чат-боты должны становиться все умнее. Но не тут-то было! Свежее исследование, опубликованное в легендарном научном журнале Nature, преподнесло нам сюрприз почище, чем падение биткоина на 50%: оказывается, наши кремниевые собеседники с каждым днем становятся все глупее.

Ученые, видимо, решили подложить свинью Кремниевой долине и выпустили работу с говорящим названием «Рост масштаба и способности к обучению языковой модели приводит к падению ее надежности». Один из авторов исследования, Лексин Чжоу (Lexin Zhou), выдвинул интересную теорию. Оказывается, ИИ-модели так стараются выдать правдоподобный ответ, что забывают о такой мелочи, как точность. Главное — чтобы красиво звучало, а там хоть трава не расти!

И знаете, что самое забавное? Эти «галлюцинации» ИИ имеют свойство накапливаться и усиливаться со временем. Представьте себе снежный ком глупости, который катится с горы научного прогресса. А все потому, что новые модели учатся у старых, создавая настоящий «коллапс моделей». Прямо-таки семейное древо заблуждений!

Редактор и писатель Матье Руа (Mathieu Roy) предупреждает пользователей: не стоит слепо доверять этим кремниевым оракулам. «Хотя ИИ может быть полезен для ряда задач, важно проверять информацию, полученную от ИИ-моделей», — говорит он. А как насчет того, что «Часто нет способа проверить информацию, кроме как спросить у самого чат-бота»? Замкнутый круг какой-то получается, не находите?

А тут еще и Google подлил масла в огонь. В феврале 2024 года их ИИ-платформа начала генерировать исторически недостоверные изображения. Представьте себе: темнокожие нацистские офицеры и известные исторические личности с внешностью, от которой сами бы в гробу перевернулись.

Казалось бы, куда уж хуже? Но нет, индустрия не сдается! Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) предложил радикальное решение: «ИИ не должен просто отвечать; сначала он должен провести исследование, чтобы определить, какие из ответов лучшие». Прямо как в школьном сочинении — подготовка, анализ, выбор лучшего варианта. Только вот незадача: подобные меры уже используются в самых популярных моделях, а воз и ныне там.

В сентябре генеральный директор HyperWrite AI Мэтт Шумер (Matt Shumer) анонсировал разработку модели «Reflection 70B», заявив, что это «лучшая модель с открытым исходным кодом в мире». Якобы эта штука позволяет ИИ учиться на собственных ошибках и корректировать ответы со временем. Прямо как люди, только вот люди-то умнеют, а ИИ, судя по всему, наоборот.

Что ж, похоже, мечта о всезнающем электронном помощнике пока остается лишь мечтой. А нам, простым смертным, остается лишь надеяться, что в следующий раз, когда мы спросим у чат-бота, как приготовить борщ, он не посоветует добавить туда ананасы и соевый соус.

Самые интересные и важные новости на нашем канале в Telegram

Сообщение Академическое исследование показало: чат-боты постепенно глупеют появились сначала на Hash Telegraph.

RSS 06.10.2024 1 103
Источник: https://hashtelegraph.com/akademicheskoe-issledovanie-pokazalo-chat-boty-postepenno-glupejut/