Похоже, что гонка искусственного интеллекта выходит на новый уровень, и теперь в ней участвуют не только техногиганты, но и правительственные структуры. Министерство торговли США решило не оставаться в стороне и заключило соглашение с OpenAI и Anthropic — компаниями, стоящими за ChatGPT и Claude. Что происходит? Национальный институт стандартов и технологий США (NIST) объявил о начале… Сообщение «Большой брат» для искусственного интеллекта: OpenAI и Anthropic согласились на государственный аудит появились сначала на Hash Telegraph.
Похоже, что гонка искусственного интеллекта выходит на новый уровень, и теперь в ней участвуют не только техногиганты, но и правительственные структуры. Министерство торговли США решило не оставаться в стороне и заключило соглашение с OpenAI и Anthropic — компаниями, стоящими за ChatGPT и Claude.
Национальный институт стандартов и технологий США (NIST) объявил о начале сотрудничества с ведущими разработчиками ИИ в рамках недавно созданного Института безопасности искусственного интеллекта (AISI). Звучит как очередная бюрократическая структура, но на деле это может стать поворотным моментом в развитии технологий ИИ.
Цель соглашения — дать правительственным экспертам доступ к новым моделям ИИ еще до их публичного релиза. Представьте, что вы получаете возможность заглянуть за кулисы главного технологического шоу современности. Именно это и произойдет: AISI сможет оценить возможности и риски ИИ-моделей до того, как они попадут в руки обычных пользователей.
Элизабет Келли (Elizabeth Kelly), директор AISI, не скрывает оптимизма:
«Безопасность — ключевой фактор для прорывных инноваций. Эти соглашения — только начало, но они являются важной вехой в нашей работе по ответственному управлению будущим ИИ».
Джек Кларк (Jack Clark), соучредитель Anthropic, также поддерживает инициативу:
«С нетерпением ждем возможности провести предварительное тестирование нашей следующей модели с U.S. AISI. Тестирование третьей стороной — важнейшая часть экосистемы ИИ».
Сэм Альтман (Sam Altman), генеральный директор OpenAI, тоже не остался в стороне:
«Мы рады, что достигли соглашения с Институтом безопасности ИИ США о предварительном тестировании наших будущих моделей. По многим причинам мы считаем важным, чтобы это происходило на национальном уровне».
Вопрос безопасности ИИ сейчас стоит как никогда остро. Многие ведущие эксперты и руководители покинули OpenAI из-за опасений по поводу ее практик, некоторые даже основали конкурирующие компании, ориентированные на более осторожный подход к разработке ИИ.
Правительства тоже обеспокоены. AISI был создан в октябре 2023 года администрацией Байдена после издания масштабного указа, направленного на регулирование разработки искусственного интеллекта. В феврале этого года были объявлены первые участники консорциума AISIC, куда вошли такие гиганты, как OpenAI, Anthropic, Google, Apple, NVIDIA, Microsoft и Amazon.
AISI планирует делиться результатами своих исследований с европейскими коллегами из британского Института безопасности ИИ. Это может стать началом глобального сотрудничества в области регулирования и безопасности искусственного интеллекта.
Похоже, что эра бесконтрольного развития ИИ подходит к концу. Теперь за каждым шагом техногигантов будут следить правительственные эксперты. Остается надеяться, что это приведет к более безопасному и ответственному развитию технологий, а не к бюрократическим проволочкам и замедлению прогресса.
Самые интересные и важные новости на нашем канале в Telegram
Сообщение «Большой брат» для искусственного интеллекта: OpenAI и Anthropic согласились на государственный аудит появились сначала на Hash Telegraph.