Исследователи из Google Research использовали обучение с подкреплением для ускорения создания чипов с нескольких месяцев до шести часов. По их словам, искусственный интеллект не уступает опытным инженерам. Last year we shared how #ReinforcementLearning could hasten the design of accelerator chips (https://t.co/7KqG2pqTqh). Today we're publishing improved methods, which we've used in production to design the next generation of Google TPUs. Read more in Nature https://t.co/gOQVmbWdeV— Google AI (@GoogleAI) June 9, 2021 Для достижения такого результата исследователи превратили проектирование чипа в игру. Компоненты процессора выступили в роли фишек, а холст, на котором они расположены, обозначили как игральную доску. Производительность чипа оценивали с помощью показателей, основанных на базовых наборах данных о размещении 10 000 фишек. В «игре» побеждала та модель, которая показала максимальную эффективность, рассказали в Google. Инженеры обнаружили, что за шесть часов алгоритмы разработали чипы, которые не уступали, а иногда и превосходили образцы, спроектированные людьми в течение нескольких месяцев. «Наш метод позволяет создавать технологические планы изготовления микросхем менее чем за шесть часов, по сравнению с самым надежным исходным уровнем, который требует месяцев интенсивных усилий со стороны экспертов-людей», — говорится в исследовании. Разработчики подчеркнули, что их подход не только экономит время, но и улучшает качество разработок. Они добавили, что уже применили метод при проектировании тензорного процессора TPUv4, представленного в мае 2021 года. Впервые Google сообщила, что экспериментирует с искусственным интеллектом для разработки чипов в 2020 году. Напомним, в мае ученые представили суперкомпьютер Perlmutter для искусственного интеллекта, который поможет построить самую большую в истории 3D-карту видимой Вселенной. В начале мая года исследователи разработали ИИ, который моделирует Вселенную на одном графическом процессоре в 1000 раз быстрее существующих методов. В апреле ученые представили механизм глубокого обучения, который работает на центральном процессоре и тренирует нейронные сети в 15 раз быстрее, чем на платформах с видеоускорителями. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!