Некоммерческая организация OpenAI заявила о снижении предвзятости и улучшении безопасности в последнем обновлении генератора изображений DALL-E 2. https://twitter.com/OpenAI/status/1549153623342387200 По словам представителей организации, новая методика позволяет алгоритму генерировать изображения людей, более точно отражающие разнообразие населения мира. «Этот метод применяется на системном уровне, когда DALL-E выдается подсказка с описанием человека без указания расы или пола, например “пожарный”», — говорится в пресс-релизе. Изображение пожарного, сгенерированное DALL-E 2 до обновления (слева) и после (справа). Данные: OpenAI. В результате тестирования новой методики пользователи в 12 раз чаще говорили, что изображения DALL-E включали людей разного происхождения, заявили в компании. «Мы планируем улучшить эту технику с течением времени, поскольку мы собираем больше данных и отзывов», — добавили в OpenAI. Организация запустила предварительную версию DALL-E 2 для ограниченного числа людей в апреле 2022 года. Разработчики считают, что это позволило им лучше понять возможности и ограничения технологии и улучшить системы безопасности. По словам OpenAI, за время исследования они предприняли другие шаги для улучшения генератора, в том числе: свели к минимуму риска неправомерного использования DALL-E для создания дипфейков;блокировали подсказки и загружаемые изображения, нарушающих политику в отношении контента;усовершенствовали системы защиты от неправомерного использования. В OpenAI заявили, что благодаря этим изменениям они смогут открыть алгоритм для большего числа пользователей. «Расширение доступа — важная часть нашего ответственного развертывания систем ИИ, поскольку оно позволяет нам больше узнать об их использовании в реальных условиях и продолжить совершенствовать наши системы безопасности», — отметили разработчики. Напомним, в июле исследователи выяснили, что пользователи не отличают изображения, созданные нейросетью и человеком. В январе OpenAI выпустила новую версию языковой модели GPT-3, которая производит меньше оскорбительных выражений, дезинформации и ошибок в целом. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!