Код
#новости

NVIDIA выложила исходники системы для генерации лиц StyleGAN3. Что об этом думают в Сети

Уже можно поковыряться в сорцах, подтюнить настройки и наклепать себе кучу фотографий несуществующих людей и животных.

Код выложили на GitHub под собственной NVIDIA Source Code License, которая ограничивает коммерческое применение технологии.

Помимо исходников в GitHub проекта доступны уже готовые модели, которые тренировались на Flickr-Faces-HQ (FFHQ) — коллекции из 70 тысяч PNG-изображений лиц в разрешении 1024×1024, а также на коллекции лиц животных AFHQv2 и портретах классической живописи Metfaces.

Хотя изначально система рассчитана на генерацию лиц, её можно дообучить и синтезировать любые объекты — например, пейзажи или машины. Правда, чтобы поиграться с StyleGAN3, понадобится неслабое железо: карта NVIDIA (лучше GPU Tesla V100 или A100), минимум 12 ГБ ОЗУ, установленные PyTorch 1.9 и инструментарий CUDA 11.1+.

StyleGAN3 — система машинного обучения на основе GAN (генеративно-состязательной нейронной сети). Она умеет генерировать реалистичные изображения лиц людей. Она написана на Python с использованием фреймворка PyTorch, накладывающего ограничение на использование в коммерческих целях.

Вот что думают об этом посетители Reddit и HackerNews:

avivo: Мне понравился раздел «Определение искусственных изображений»: «Хотя новые подходы к генерации позволяют создавать новые возможности синтеза мультимедиа, они также могут стать новой проблемой для алгоритмов судебной экспертизы искусственного интеллекта для обнаружения и атрибуции синтетических носителей».

captainmuon: Я думаю, что «фотографическое доказательство» — это пережиток XX века (да и оно никогда не было идеальным — те, у кого есть ресурсы, всегда могли манипулировать фотографиями).

В качестве мысленного эксперимента было бы интересно представить, что происходит, когда мы научимся синтезировать любой образ, который только можно представить! Вначале это вызовет множество проблем (например, с оскорблениями и фейковыми новостями), но я верю, что общество быстро адаптируется к новой реальности. Я думаю, гораздо более серьёзная проблема — это то, что интернет знает о нас слишком много (повсеместная слежка и риск стать преследуемым за свои глупые поступки из прошлого). Так что было бы отлично, если перестали доверять любым изображениям.

Фото: HackerNews

monkeyofscience: NVIDIA делала StyleGAN2 на TensorFlow, но 3 — на PyTorch? Кто-нибудь знает, почему?

programmerChilli: NVIDIA (как и многие другие участники экосистемы исследователей) перешла с tensorflow на pytorch.

zimonitrome: Ждём StyleGAN4 в Jax?

programmerChilli: Ха-ха, вполне возможно — только если Jax станет таким же популярным, как PyTorch в сфере исследований. Но думаю, до этого ещё далеко. Ну и есть ещё одна проблема — это сама NVIDIA… Нет ни малейшего шанса, что они собираются тренировать свои нейросети на TPU.

Фото: Reddit

CyberDainz: «Весь этот проект затратил эквивалент 92 лет работы графического процессора и 225 МВт/ч электроэнергии на внутреннем кластере NVIDIA V100». Чёрт возьми!

dangnabbitdamnit: «225 МВт/ч электроэнергии». Да это ж 15 минут работы целого ядерного реактора. И правда, «чёрт возьми».

Mefaso: Это примерно 225 американских домохозяйств в год (они потребляют около 10 МВт/ч в год).



Изучайте IT на практике — бесплатно

Курсы за 2990 0 р.

Я не знаю, с чего начать
Научитесь: Профессия Python-разработчик Узнать больше
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована