Header Background
Улучшение 3D-визуализаций с помощью ИИ Stable Diffusion
3dmetria's avatar Администратор Администратор
3dmetria

Художественная среда в 3D графике!

Улучшение 3D-визуализаций с помощью ИИ Stable Diffusion

Всем привет! Я Виктор Престая, и последние 10 лет я занимаюсь визуализациями интерьеров и экстерьеров. Сегодня я хотел бы рассказать о том, как можно улучшить 3D-рендеры с помощью Stable Diffusion.


Stable Diffusion обычно используется через интерфейс Automatic 1111 — одну из самых популярных и удобных платформ. Она позволяет генерировать изображения по текстовым описаниям, а также работать напрямую с вашими рендерами с помощью режимов Img2img и Img2img Inpaint.


Более подробное объяснение того, что такое модели, Img2img, Inpaint и VAE, вы можете посмотреть в этом видео:



так же тут не много информации:



Помимо Stable Diffusion, существуют и другие нейросети, такие как Invoke или ComfyUI, и вы можете выбрать ту, которая лучше всего подходит под ваш рабочий процесс.



Как 3D-визуализаторы, мы часто тратим много времени на добавление людей в рендеры. Для средних и дальних планов мы обычно используем 3D-сканы, а для крупных планов вставляем вырезанных персонажей (cutout people).


С помощью режима Inpaint в Stable Diffusion мы можем доработать 3D-сканы людей на переднем плане и сделать их более реалистичными. При необходимости можно даже улучшить вырезанные фигуры.


Например, на переднем плане были использованы 3D-сканы людей, которые затем были доработаны с помощью режима Inpaint. Тот же подход можно применить к таким элементам, как огонь, дерево, бетон и другим, что позволяет сэкономить время на детальной обработке непосредственно в 3ds Max.



В следующем примере были улучшены два 3D-скана, а также вырезанные изображения кошки и мыши вместе с их материалами.



Чтобы сохранить творческий контроль и оставаться максимально близким к исходной задумке, вы можете использовать модели ControlNet, которые обеспечивают беспрецедентный уровень точности при работе с изображениями. Подробнее об этом вы можете узнать в этом видео:



так же и тут можно посмотреть:



Самыми полезными моделями являются Canny и Line Art, которые помогают управлять формами. Canny лучше всего работает с контурами, а Line Art — с остальными элементами. Их также можно комбинировать.



Также стоит обратить внимание на функцию SD Upscale в Stable Diffusion:



так же и тут:



С помощью этих новых инструментов мы можем тратить меньше времени на технические детали и больше сосредотачиваться на креативе. Например, можно начать с базового рендера, немного доработать его в Photoshop, а затем улучшить в Stable Diffusion.







Хотя волшебной кнопки, которая сделает всё за нас, пока не существует — режим Inpaint всё ещё может занимать много времени, требуя хорошо подготовленного исходного изображения и нескольких прогонов для получения нужного результата — это всё же быстрее, чем создавать всё с нуля в 3D.


Одно можно сказать точно: будущее будет захватывающим и непредсказуемым. Нейросети принесут серьёзные изменения в наш рабочий процесс. Уже сегодня они могут помогать нам с референсами, идеями, доработкой рендеров и даже созданием видео.


Спасибо за внимание! Рад поделиться своим опытом. Подробнее о моих работах вы можете узнать в моём профиле на Behance: https://www.behance.net/3d_ellesare41c


___________________________

АВТОР: Viktor Prestaya

ИСТОЧНИК: cgaward.com.ua

×
« »