@Shizoid

Как сгенерировать текстуру похожую на образец с помощью нейросети Stable Diffusion?

Всем привет. У меня есть маленький фрагмент текстуры дерева с сучком и волокнами. 64251f947ceb7913647935.jpeg
Нужно замостить этой текстурой 3D модель превышающую по размерам этот кусочек. Большая деревянная доска.
Нужно использовать именно эту текстуру с нюансами, скачать похожую из интернета не годится.
Просто замостить модель не годится будет некрасивое повторение рисунка текстуры.

У меня Stable Diffusion. На комп установлены две NMKD и вторая "AUTOMATIC1111" (stable-diffusion-webui)
я пробовал поиграться в разделе img2img но результат неудовлетворительный.

Вопросы; как сделать?
Первый вариант.
Как то её нарастить по краям в нейросети. Подскажите пожалуйста как это сделать какие настройки нужны? Читал про outpainning и inpainting но не получилось.

Второй вариант (предпочтительней). Видоизменить образец текстуры.
Мог бы нарастить все в ручную в фотошопе к исходной картинке, но для этого нужно сгенерировать несколько семплов текстуры с чуть другим рисунком волокон и например без сучка, как если бы сфотографировали другой участок деревяшки-источника текстуры, но чтобы в остальном текстура была точно с тем же характером текстуры, теми же оттенками, четкостью, зернистостью, волнистостью волокон и тд.

То есть мне нужно что бы нейросеть взяла исходную картинку и на его основе переиграла текстуру в альтернативную как будто сделали фотографию текстуры с другого участка древесины.

Подскажите пожалуйста как это сделать.
  • Вопрос задан
  • 230 просмотров
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы