Свежая выжимка ml и AI статей - каждый день
В последние годы область генерации изображений претерпела значительные изменения благодаря достижениям в области латентных диффузионных моделей (LDM). Одним из наиболее захватывающих направлений является создание виртуальных примерок одежды, которое позволяет пользователям видеть, как различные предметы одежды будут выглядеть на них. В этой статье мы рассмотрим метод AnyDressing, который предлагает настраиваемую виртуальную примерку с использованием многообразия одежды и текстовых подсказок.
AnyDressing представляет собой новую методологию, направленную на решение задачи многообразной виртуальной примерки (Multi-Garment Virtual Dressing). Эта задача включает в себя создание изображений персонажей, одетых в любые комбинации целевых предметов одежды, основываясь на текстовых подсказках или других условиях. Проблемы, с которыми сталкиваются существующие методы, включают:
AnyDressing состоит из двух основных сетей: GarmentsNet и DressingNet.
GarmentsNet отвечает за извлечение детализированных характеристик одежды. Он включает в себя модуль, называемый Garment-Specific Feature Extractor (GFE), который использует параллельные слои самовнимания для индивидуального кодирования текстур одежды. Эта архитектура позволяет избежать смешивания одежды и обеспечивает эффективность сети.
DressingNet интегрирует извлеченные характеристики для виртуальной примерки с использованием механизма Dressing-Attention и стратегии обучения Instance-Level Garment Localization (IGL). Dressing-Attention позволяет эффективно интегрировать текстурные подсказки в синтетические изображения, а IGL гарантирует, что каждая характеристика одежды фокусируется на соответствующей области изображения.
AnyDressing обучается на наборе данных, состоящем из триплетов изображений, где каждое изображение включает в себя модель, одетую в определенные предметы одежды. Используя модели человеческого парсинга, система извлекает отдельные предметы одежды и создает триплеты для обучения.
При генерации изображения AnyDressing использует текстовые подсказки, чтобы адаптировать внешний вид персонажа. Это включает в себя использование механизма Dressing-Attention для интеграции характеристик одежды в процессе денойзинга.
В ходе экспериментов AnyDressing показал превосходные результаты как в количественном, так и в качественном отношении по сравнению с существующими методами. Модели были протестированы на различных наборах данных, и результаты подтверждают, что AnyDressing превосходит традиционные методы в задачах многообразной виртуальной примерки.
Визуальные результаты, полученные с использованием AnyDressing, демонстрируют высокую степень согласованности в текстуре и стиле одежды, а также точное соответствие текстовым подсказкам. Это подтверждается пользователями, которые предпочли результаты AnyDressing в сравнении с другими методами.
AnyDressing была оценена по нескольким метрикам, включая текстурную согласованность и соответствие текстовым подсказкам. Результаты показали, что AnyDressing значительно превосходит существующие методы, как в единичной, так и в многообразной виртуальной примерке.
AnyDressing представляет собой значительный шаг вперед в области виртуальной примерки одежды. Благодаря инновационным архитектурным решениям и эффективным механизмам интеграции, этот метод позволяет пользователям легко комбинировать различные предметы одежды и получать высококачественные изображения, соответствующие их запросам. Это открывает новые возможности для применения в сфере электронной коммерции и креативного дизайна, предоставляя пользователям уникальный опыт виртуальной примерки.