中山大学&字节智创数字人团队提出了一个名为MMTryon的虚拟试穿框架,可以通过输入多个服装图像及指定穿法的文本指令来生成高质量的组合试穿结果。

比如选中一件大衣、一条裤子,再配一个包,用语言描述穿法,“啪”的一键就穿到了人像上:
16160656-2024-07-16T08:06:09.png
无论是真人图像又或是漫画人物,都能一键按照搭配试穿衣服:
16160444-2024-07-16T08:04:32.png
对于单图换装,MMTryon有效利用了大量的数据设计了一个表征能力强大的服装编码器,使得该方案能处理复杂的换装场景及任意服装款式;
16160521-2024-07-16T08:04:50.png

在基准测试中,MMTryon直接拿下了新SOTA,这成绩可不是盖的。研究团队还搞了个多模态多参考注意机制,让换装效果更精确、更灵活。以前的虚拟试穿方案,要么只能试穿单件,要么对着装风格束手无策。但现在,MMTryon统统给你解决。

而且,MMTryon还特别聪明,它用了一个表征能力丰富的服装编码器,加上新颖的可扩展数据生成流程,让换装过程无需任何分割,直接通过文本和多个试穿对象就能实现高质量虚拟换装。

在开源数据集和复杂场景下的大量实验证明,MMTryon在定性和定量上都优于现有的SOTA方法。研究团队还预训练了一个服装编码器,利用文本作为query,激活文本对应区域的特征,摆脱了对服装分割的依赖。

更牛的是,为了训练组合换装,研究团队提出了一个基于大模型的数据扩增模式,构建了100w的增强数据集,让MMTryon在各种类型的换装上都能有真实的虚拟试穿效果。

MMTryon就像是一个时尚界的黑科技,不仅能帮你一键试穿,还能作为一个fashion换装辅助设计,帮你挑衣服。在量化指标和Human evaluation上,MMTryon都超越了其他baseline模型,效果杠杠的。
16160727-2024-07-16T08:07:03.png

论文:https://arxiv.org/pdf/2405.00448
项目:https://zhangxj59.github.io/MMTryon.github.io/