Wear-Any-Way: 阿里最新“可控试衣”, 穿着方式由你定

AI最新资讯3个月前发布 tree
28 0 0

今日应用


今日话题


Wear-Any-Way: 阿里最新“可控试衣”, 穿着方式由你定
Wear-Any-Way: 阿里最新“可控试衣”, 穿着方式由你定
 

重点标签 虚拟试穿Wear-Any-Way阿里巴巴

文章摘要


[稀疏关系对齐/对应点控制][1/5]
[多场景试衣/搭配试穿][1/5]
[模型训练/点加权损失][1/5]

Wear-Any-Way: 可自由定制的虚拟试穿框架
本文介绍了一种名为Wear-Any-Way的新型虚拟试穿框架,由阿里巴巴拍立淘团队提出。该框架不仅能够生成高保真度的试穿结果,还支持用户对穿着方式进行精准控制。通过构建强大的标准虚拟试衣baseline,Wear-Any-Way能够在复杂情景中进行单个或多个服装的试穿。利用稀疏关系对齐方案,该方法允许用户通过点击和拖动等简单交互来控制服饰的具体穿着状态,如袖子的挽起、外套的开合等。

效果展示与背景
Wear-Any-Way支持用户输入控制点对,实现精准控制上身状态,为时尚行业的应用落地带来潜力。该框架还支持拖拽控制、自动控制以及单件多场景试衣和搭配多场景/各姿态试衣。虚拟试穿技术对时尚行业具有重要影响,为消费者提供沉浸式体验,同时为服饰商品拍摄提供新方式。以往的解决方案多有限制,Wear-Any-Way则解决了这些挑战,提供了更自由和灵活的服饰表达。

方法与实验
Wear-Any-Way的baseline由两个分支组成,主分支采用inpainting扩散模型,辅助分支使用CLIP图像嵌入和Reference U-Net提取服装特征。通过稀疏关系对齐模块,用户可以控制服饰上身状态。训练策略包括条件drop、零初始化和点加权损失等,以提高模型的可控性。实验结果显示,Wear-Any-Way在标准试衣设置下优于其他方案,并对穿着方式的控制能力进行了评测。

展望
Wear-Any-Way显著提升了虚拟试衣效果,支持多种服饰输入形式和目标模特状态,能够产出高质量的试衣结果。未来将进一步拓展试穿类目,实现对身材、风格、场景等维度的控制能力,以比拟专业模特的服饰展示效果。

[阅读原文](https://mp.weixin.qq.com/s/pt1i-L_EyDlWfBMaXKIj1hA)

文章来源


原文地址: 点我阅读全文
原文作者: 极市平台

© 版权声明

相关文章

暂无评论

暂无评论...