现有虚拟试衣研究大都局限于简单姿态下的单件衣物试穿,其效果依赖衣物正面图像,实际应用受限。相较而言,跨体态虚拟试衣将完整服装迁移至目标人物,实用性显著提升,但受服装与姿态影响,试穿效果面临挑战。为解决姿态差异较大时跨体态试衣效果不佳的问题,提出了一种改进外观流网络来实现跨体态虚拟试衣技术。首先,引入Co-Attention注意力模块,通过特征之间的交互强化风格向量的特征表达;其次,利用通道注意力对服装特征信息进行加权,确保重要信息得到有效传递;最后,提出了全局外观流优化模块,采用可变形卷积替换模块中的传统卷积细化流估计。结果表明,基于改进的外观流网络能够在跨体态虚拟试衣场景下实现合理的服装形变,且结构相似性指标SSIM和Frechet起始距离FID相较于FS-VTON模型分别提升了4.8%和23.5%,实现了较好的试衣效果。