这项工作设计了一项训练策略,允许从描述目标对象的一组视图产生高级知识。我们提出了Views Knowledge Distillation (VKD),将这种visual variety (视觉多样性)固定为teacher-student框架中的监督信息号,其中老师教育观察较少视图的学生。结果,学生不仅在表现在超过了老师,还在image-to-video任务中成为了SOTA。
Auto Byte
专注未来出行及智能汽车科技
微信扫一扫获取更多资讯
Science AI
关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展
微信扫一扫获取更多资讯
这项工作设计了一项训练策略,允许从描述目标对象的一组视图产生高级知识。我们提出了Views Knowledge Distillation (VKD),将这种visual variety (视觉多样性)固定为teacher-student框架中的监督信息号,其中老师教育观察较少视图的学生。结果,学生不仅在表现在超过了老师,还在image-to-video任务中成为了SOTA。
针对现有工作中存在的错误伪标签问题,文章通过优化样本间的相似性度量和伪标签置信度评估策略来改善这个问题,从而提供模型性能。具体地,文章提出了方差置信度的概念,并设计了方差二次采样算法将方差置信度和距离置信度结合起来作为采样准则,同时还提出了方差衰减策略来更好了优化选择出来的伪标签样本。最终,该方法将MARS数据集上的mAP和Rank1分别提高了 3.94%和4.55%。
实验表明,文章框架在Market-1501(mAP 42.7%)和DukeMTMC-Reid数据集(mAP 40.3%)取得了最先进的Re-ID性能。
本文为卡耐基梅隆大学Probabilistic Graphical Models 课程中 Elements of Meta-Learning 关于元学习和元强化学习部分的内容讲解,包括元学习的基础介绍和元强化学习的元素介绍两个部分。
本文为卡耐基梅隆大学深度学习基础课Probabilistic Graphical Models课程中 Statistical and Algorithmic Foundations of Deep Learning 部分的内容,报告人为Eric Xing