$VideoContentTcplayer$
盖世汽车讯 据外媒报道,在中国科学院合肥物质科学研究院刘勇教授的带领下,研究人员提出新框架,即基于视频片段的知识转移和关系上下文挖掘(Clip-based Knowledge Transfer and Relational Context Mining,CKT-RCM),以解决计算机视觉中的长尾分布问题。
图片来源:中科院
全景场景图(PSG)是场景图生成中的一个突出研究方向,需要图像中所有关系的全面输出以及目标定位的精确分割。PSG旨在通过计算机视觉模型提高对场景的理解,并支持场景描述和视觉推理等下游任务。
在这项研究中,研究人员探讨了人类如何感知物体关系,提出了两个关键观点。 人类通常根据常识或先验知识来预测客体关系,并根据主体和客体之间的上下文信息推断关系。
这些观点强调了利用先验知识的重要性:一种涉及使用人类先前观察到的外部数据来纠正数据偏差,而另一种则依赖于对象之间条件的先验分布。
“因此,我们认为充足的先验知识和背景信息对于PSG预测至关重要。”团队成员王帆博士表示。
他们开发了这个网络框架CKT-RCM。基于预训练的视觉语言模型CLIP,CKT-RCM有助于PSG过程中的关系推理。它集成了交叉注意力机制来提取关系上下文,确保关系预测中价值和质量之间的平衡。这项研究有助于机器人和自动驾驶车辆对场景的理解和感知。
*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。
本文地址:https://auto.gasgoo.com/news/202405/15I70392336C409.shtml
联系邮箱:info@gasgoo.com
求职应聘:021-39197800-8035
简历投递:zhaopin@gasgoo.com
客服微信:gasgoo12 (豆豆)
新闻热线:021-39586122
商务合作:021-39586681
市场合作:021-39197800-8032
研究院项目咨询:021-39197921