当前位置: 首页 > news >正文

灵璧县住房和城乡建设局网站asp化妆品网站源码

灵璧县住房和城乡建设局网站,asp化妆品网站源码,学校网站 建设措施,安徽海川建设公司网站下载PDF或者阅读论文,请点击查看:LlamaFactory - huggingface daily paper - 每日论文解读 | LlamaFactory | LlamaFactory 摘要 中文 在这篇论文中,我们提出了一种高效的多级卷积架构,用于3D视觉定位。传统的由于采用两阶段或基…

下载PDF或者阅读论文,请点击查看:LlamaFactory - huggingface daily paper - 每日论文解读 | LlamaFactory | LlamaFactory

摘要

中文

在这篇论文中,我们提出了一种高效的多级卷积架构,用于3D视觉定位。传统的由于采用两阶段或基于点的架构,难以满足实时推理的要求。受多级全稀疏卷积架构在3D目标检测中成功应用的启发,我们旨在遵循这一技术路线构建一个新的3D视觉定位框架。然而,在3D视觉定位任务中,3D场景表示应与文本特征进行深度交互,由于大量体素特征,基于稀疏卷积的架构在此交互中效率低下。为此,我们提出了文本引导剪枝(TGP)和基于补全的添加(CBA),通过逐步区域剪枝和目标补全,以高效的方式深度融合3D场景表示和文本特征。具体来说,TGP迭代地稀疏化3D场景表示,并通过交叉注意力有效地使体素特征与文本特征交互。为了减轻剪枝对精细几何信息的影响,CBA通过体素补全自适应地修复过度剪枝的区域,而计算开销可以忽略不计。与之前的单阶段方法相比,我们的方法实现了最高的推理速度,速度比之前最快的方法提高了100% FPS。即使与两阶段方法相比,我们的方法也实现了最先进的精度,在ScanRefer上的Acc@0.5领先了+1.13,在NR3D和SR3D上分别领先了+2.6和+3.2。代码可在https://github.com/GWxuan/TSP3D上获取。

English

In this paper, we propose an efficient multi-level convolution architecture for 3D visual grounding. Conventional methods are difficult to meet the requirements of real-time inference due to the two-stage or point-based architecture. Inspired by the success of multi-level fully sparse convolutional architecture in 3D object detection, we aim to build a new 3D visual grounding framework following this technical route. However, as in 3D visual grounding task the 3D scene representation should be deeply interacted with text features, sparse convolution-based architecture is inefficient for this interaction due to the large amount of voxel features. To this end, we propose text-guided pruning (TGP) and completion-based addition (CBA) to deeply fuse 3D scene representation and text features in an efficient way by gradual region pruning and target completion. Specifically, TGP iteratively sparsifies the 3D scene representation and thus efficiently interacts the voxel features with text features by cross-attention. To mitigate the affect of pruning on delicate geometric information, CBA adaptively fixes the over-pruned region by voxel completion with negligible computational overhead. Compared with previous single-stage methods, our method achieves top inference speed and surpasses previous fastest method by 100\% FPS. Our method also achieves state-of-the-art accuracy even compared with two-stage methods, with +1.13 lead of Acc@0.5 on ScanRefer, and +2.6 and +3.2 leads on NR3D and SR3D respectively. The code is available at https://github.com/GWxuan/TSP3D{https://github.com/GWxuan/TSP3D}.

论文解读

一句话总结

本文提出了一种基于文本引导的稀疏体素剪枝(TGP)方法,用于高效的三维视觉定位,通过多级稀疏卷积架构和深度融合3D场景表示与文本特征,实现了实时的高精度三维视觉定位。

问题1:这篇论文想要解决什么具体问题?

  • 问题背景:三维视觉定位(3DVG)在机器人、AR/VR等领域应用广泛,但现有方法在实时性方面存在挑战。

  • 现有方案不足:现有的两阶段方法计算成本高,难以实现实时性;单阶段方法基于点云架构,计算量大,难以达到实时性能。

  • 研究目标:提出一种高效的单阶段三维视觉定位方法,实现高精度和实时性的平衡。

问题2:论文的核心创新点是什么?

  • 技术创新:提出了基于多级稀疏卷积架构的三维视觉定位框架。

  • 方法改进:提出了文本引导的剪枝(TGP)和基于补全的添加(CBA)方法,用于高效融合3D场景表示和文本特征。

  • 优势:相比现有方法,TSP3D在精度和速度上均有显著提升,在ScanRefer数据集上达到最高的准确率,并在NR3D和SR3D数据集上分别领先2.6和3.2。

问题3:实验结果如何验证了方法的有效性?

  • 关键实验:在ScanRefer和ReferIt3D数据集上进行了广泛实验。

  • 性能提升:TSP3D在ScanRefer数据集上Acc@0.5达到56.45%,超越了之前最快的单阶段方法,速度提升100% FPS。

  • 对比结果:TSP3D在NR3D和SR3D数据集上分别领先2.6和3.2,达到了最先进的准确率。

问题4:这个研究的实际应用价值是什么?

  • 应用场景:适用于机器人、AR/VR等需要实时三维视觉定位的场景。

  • 实施建议:采用TSP3D框架,结合实际应用场景进行定制化调整。

  • 局限与展望:TSP3D的实时性相比TSP3D-B略有下降,未来将设计新的多模态特征交互操作,并考虑将输入扩展到在线RGB-D视频。

http://www.yayakq.cn/news/181214/

相关文章:

  • 网页与网站之间的关系公司做网页推广要多少钱
  • 绵阳网络公司网站建设营业执照几年不审自动注销
  • 查看公司信息的网站网站需求文档
  • 投诉百度最有效的电话百度seo优化培训
  • asp简单网站开发韩国优秀平面设计网站
  • 静安郑州阳网站建设网站建设太原
  • 花钱做网站注意怎么黑网站的步骤
  • 有哪些比较好的做ppt好的网站绍兴网页设计
  • 网站建设网站建设刷关键词排名系统
  • 关于色彩搭配的网站网站风格特点
  • app网站开发培训重庆做公司网站
  • 做催收的网站如何使用ftp上传网站
  • 简单网站首页wordpress引入qq咨询
  • 环保网站开发国内搜索引擎有哪些
  • 金融网站建设方案ppt模板建了网站怎么装饰
  • 网站维护需要多久时间大学网站建设的目标与思路
  • 昆明做网站价格余姚的网站建设
  • 做网站案例彩票网站制作
  • 网站生成静态东莞房价会跌吗
  • 柯林wap建站seo常用优化技巧
  • 嘉定网站网站建设软件商城源码
  • 网站建设用户体验wordpress降级插件
  • 深圳房产网站建设网站建设哪家好首选万维科技
  • 前端程序员工资一般多少seo网络推广公司报价
  • 仁怀哪里有做网站的wordpress 作者函数
  • 重庆建设岗位培训网站做暖暖视频网站有哪些
  • 网站做多长时间才会有流量wordpress加入会员
  • pc网站建设怎么样天津哪里可以做网站
  • 门户网站的建设意义文化建设 设计公司网站
  • 手机网站怎么做域名解析手机网址进不去怎么设置