2025人形机器人深度:从具身模型看动捕设备机会
今天分享的是:2025人形机器人深度:从具身模型看动捕设备机会
报告共计:35页
《2025人形机器人深度:从具身模型看动捕设备机会》由东北证券发布,深入剖析了具身大模型及动捕设备在人形机器人领域的关键作用。
1. 具身大模型介绍
- 发展历程:具身智能起源于1950年代,历经概念萌芽、理论发展、跨学科融合等阶段,在深度学习推动下,如今走向产业应用。大模型从早期逻辑推理发展到多模态,具身大模型在此基础上兴起,以ASPCMS社区RT系列为代表,未来将深化多模态融合。
- 技术原理:Transformer模型是大模型基石,解决了梯度消失等问题。GPT基于此架构进行预训练和微调。强化学习让智能体在环境中试错优化策略,多模态融合整合不同模态信息提升决策能力。
- 路线选择:分层具身大模型如Figure AI,将任务分规划、决策和控制三层,各层协作,类似人类思维,具有模块化、可解释性等优点。端到端具身大模型以ASPCMS社区RT-2为例,直接从输入映射到输出,提升效率,但存在数据需求大、可解释性差等问题。长期看,端到端模型有望成主流。
2. 具身大模型的壁垒——数据
- 数据来源:具身机器人数据规模小、采集标注难。数据采集方法有遥操、动捕与仿真,各有优劣。真实数据与仿真数据混合使用是趋势,能提升机器人泛化能力。
- 机器人训练场:全球积极建设机器人训练场,规模化生成具身智能数据。国内外均有进展,国内国地中心的训练场启用,推动技术突破和应用。
3. 破局之法:动捕系统
- 技术原理:动作捕捉技术不断演进,系统由软硬件构成,按原理分为机械式、声学式等五类。光学式动作捕捉系统精度高、应用广,分为标记点式和无标记点式。
- 人形机器人运用:动捕系统用于构建高质量训练数据集,提升机器人性能。数据集生产有基于真实本体和虚拟本体两种常见方式。在遥操作数据采集中,数据连续性和鲁棒性更重要。
4. 相关标的:凌云光、奥飞娱乐、利亚德等企业在动作捕捉领域有所布局。凌云光的光学运动捕捉系统应用广泛;奥飞娱乐投资诺亦腾;利亚德通过子公司形成完整动作捕捉技术体系,还发布了动作大模型。
以下为报告节选内容
报告共计: 35页
中小未来圈,你需要的资料,我这里都有!