3 min read
[AI 小众新闻]

阿里巴巴推出身体性AI「RynnBrain」!理解物理空间并操控机器人新星!


阿里巴巴的DAMO Academy发布了一款基于物理现实的身体性基础模型「RynnBrain」。同时推出了包括MoE在内的多种模型,专注于机器人的行为规划和导航。

※この記事はアフィリエイト広告を含みます

[AI小新闻] 阿里巴巴推出身体性AI「RynnBrain」!理解物理空间并操控机器人新星!

📰 新闻概述

  • 基于物理现实的身体性基础模型: 阿里巴巴的DAMO Academy发布了专注于视频理解和物理空间推理的「RynnBrain」。
  • 多样化的模型阵容: 除了20亿(2B)和80亿(8B)的Dense模型外,还提供300亿(30B-A3B)的混合专家(MoE)模型。
  • 三款专用模型: 同时发布了针对机器人任务规划(Plan)、视觉语言导航(Nav)和链式点推理(CoP)的后期训练模型。

💡 重要要点

  • 全面的一人称视角理解: 在理解自我中心(一人称)视频方面表现出色,在embodied QA、计数、OCR等任务中展现出高性能。
  • 时空定位能力: 能够准确识别和注释图像或视频中的特定对象、区域,甚至运动轨迹。
  • 物理空间推理机制: 采用文本推理与空间位置交替进行的策略,实现在现实环境中适应思维过程。

🦈 鲨鱼的眼(策展人视点)

身体性AI(Embodied AI)正在迅速发展!这次的RynnBrain不仅仅是识别图像,它还能够从视频中推导出“哪里有什么,应该如何移动”的物理轨迹。尤其是能够精确定位“可操作性(物体的操作可能性)”的位置,对于机器人实际应用而言,这是一个非常具体且强大的方法!在基于Qwen3-VL的同时,提供MoE架构,兼顾了通用性和专业性,显示出阿里巴巴的诚意。机器人“脑子”的智能正在不断提升!

🚀 接下来会怎样?

机器人将能够理解复杂指令,即使在未知环境中也能根据物理法则制定准确的行为规划。未来,RynnBrain-VLA系统将进一步整合更高级的层次控制。

💬 鲨鱼视点的一句话

机器人追踪鲨鱼的动作的日子是不是不远了?期待AI在物理空间中游刃有余的表现!🦈🔥

📚 术语解说

  • 身体性AI(Embodied AI): 拥有物理实体(如机器人),并通过与环境互动而学习和行动的AI。

  • 混合专家(MoE): 结合多个专业网络(专家),根据输入选择最优的进行处理,从而提高效率的AI结构。

  • VLA(视觉-语言-行动): 结合视觉信息与自然语言指令,直接输出机器人等的动作(行为)模型。

  • 信息来源: RynnBrain

【免責事項 / Disclaimer / 免责声明】
JP: 本記事はAIによって構成され、運営者が内容の確認・管理を行っています。情報の正確性は保証せず、外部サイトのコンテンツには一切の責任を負いません。
EN: This article was structured by AI and is verified and managed by the operator. Accuracy is not guaranteed, and we assume no responsibility for external content.
ZH: 本文由AI构建,并由运营者进行内容确认与管理。不保证准确性,也不对外部网站的内容承担任何责任。
🦈