赋予机器人思考能力!北大提出自纠正多模态大模型,赋能端到端机器人操作
赋予机器人思考能力!北大提出自纠正多模态大模型,赋能端到端机器人操作
机器人操作策略在面对新的任务或对象时,往往表现出不理想的动作表现。因此,具备自动检测和自我纠正失败动作的能力对于一个实用的机器人系统至关重要。最近,多模态大模型(MLLMs)在视觉指令执行方面表现出色,并在各种任务中展示了强大的推理能力。
为了构建机器人的大脑并模仿人类的思维方式,本文创新性地引入了一个机器人自我纠正多模态大模型,名为 Self-Corrected (SC) -MLLM。在机器人场景中,我们的工作首次实现了利用多模态大模型同时预测机械臂末端执行器的操纵位姿,并能自主识别和纠正失败的操作动作。除此之外,基于成功纠正的样本,SC-MLLM 还能进行持续性策略学习,构建了首个闭环自纠正机器人操纵代理框架。
该项目由北京大学的仉尚航团队(HMI 实验室)研究,作者包括北京大学博士生刘家铭、李忱轩、王冠群等。HMI 实验室长期致力于机器学习、多模态学习和具身智能领域的研究。
研究背景
最近,多模态大模型(MLLMs)在视觉指令执行和常识推理方面展示了显著的能力。一些研究将 MLLMs 整合到机器人操作中,使机器人能够探索多模态信息并制定任务计划。同时,其他研究人员则专注于开发能够直接预测机器人低级动作轨迹的 MLLMs。尽管将多模态大模型整合到机器人领域已经显示出很有前景的进展,但当前的模型在面对新任务或对象实例时仍然容易出现大量失败预测。
认识到自我纠正在机器人操作中的关键作用,最近的研究提出了一些解决方案。REFLECT 通过利用 LLMs 生成故障解释并帮助基于语言的规划器纠正错误而脱颖而出。在此创新的基础上,后续研究更深入地探讨了 LLMs 在机器人纠正能力方面的应用,纠正了高级任务规划和低级技能。然而,现有的机器人纠正方法仍面临两个主要挑战。
1)缺乏纠正低级操纵位姿预测的能力。现有方法可以纠正低级技能原语,例如生成“向右移动一点”的语言提示。然而,这些提示往往难以被动作模型理解并转换为具体的位姿。此外,它们无法直接纠正完成操作任务所必需的原子任务的位姿预测。
2)缺乏从纠正反馈中学习的能力。当前的纠正框架无法从成功的纠正案例中学习和改进策略预测。当遇到类似的故障时,它们仍然依赖外部专家(如 GPT-4),这限制了它们的实用性和可持续发展
因此,为了将通用的多模态大模型(MLLMs)作为端到端的机器人代理,我们首次引入了自我纠正,Self-Corrected(SC)-MLLM,创新性的使模型能够预测末端执行器的姿态,还能自主识别和纠正失败的动作。
自纠正多模态大模型(SC-MLLM)
模型结构设计
如下图 2 所示,我们采用 LLaMA-Adapter V2 作为基础的多模态大模型(MLLM),通过 CLIP 视觉编码器提取 RGB 图像的视觉特征,并使用预训练的 LLaMA 分词器对文本提示进行编码。
我们的 MLLM 通过一个投影层将视觉特征与 LLM 的嵌入空间对齐,使 LLaMA 能够进行多模态理解并生成相应的答案。在训练过程中,我们仅对 LLM 中的注入适配器进行微调,同时保持主要的预训练参数不变,以保留现有 MLLM 的强大能力并增强模型在操纵和失败纠正方面的功能。
图2. 自纠正多模态大模型框架及训练范式
操纵位姿预测
为了实现赋予 SC-MLLM 精准生成执行器末端位姿的能力,在预收集训练数据过程中,我们在模拟器中捕捉 RGB 图像及其对应的成功操纵末端执行器姿势。
在微调阶段,如上图 2 Step 1 所示的位姿预测提示,我们将输入文本提示结构化为 “Predict the contact point and orientation for pushing/pulling the object.” 答案格式被指定为:“The contact point is [, ], the gripper up 3D direction is [, , ], and the gripper forward 3D direction is [, , ].”。
在推理过程中,我们的 SC-MLLM 专注于预测图像上接触像素的 2D 坐标 [x, y],然后利用深度信息将其转换为 3D 坐标。同时,我们根据几何关系从其向上和向前的方向获取抓夹的左方(Z 轴方向)。
为了提高操纵精度,我们在现实世界中有选择地利用连锁思维(CoT)推理。具体来说,我们可以通过在进行预测前整合对象类别识别和任务规划描述使用 CoT 方法,提高模型位姿预测的稳定性。例如,如果模型回应“你通常会从右侧拉门”,这种基于规划的反馈可以帮助模型生成更精确的接触点。
错误检测和纠正
我们的研究首次尝试直接纠正执行器的 6 DoF 控制动作,这与之前针对高层规划或低层技能原语的纠正工作不同。由于原子任务是完成复杂和长程任务的基础,因此纠正每个原子任务的位姿预测至关重要。在进行纠正过程之前,必须评估动作是否失败并识别失败的原因。
具体来说,我们利用 SC-MLLM 固有的视觉理解能力和特定的提示来判断任务是否完成,例如,我们将结束状态的图像输入到我们的 SC-MLLM 并提出问题,“Was the microwave door closed? Please answer yes or no。” 由于预训练的 MLLM 缺乏失败原因的识别能力,我们使用图 2 Step2 中显示的失败检测提示对模型中的注入适配器进行微调。
基于结束状态图像和执行器姿势,我们的模型能够准确识别失败原因,包括位置、旋转或组合错误。根据错误类型,我们的 SC-MLLM 可以自适应地请求指定专家的即时反馈,并利用这些反馈重新预测动作姿势。
专家提示反馈机制
1)操纵位置专家。为了获得位置专家的即时反馈,如图 3 左侧所示,我们首先使用 Where2Act 生成通过输入 2D 图像得到的可操作性图,该图显示了在特定像素上操作时实现移动距离的概率,反映了对象的可操作区域。现有可操作性图预测的方法在判断潜在可操作区域时精度有限,如图 3 所示,位置专家预测的高可操作性得分区域 C0-C3 并不真实可操作。
因此,我们利用推理专家如 GPT-4V 的常识推理能力,从高可操作性得分区域随机选择点,并通过推理专家进一步筛选,从而自动获取相对准确的接触点作为我们 SC-MLLM 的输入提示。
表1. SAPIEN 仿真实验,包含来自 PartNet-Mobility 的铰接物体。其中包括训练(已见过)类别 20 种和测试(未见过)类别 10 种。
2)操纵方向专家。如图 3 右侧所示,我们使用 Anygrasp 生成旋转校正提示。Anygrasp 在大规模数据上进行训练,直接输入包含丰富上下文信息的 3D 点云数据,从而能够准确预测抓取旋转。然而,我们的操纵任务不仅限于抓取,因此无法预测整个物体的抓取位置和方向。这也是为什么我们不使用 Anygrasp 作为位置专家的原因。为了生成每个物体局部区域的方向预测,我们根据模型预测的接触点选择一个操作框,并在选定的框区域内生成操纵方向。
3)操纵位置和方向组合专家。如果失败案例涉及组合错误,我们依次应用位置和旋转校正。操纵方向专家使用位置专家提供的最高置信度接触点来生成相应的旋转。最后,我们将位置和方向的校正反馈结合起来,作为我们模型的输入提示。为了使我们的 SC-MLLM 能够理解专家反馈,我们在训练过程中引入了类似的问题格式,如图 2 Step 2 所示。
持续性策略学习
由于在每次操作过程中机器人和物体的相对位置会发生变化,无法重复使用之前的专家提示反馈。因此,在获得成功校正的样本后,我们设计了一种持续性策略学习方法。该方法旨在提高操纵位姿预测能力,而无需专家反馈提示,因为专家干预会产生额外的通信成本和时间。然而,在使用新的成功样本进行微调时,存在灾难性遗忘的风险,可能导致 SC-MLLM 的固有能力丧失。因此,我们探索使用指数移动平均(EMA)来持续从新数据中学习,公式如下:
定量实验
表1. SAPIEN 仿真实验,包含来自 PartNet-Mobility 的铰接物体。其中包括训练(已见过)类别 20 种和测试(未见过)类别 10 种。
在主要实验中,我们的 SC-MLLM 与四个代表性基线模型进行比较:UMPNet、Flowbot3D、ManipLLM 以及我们使用的专家模型。如上表所示,通过使用专家反馈提示进行姿势纠正预测,我们的模型在训练类别(已见类别)上达到了 87% 的准确率,在测试类别(未见类别)上达到了 68% 的准确率。
与基于 MLLM 的方法相比,我们的模型(未使用专家提示的版本)在已见和未见类别上分别实现了 22% 的改进,超越了之前最先进的 ManipLLM。结果表明,我们提出的方法能够有效地纠正失败动作,从成功纠正的样本中学习,并提高对未见对象的泛化能力。最后,我们将 SC-MLLM 与我们使用的专家进行比较,以验证改进不仅来源于专家提示,还来源于我们模型基于这些提示的重新思考和纠正。
定性结果
图4. 操纵位姿预测的可视化。绿色、红色和黄色的线分别代表末端执行器方向的 z 轴、y 轴和 x 轴,而蓝点表示接触点
如图 4 所示,我们分别在 SAPIEN 模拟器和真实世界中进行了定性可视化展示。其中,我们使用 Franka panda 机器人手臂进行了涉及多种家用物品的真实世界实验,并通过在抓夹上附加双面胶带将其改造为吸盘夹具,增加了夹具头的粘附性。
尽管 ManipLLM 证明基于 MLLM 的方法较少受到仿真到现实领域差异的影响,我们仍通过改变对象部件姿态、摄像机角度、照明等元素增加了场景多样性,以减少潜在的仿真到现实的差距。通过闭环校正后,我们的方法可以在实际世界中准确预测接触点和 3D 方向,对于许多真实世界中的物体,我们的模型可以直接预测精确的动作姿势,并且只在失败情况下执行校正方案。