让自动驾驶系统适应新环境和不同地区的习惯和法规是自动驾驶领域长期面临的挑战。NVIDIA Research 团队提出的自动驾驶智能体 LLaDA 能够利用 LLM 生成适应不同环境的驾驶策略和指令,为驾驶员和自动驾驶汽车提供多语言和地区交通规则的实时指导,帮助他们更轻松地在陌生的地方导航。此外,LLaDA 还能帮助自动驾驶汽车重新规划出与当地环境更加匹配的运动轨迹,调整自动驾驶汽车的运动规划策略。相关论文成果收录于 CVPR 2024 。

NVIDIA Research 研究科学家李柏依:探索基于多模态LLM 的自动驾驶智能体 | 公开课预告

然而,LLaDA 无法实现场景的自动识别,且对场景描述的质量有着较高要求。尽管 GPT-4V 能够提供这种描述,但是却不够准确。为此,NVIDIA Research 提出一个创新的自动化视频字幕生成框架 Wolf。Wolf 采用专家混合方法,利用视觉语言模型(VLMs)的互补优势,能够提升自动驾驶智能体的场景理解能力。

NVIDIA Research 研究科学家李柏依:探索基于多模态LLM 的自动驾驶智能体 | 公开课预告

此外,LLaDA 通常是与用户直接交互,并主要处理文本信息。相比之下,自动驾驶系统则需要提供具体的位置和轨迹规划信息。基于这些差异,NVIDIA Research 团队专为自动驾驶领域设计出一种多模态大型语言模型(MM-LLM)TOKEN。TOKEN 通过将复杂的交通环境转化为对象级别的知识单元,增强了自动驾驶车辆在面对长尾事件时的规划能力。该模型还结合了端到端驾驶模型的优势,解决了数据稀缺和标记化效率低下的问题。相关论文收录于 CoRL 2024 。

NVIDIA Research 研究科学家李柏依:探索基于多模态LLM 的自动驾驶智能体 | 公开课预告

在上述背景下,智猩猩与 NVIDIA 策划推出「智猩猩公开课 NVIDIA 自动驾驶智能体专场」,并将于10月22日以视频直播形式进行。公开课邀请到 LLaDA 论文第一作者NVIDIA Research 自动驾驶方向研究科学家李柏依进行主讲,主题为《探索基于多模态LLM 的自动驾驶智能体》。

李柏依博士首先会重点讲解 LLaDA 如何利用 LLM 生成适应不同环境的驾驶策略和指令;之后会解读如何使用 Wolf 框架生成字幕提升智能体的场景理解能力。接下来,李柏依博士会讲解如何基于 TOKEN 分解复杂交通场景提升智能体在长尾事件的规划能力,最后会分享在自动驾驶智能体上的未来研究方向,并进行展望。

NVIDIA Research 研究科学家李柏依:探索基于多模态LLM 的自动驾驶智能体 | 公开课预告

公开课信息

 主 题 

探索基于多模态 LLM 的自动驾驶智能体

 提 纲

1、LLaDA 利用 LLM 生成适应不同环境的驾驶策略和指令
2、使用 Wolf 框架生成字幕提升智能体的场景理解能力
3、基于 TOKEN 分解复杂交通场景提升智能体在长尾事件的规划能力
4、未来研究方向与展望

主 讲 人

李柏依,NVIDIA Research 自动驾驶方向研究科学家

李柏依是 NVIDIA 自动驾驶汽车研究小组的一名研究科学家。博士毕业于康奈尔大学,师从Serge Belongie 教授 和 Kilian Q. Weinberger 教授。她对计算机视觉、机器学习和多媒体艺术感兴趣,研究重点是多模态与数据高效的机器学习。

 直 播 时 间

北京时间10月22日上午10点

报名方式

对此次公开课感兴趣的朋友,可以扫描下方二维码添加小助手小艾进行报名。已经添加小艾的老朋友,可以给小艾私信,发送“自动驾驶智能体”即可报名。我们会为报名成功的朋友推送直播链接。

同时,本次公开课也组建了交流群,直播开始前会邀请相关朋友入群交流。

NVIDIA Research 研究科学家李柏依:探索基于多模态LLM 的自动驾驶智能体 | 公开课预告