|
集微网报道,2022年3月25-27日,中国电动汽车百人会论坛(2022)在北京举办。3月27日,在以“智能汽车发展的新实力与新力量”为主题的全球智能汽车前沿峰会上,清华大学教授邓志东指出,通过AI超算与预训练巨量模型,或能实现L3+纯视觉自动驾驶。
在辅助驾驶/自动驾驶技术的感知方案中,主要有“视觉系”和“激光雷达系”两派。对于纯视觉的感知方案,特斯拉最为拥护且坚定使用。
邓志东教授表示,特斯拉L2纯视觉FSD自动辅助驾驶,目前获得了较好的用户体验,仅特定地区少量推送,即有超过5万规模的普通终端用户,也是目前全球最大的L2车队。
据悉,特斯拉纯视觉方案采用8个摄像头,1280 x 960分辨率12bit HDR图像以每秒36帧的速率进行采集。自2020年10月特斯拉启动FSD Beta测试版以来,尚未出现任何事故。
邓志东教授指出,当然纯视觉方案有其优势,避免了使用多模态融合感知带来的技术挑战。但目前特斯拉的纯视觉仍属于L2级的纯视觉,要实现L3级以上的纯视觉仍据挑战。
但这一目标并不是不可能实现。邓志东教授谈到,要实现L3、L4纯视觉,需最大限度地使用目前已有的数据驱动的人工智能,包括面向限定区域自动驾驶应用场景,如充分利用具有自注意力学习机制的新一代神经网络——视觉Transformer模型。
具体来看,由于Transformer模型超强的性能可扩展性和通用性,结合深度强化学习,可构建驾驶阅历与驾驶技巧均优于人类的AI自动驾驶,而且已有实现可能。
(校对/holly)
声明:以上内容来源于网络,如有侵权请联系我们(123@shiyan.com)删除! |
|