2022年11月8日至10日,由中国汽车工业协会主办的第十二届中国汽车论坛在上海嘉定举行。作为党的二十大后汽车行业的首次盛会,本届论坛以“凝心聚力,蓄势待发”为主题,设置了“一场闭门峰会+一场会议论坛+16场主题论坛”。以汽车产业高质量发展为主线,与行业精英一起落实新精神,研判新形势,共商新举措。其中,在11月9日下午的“主题论坛二:聚焦新汽车时代产业发展战略”上,杜畿智能驾驶负责人王维宝做了精彩演讲。以下为现场演讲实录:
大家好,我是杜畿智能驾驶的负责人王维宝。非常感谢主持人的介绍和组委会的邀请。今天,我有机会和大家分享杜畿在整个智能战略和智能方面所做的工作。
刚才主持人提到杜畿是一个新品牌,离不开一个关键词——智能。我们的愿景是通过智能来启迪无限可能的未来。通过智能化,包括智能驾驶技术和智能驾驶舱技术,可以给用户更多的空间和时间,引领智能汽车3.0时代的革命。
我们认为什么是智能汽车3.0时代?我们认为,整个汽车行业经历了两个时代:
燃油车时代,汽车工业的百年历史造就了很多大家耳熟能详的汽车公司,包括国外的,国内的,包括丰田,大众等等。
过去五年,我们认为汽车行业处于2.0时代,更多的是能源驱动的转型,更多的是从燃料到电力的转型。在这个过程中,也诞生了很多知名企业,包括特斯拉、蔚来、理想、小鹏等等。
我们相信,在接下来的一段时间里,汽车行业将进入智能汽车3.0时代,这是一个智能化的时代。
我们认为智能时代才刚刚开始,一个公司通过智能技术快速建立竞争壁垒。
未来十年,我们相信汽车行业会进入完全无人驾驶的状态。未来一段时间,整个汽车行业的竞争将不再是动力的竞争,而是更加智能化,比如智能驾驶、智能驾驶舱。未来整个汽车公司的核心竞争力,我们也会认为从动力底盘的发展到控制AI的技术,控制更强大的算法,计算能力,包括大数据的运用等等。
刚刚提到了Robocar的概念,它应该有三个主要特征:自由运动,自然交流,自我成长。
在自由移动方面,我们认为未来的汽车应该具备高级别的智能驾驶能力,可以点对点,端到端,一键进入智能驾驶状态。
在自然交流中,我们认为应该有更多的智能交互,包括汽车通过屏幕或手势,也可以通过语音与人进行更无意识的交互,甚至是一些主动的交互。
从自我成长和自我学习能力来说,什么时候机器才会更像人?我们认为学习能力是最重要的环节。通过未来的智能化和数据驱动,让整个产品基于数据驱动,自我学习,千人千面,让产品更懂用户。
在这三个主要特征下,最终产品形式中将有两种浓缩产品:
最身临其境的驾驶舱。
通过智能驾驶舱,包括端到端的语音技术,现在通过高通8295的芯片,杜畿也是第一个能够实现全球离线语音的。语音识别速度快至500ms,端到端响应在700ms以内,保证了无论有无网络信号,任何场景下,每个人都能与你进行无感智能交互。
智能驾驶最简单的方法。
我们希望智能驾驶能力是一个点对点、端到端的产品,是用户眼中最容易上手的产品。用起来没有负担,有安全感。
为了提出这样的要求,我们一直在深入思考两个问题:
一、智能的目标是什么?在短短几页的分享中,我大概已经解释了智能的总体目标是什么。
其次,我们需要设计什么样的智能架构才能达到我们的目标,达到我们想要达到的目的?这是我们一直在思考的。
在面向未来的高阶智能和高阶智能驾驶状态下,我们思考未来平台最重要的两点:平台化和安全性。
平台很好理解。对于汽车制造商来说,我们有许多以前的车辆平台和电子和电气架构平台。对于智能平台,我们想要达到的目的或目标是什么?我们希望对于用户来说,是持续的、可扩展的,在不同的产品之间能够达到同样的能力。
另外,要注意安全。对于高级智能,尤其是高级智能驾驶,安全是一个永远无法逃避的话题。如何实现真正的智能安全?如何让用户感到智能和安全,是我们不断思考和做的事情。
基于这种情况,我们想在平台上满足两件事:
具备自我成长和持续迭代的能力;
希望平台能从现在的辅助驾驶逐步达到高级智能驾驶。
众所周知,法律法规对智能驾驶有很多限制。目前,车辆或平台只能实现L2辅助驾驶。事实上,整个行业、大行业的法律法规都在不断推动智能汽车向更高阶的智能驾驶发展。
首先要以平台为导向,通过智能平台不断推动法律法规的发展。同时,要确保一旦法律法规允许,这个平台能够立即提供高水平的智能驾驶能力。我们不用切换硬件,也不用改变车上的硬件,只需要升级软件就可以实现高水平的智能驾驶能力。
对于智能平台和智能架构,我们将在架构、计算能力、传感器和设计上保证最终目标。
对于杜畿这个品牌,我们将吉利海的浩瀚架构应用到了整车上,也在智能驾驶、高精地图等方面使用了百度Apollo的AI驱动智能能力。在过去几年的高级智能能力。如果把吉利的平台比作树干,把智能核心能力比作大脑,中间需要一个神经网络。我们自己开发了一套喷气平台。智能平台包括两部分:电子电气架构和整个软件面向服务的SOA能力。
基于这两种能力,我们构建了整车的神经网络,可以更好的连接躯干和大脑,满足整车的智能能力。
你为什么这么做?
为了支持更高阶的智能,我们发现我们需要更高的计算能力和更多的传感器,这实际上对整个通信网络提出了很高的要求。我们发现传统的电子电气架构已经不能满足我们在智能化方面的要求,这也是我们自己研发JET平台的原因。
基于软件定义的车辆,我们也希望整车的智能能力可以逐步服务化,可以和硬件解耦。通过对SOA能力的自研,服务了全车所有智能能力,可由任意端调用。
说完了神经网络,我们还需要很多感觉器件,包括整个智能的核心计算能力和感觉传感器。动力方面,采用最先进的NVIDIA Orin X芯片,有两个芯片。同时,全车配备了30多个传感器,包括2个激光雷达、12个高清视觉摄像头、毫米波雷达和超声波雷达。
刚才我提到了软硬件解耦的发展。作为一个新品牌,杜畿如何快速验证和迭代我们的能力?在这个过程中,还采用了一种创新的开发流程——si mucar软件集成仿真原型。
传统Mulecar并不是一个陌生的概念,但是对于传统的开发模式来说,Mulecar更多的是验证基本车的三电和底盘的技术性能。在传统的开发流程中,软件是在整车性能得到验证后才进行开发的。往往在这个过程中,软件验证、适配、开发的时间很短。
在传统的开发过程中,软件的比重很小。在汽车智能化的过程中,其实整个软件在汽车开发中所占的比重会越来越高,甚至可能会占更高的比重。在这个过程中,我们需要什么样的全新的开发模式来提前开发我们的软件?
为了提前验证智能的能力,我们采用了SIMUCar的创新开发模式,中文名称为软件集成仿真原型。
什么事?为智能化和软件开发提供了整车电子电气架构的仿真环境,使软件开发与整车开发完全解耦,可以与整车开发处于完全并行的阶段。
通过SIMUCar软件将原型车的研发流程、软硬件解耦、前部智能舱的开发、智能驾驶集成在一起。比行业平均进度提前15个月启动智能化开发,完成系统安全性和稳定性验证。
一年半前成立,成立后不久,智能开发已经完全开始。在我们成立半年的时候,所谓的SIMUCar1.0正式上线。当时杜畿和百度的团队都在不断的对整个SIMUCar进行迭代,1.0时期更多的是验证一些基础能力。
去年年底,基础智能能力已经可以在智能驾驶上实现“两域融合”,全城和高速都可以连接。
今年年初,我们进入了SIMUCar2.0阶段。2.0是什么意思?意味着整车上真实的传感器环境已经与软件集成。今年10月,我们刚刚展示了目前在不同城市的推广能力。
去年在北京,今年10月还在上海全城展示了推广能力。我们还将基于创新流程提前打磨和验证我们的智能能力。
这是今年10月,我和CEO夏在上海举办了一个整体城市区域的展览。在这段旅程中,会涉及到人们上下班经常经过的场景和路线,包括无保护的左转,复杂的城市道路,以及我们经常遇到的城市快速路等等。
刚才分享了整个平台化之后,另外一个就是安全。刚才我也提到了,制约智能网联汽车L2走向更高层次的核心点是安全考虑。对于集成的程度,我们认为安全不仅仅是技术上要实现的东西,我们把安全作为一个整体系统来考虑。
在安全理念上,我们会考虑很多方面,包括设计验证、计算冗余、传感器冗余、刚才提到的架构冗余。同时,我们认为验证安全性也是非常重要的一部分。其实对于高水平的驾驶能力来说,大规模的验证是非常重要的。如何才能进行大规模验证?时间和空间很重要。我们还采用了SIMUCar的创新开发流程,可以给我们更多的时间进行大规模验证。
同时,我们认为安全不仅仅是一个技术问题,用户能够真正体验和感受到的安全才是真正的安全。安全不应该停留在设计的某个百分比,设计中某些硬件的布局等等。我们认为,最终用户如何看待这种安全性也是安全性的一个非常重要的部分。
首先,机舱内应用了基于服务的SOA的概念。我们可以利用全舱智能驾驶的所有感知能力,形成智能3D全景智能驾驶地图。机舱可以与用户实时交互,让机舱内的乘客感知到我的智能,我的智能驾驶在做什么,它是如何思考的,下一步要做什么。
同时,智能安全不仅仅停留在车内,车外还有很多视觉和语音的交互体验,让在智能驾驶的前提下,无论是车内的参与者还是车外的参与者,都能实时感知到汽车的整体状态,让他为汽车做出一个体验更安全的考虑。
刚才我提到,我们已经为安全做了很多。其实在软硬件整体驱动方案中,我们的核心能力还是来源于百度Apollo Robotaxi的能力。我们利用L4 Robotaxi的核心原子化能力进行了二次开发和验证。
同时,我们在主系统中布置了两套自动驾驶系统“视觉+激光雷达”。这两个系统都是高度自驱动的,每个视觉系统和激光雷达系统都可以独立运行。同时,在整个过程中,它们也可以作为两套系统互为备份,互为冗余,从而达到高效协作的状态。
全车配备两个激光雷达,激光雷达的成本比较高。为什么要安排两个?不仅仅是前方180度FOV覆盖,更多的是出于安全考虑。我们认为不应该牺牲整体的安全性,我们愿意在这方面付出更多的成本。
大家可以看到,布置两个前向激光雷达后,中间重叠区域整体测量的距离、精度和稳定性会更高,向前60度,这是很多情况下驾驶的主要感知区域,可以有双点云。同时,在整个前向180度的覆盖中,可以更好的覆盖一些行人突然穿越、遮挡的场景。
实际上,客舱驾驶一体化,我们认为这肯定是未来的一个大趋势。最近人们总会谈到整个技术中座舱驾驶一体化的概念。然而,当人们普遍提到驾驶舱集成时,他们更多的是提到我的驾驶舱和智能驾驶在同一个芯片或SOC中。人们普遍预测,随着芯片的到来,驾驶舱一体化将真正形成。当然,人们普遍认为驾驶舱集成芯片将在2025年问世,我们将进入这样的状态。
就集成而言,我们认为舱驱集成不应该只是芯片级的概念。我们认为舱驾一体化应该是我的智能舱和汽车在能力上可以互补和融合。同时,在设计之下,我们已经率先通过面向SOA的架构实现了客舱驱动集成。
我们在客舱驾驶集成方面做了很多事情,有两个核心点:
为了感受更好的安全性,我们基于智能驾驶的核心计算能力,在驾驶舱做了3D智能驾驶地图;
我们还在驾驶舱控制器上实现了智能驾驶的备份系统。
对于高级智能驾驶来说,倒车系统是必要的环节。比如欧洲的一些标准,宝马和奔驰在车内有一个独立的域控制器来备份整个智能驾驶,让大家都能满足更高级别的智能驾驶法律法规的安全要求。
至于杜畿,我们在车内率先使用了高通的8295芯片,有足够的计算能力实现备份系统,所以我们在车内布置了独立的智能驾驶摄像头做全程备份,在驾驶舱实现了独立的备份系统。我们的主系统已经有两个方案了。在冗余的情况下,也做第三套方案,以达到更安全的安全考虑,平台面向更高阶的智能驾驶设计平台。
虽然目前法律法规不允许L3和L4,但是我们相信随着整个能力的提升,我们希望这个平台能够在法律法规允许的情况下,通过软件升级,快速切换到更高阶的智能驾驶状态。
总结:我们在智能方面使用了业界领先的计算能力。我们布置了很多传感器,实现了系统级的安全冗余。高级智能驾驶的算法也是基于百度Apollo过去积累的原子能力重新开发的。同时,在安全性方面,除了设计安全性和验证安全性,还做了很多感知安全性的考虑。我们相信基于整体设计方案和思路,可以不断进化高阶智能的能力,让智能汽车3.0时代保持领先。
我们想要什么样的智能驾驶?我们希望实现点对点、端到端的PPA,用户上车后可以进入智能驾驶的状态,从停车场开到城市核心区,同时上高速,最终实现“三域融合”,点对点的智能驾驶能力。
这就是我想分享的。谢谢大家!
免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。