1.疑似特斯拉自动驾驶出错:未识别并道,直接撞向货车

2.又一起特斯拉自动驾驶撞车事故 类似事件曾判特斯拉车主负全责

3.特斯拉车祸事故原因是什么?

疑似特斯拉自动驾驶出错:未识别并道,直接撞向货车

特斯拉自动驾驶事故原因分析_特斯拉自动驾驶故障率

你没看错,这次还是特斯拉的自动驾驶。因为自动驾驶事故,特斯拉最近频上头条。

近日,一位特斯拉Model?3车主在网络论坛上发文维权,该车主称,其驾驶开启AutoPilot完全自动驾驶功能的Model?3在深圳南坪正常行驶时,右前方行驶的渣土车突然并道而来,而他的Model?3在自动驾驶系统的控制下,非但没有停下来,反而加速冲了上去。

从车主公布的信息来看,当时Model?3正在与前面的渣土车跟车行驶,这时右方并过来一辆**的渣土车,但Model?3没有自行减速和调整方向的操作。同时,Model?3前方的渣土车开始加速行驶,处于跟车状态的Model?3也开始猛地加速,然后就撞上了正在并线的渣土车。

针对公布内容,车主还承诺均为亲身经历,如果存在与事实不符的情况,愿意承担相应的法律责任。

另外,据车主透露,爱车是在2019年8月购买,购车的同时购买了号称“具备完全自动驾驶能力”的FSD。购车以来,也经常使用FSD,按照以往的经验,这种情况下,特斯拉会自动减速或往旁边变更方向。但这次,特斯拉没有像往常一样做出正确的反应,车主想强行干预时,已经撞上了渣土车。

事后,车主要求特斯拉解释,自动驾驶未能识别到大型渣土车并且加速冲撞的原因,但是特斯拉工作人员表示“FSD硬件和数据分析是没有异常”。

对此,也有自称业内人士的网友解释道,卡车处于特斯拉盲区,没被检测到是正常现象。同时当时车辆处于自动跟车状态,前车加速后,Model?3也自动加速,因此出现了突然冲撞渣土车。并判定特斯拉的FSD无责任。

显然,这种结论站不住脚,特斯拉FSD存在视觉盲区本身就是硬件缺陷,但在宣传的时候不提醒车主缺陷隐患。就当前阶段,还是提醒大家不要过度依赖自动驾驶,只能作为一种驾驶的辅助手段。毕竟自动驾驶技术还未成熟,开车在路上,生命是自己的!

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

又一起特斯拉自动驾驶撞车事故 类似事件曾判特斯拉车主负全责

埃隆·马斯克的SpaceX刚实现人类史上首次商业载人航天,他的特斯拉 汽车 就在Autopilot(自动辅助驾驶)模式中出了一次撞车事故。

近日,在中国台湾,一辆特斯拉Model 3直直撞向一辆横躺在马路上的货车,所幸,此次并无人员伤亡。据视频显示,当时车流量不多,公路可见度良好。

那么,问题出在哪里?警方接受媒体采访时称,当时特斯拉处于Autopilot模式,时速定速约为110公里。车主本以为车子检测到障碍物会自动刹车,然而当他注意到车子没有慢下来时,他踩了刹车却已来不及。

另外,货车司机也告诉警方,称他的货车发生事故,侧翻在马路上,他自行脱困后到货车后方的分隔岛等待救援,在注意到特斯拉 汽车 直直驶向他的货车时,他曾挥手示意却没有用。

此前,特斯拉就已经发生过类似的撞车事故,其中一起也在中国台湾。据当时的调查结果显示,由于中国台湾接受电动车挂牌上路,并未全面开放“自动驾驶”功能,“自动驾驶”功能仅能作为辅助,一旦发生车祸,肇事责任仍由驾驶人负责。总而言之,车还是要驾驶人来开。

上述两起事故并无人员伤亡,但截至目前,美国就已经发生了至少三起特斯拉致死事件。

2019年3月,在美国德尔雷海滩附近,一名特斯拉Model 3驾驶员在事故发生时也处于Autopilot模式中,随后特斯拉撞向了一辆卡车。

图自网络。

2018年3月,在加州圣塔克拉县山景城的公路上,一名特斯拉驾驶员开启了Autopilot模式。随后,他在玩手机 游戏 的过程中,没有注意到Autopilot将车开向高速公路的分道角区,并撞向了屏障,驾驶员被送进医院后身亡。

图自网络。

2016年5月,事故发生在美国佛罗里达州的威力斯顿,一辆特斯拉Model S开启了Autopilot模式,没能发现一辆拖车的白色车身并撞向拖车,结果是特斯拉驾驶员身亡。

对于上述事故,美国国家运输安全委员会(National Transportation Safety Board)分别发布了调查报告,均认定车祸的可能原因在于,特斯拉驾驶员未能避让车辆或障碍物,过度依赖特斯拉的自动化模式。同时,报告批评了特斯拉Autopilot的操作设计,称该设计与特斯拉的指导方针和警告有所违背,使得驾驶员能长时间脱离驾驶,使用自动模式。

需要注意的是,特斯拉将自动辅助驾驶取名为“Autopilot”,这被不少人诟病。“Autopilot”听起来就像“自动驾驶”,然而这两者的区别并不小。

据特斯拉中国台湾官网介绍,Autopilot自动辅助驾驶功能“需要驾驶人主动监督,并无法使车辆自动驾驶”。

图自中国台湾特斯拉官网。

美国高速公路安全保险协会(IIHS)的一份调查报告指出,由于当前自动驾驶系统的局限,部分厂商对自动辅助驾驶系统的命名似乎过于夸张,使得驾驶员获得了错误信息:48%的受访者认为在使用特斯拉的AutoPilot模式时,自己能放开方向盘。当问及日产(Nissan)的半自动驾驶系统(ProPilot Assist)时,有33%的人认为能放开方向盘。随后是通用 汽车 的超级巡航(Super Cruise)和BMW的辅助驾驶Plus(Driving Assistant Plus),比例下降至27%,奥迪 汽车 的交通堵塞助手(Traffic Jam Assist)排最后,只有21%。而在其他问题上,包括打电话、发短信、看视频、睡觉等,特斯拉的认可比例都超过了其他车厂。

“特斯拉的用户手册清楚地说明了Autopilot是一种驾驶员要亲自驾驶的功能(‘Hands-on feature’),但这显然没有传达给所有人”,IIHS 主席大卫·哈基(David Harkey)接受媒体采访时称,“制造商应该考虑其系统名称所传达的信息”。

特斯拉车祸事故原因是什么?

特斯拉车祸再致命 事故记录显示原因竟是这样的 ?特斯拉于日前证实,3月23日一辆Model X在加州发生了一起致命事故,当时汽车启用了Autopilot,进而引发了一系列关于处理半自动驾驶系统的新问题。

据悉受害者此前曾多次向特斯拉方面抱怨称汽车的Autopilot技术存在问题。而特斯拉方面称,根据恢复的事故记录显示,当时Autopilot处于开启状态,自适应巡航控制系统将距离设为最小。但是,事发时受害者的手离开了方向盘,系统曾多次提醒他重新将手置于方向盘上,但他没有做出反应。

特斯拉称:“司机大约有5秒的响应时间和150米的无障碍视线,可以看到混凝土分隔物,上面有冲撞衰减设施,但是车辆记录中显示,司机并未采取任何行动。”

然而,特斯拉的声明中并未说明为何Autopilot没有检测到混凝土分隔物。

这场发生在山景城附近的致命车祸还引发了车辆起火,后面两车也因车祸追尾,同时使得事故发生地的交通延误了数个小时。而38岁的受害者也在送往附近医院的途中不治身亡。

美国高速公路安全管理局(NHTSA)在本周早些时候对这起事件展开调查,但并未在本周五立即对特斯拉的回复置评。与此同时,美国国家运输安全委员会(NTSB)也在调查这起致命的事故。

在特定条件下,开启Autopilot后,司机无需长时间将手置于方向盘上。而特斯拉则是要求车主在开启Autopilot时也要始终保持对方向盘的控制,不过车主们似乎并不会乖乖遵守这一要求。

此前发生的特斯拉Autopilot驾驶事故已经引起了NTSB的注意。

特斯拉历史上出现过几次重大的自动驾驶事故,2016年5月,一名Model S在其官方的完全自动驾驶状态下撞上对向正在转弯的卡车,该事故导致驾驶员死亡。当时特斯拉的Autopilot因为卡车车体反光,摄像头并未识别对向的卡车。

这是特斯拉以自动驾驶模式运行时的首例死亡时间,因此引发了很多关于系统安全性的疑问,该系统能够在没有人为干预或是极少人为干涉的情况下长时间执行驾驶任务,但无法完全取代人类。

NTSB表示,特斯拉可以采取进一步措施防止系统被滥用,并防止司机过度依赖车辆的自动化。

此后,NHTSA和NTSB又调查了一辆处于半自动驾驶模式下的特斯拉汽车,该汽车撞上了加州的一辆消防车。但特斯拉和这两个机构均为对此事做出后续解释。

在行业正在寻求联邦立法以促进自动驾驶汽车的部署时,政府调查提高了特斯拉和汽车制造商的风险。

而亚利桑那州的一辆Uber汽车以自动驾驶模式撞上一名行人并致其死亡。

特斯拉于周五晚些时候称:“Autopilot并不能防止所有的事故的发生,事实上,我们无法达到这一标准,Autopilot 降低了事故的发生率。它为车辆乘客、行人和骑自行车的人都创造了应该更安全的世界。”

特斯拉表示,在美国,每行驶1.38亿公里都会有一名因车祸身亡的受害者。而将已知的死亡人数考虑在内,配备了Autopilot硬件的特斯拉起床的死亡人数是每5.1亿公里有一名身亡的受害者。”

特斯拉在2016年9月对Autopilot做出了完善,并增加了相关的限制。

3月30日,特斯拉宣布因为转向系统零配件缺陷召回12.3万辆特斯拉Model S,占特斯拉目前全部产量28万台的不到一半,大约是过去两年多的产量。虽然召回在汽车行业是正常现象,此次召回的故障也不是重大缺陷。但在目前的事态下,这个消息的负面效应会被放大。