您现在的位置是: 首页 > 车型推荐 车型推荐

特斯拉自动驾驶事故高雅宁_特斯拉自动驾驶事故

tamoadmin 2024-06-24 人已围观

简介1.车主上路实测特斯拉"全自动驾驶"撞上护栏2.特斯拉车祸事故原因是什么?车是生活中常见的交通工具,给人的生活提供了很大的方便,也提升了家庭的幸福感,拥有了小汽车,在外出的时候终于不用挤公交挤地铁了,在周末的时候还可以带着亲朋好友外出游玩,是很惬意的一件事。随着社会上车辆越来越多,在道路上行驶的时候发生的交通事故,问题也日益严峻。在杭州一辆特斯拉自动驾驶撞上路灯,警察调查之后发现结果反转。在浙江杭

1.车主上路实测特斯拉"全自动驾驶"撞上护栏

2.特斯拉车祸事故原因是什么?

特斯拉自动驾驶事故高雅宁_特斯拉自动驾驶事故

车是生活中常见的交通工具,给人的生活提供了很大的方便,也提升了家庭的幸福感,拥有了小汽车,在外出的时候终于不用挤公交挤地铁了,在周末的时候还可以带着亲朋好友外出游玩,是很惬意的一件事。随着社会上车辆越来越多,在道路上行驶的时候发生的交通事故,问题也日益严峻。在杭州一辆特斯拉自动驾驶撞上路灯,警察调查之后发现结果反转。

在浙江杭州发生了一起车祸,这个事故和其他的车祸不同。据车主介绍,当时他正在副驾驶上面乘坐,使用的是特斯拉自动驾驶的功能,没想到车辆却撞上了路边的路灯。司机介绍自己在和朋友一起吃饭的时候喝了酒,他准备叫代驾。代驾行驶在北门的时候无法进入,随后他就坐到了副驾驶的位置上,使用了自动驾驶功能开往北门。

在行驶的过程当中,车辆却突然失控,冲出路面,撞上了路边的灯杆以及路旁的座椅。对于司机的说法,特斯拉方面却称车主撒谎,因为特斯拉汽车设计了重力感应设置,如果驾驶室没有人,那么车辆根本就没有办法启动。交警到达了事故现场,就对车主进行酒精测试,并且将他带去医院抽血检测。警方在调查之后确定在车辆当中,只有他一个人,他全程都是坐在驾驶位。

这位男子的检测结果显示醉酒驾驶,因为他违反了交通规则被吊销驾驶证,他在5年之内不可以取得驾驶证。这位男子在酒后开车实在是太危险了,一旦发生事故,后果不堪设想。如果撞到了人不仅会钱财面临损失,有可能还面临着牢狱之灾。他竟然还骗警察说自己是坐在副驾驶室,特斯拉官方回复也让他啪啪打脸。

车主上路实测特斯拉"全自动驾驶"撞上护栏

日前,和讯 汽车 从相关媒体获悉,美国底特律市3月11日凌晨发生一起特斯拉Model Y与卡车相撞的严重交通事故,事故导致Model Y的司乘人员受伤,所幸两人并没有生命危险。

从现场来看,这台白色特斯拉Model Y事发时从侧面径直撞上了大货车,被卡在箱体侧面龙骨下方, 车头损毁严重,部分车顶也被“掀开”。 由于碰撞后特斯拉车体被死死卡在货车底部,以至于救援人员难以处理事故现场,现场也被封锁了数个小时。

幸运的是,特斯拉车上的两人并无生命危险,较强的车身刚性可能是两人能在这起惨烈事故中存活的原因, Model Y曾在美国NHTSA的碰撞测试中,获得最高评分。

目前,尚不清楚这台特斯拉在事发时是否开启了自动辅助驾驶,也不清楚AEB主动安全系统为何没有发挥作用。

这已经不是第一起特斯拉撞货车的事故了。

2016年,世界公认的首起特斯拉“自动驾驶”致死事故就与上述的事故十分相似,美国一台直行的Model S钻入正在转弯的白色重卡车底,事发时车辆开启了自动辅助驾驶,但是这台Model S没有做出任何制动措施。

同年,京港澳高速河北邯郸段发生一起严重的追尾事故。一辆白色特斯拉Model S轿车在左侧第一车道行驶时,撞上了一辆正在前方实施作业的道路清扫车,现场没有发现制动痕迹,事故造成特斯拉车内一名驾驶员死亡。

2020年,一辆特斯拉Model 3在中国台湾高速公路上,径直撞上了此前已经发生事故,侧翻横躺在马路上的大货车。据悉,当时Model 3开启了自动辅助驾驶功能,但车辆并未制动或作出提示,随后驾驶员接管时已来不及刹停。

特斯拉在早期曾大肆宣传自家车辆具备“自动驾驶”功能,但在发生几起车祸和投诉后,便 将“自动驾驶”的功能宣传全部改为了“自动辅助驾驶” ,并提醒驾驶员在任何时候双手都不得离开方向盘。

和讯 汽车 了解到,目前特斯拉在售的新车均配备级别较高的自动驾驶硬件,由 一颗位于车头的前置毫米波雷达和车身四周的8个摄像头以及12个超声波传感器组成 ,其中摄像头的探测半径可以达到250米,但并没有配备激光雷达。

然而,目前业内公认的自动驾驶方案中,激光雷达是不可 或缺 的硬件系统,但特斯拉方面却因为成本问题选择放弃。

特斯拉通过视觉摄像头和除激光雷达外的辅助系统,在精准性和部分抗光线干扰方面还存在缺陷。 特别是在强光线下,或者以白色为基调的物体时,特斯拉这套方案的缺陷比较明显。

在这几次与大货车相撞的事故中,货车车体均为白色,摄像头因此受到干扰,而毫米波雷达可能完整地穿过了货车的底部,或是未能判断静止物体,亦或是由于横向交叉时车速过快,系统因此没有迅速响应。

特斯拉车祸事故原因是什么?

车主上路实测特斯拉"全自动驾驶"撞上护栏

车主上路实测特斯拉"全自动驾驶"撞上护栏,一名YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”套件并不像埃隆·马斯克所称的那样安全。车主上路实测特斯拉"全自动驾驶"撞上护栏。

车主上路实测特斯拉"全自动驾驶"撞上护栏1

特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。

不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的视频得到曝光, 这被认为是FSD Beta版上线后的第一起事故

从公布的视频看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。

好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。

车主表示, 已经将该案例上传到了特斯拉反馈部门

值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。

车主上路实测特斯拉"全自动驾驶"撞上护栏2

2月10日消息,名为AI Addit的YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。

AI Addit的视频是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。

在视频中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。

令人担忧的是,在视频中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。

AI Addit的驾车视频长约9分钟,撞车事件发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在视频中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”

马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的视频提供了证据,证明事实并非如此。在AI Addit记录的视频中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。

FSD是专为特斯拉汽车提供支持的先进司机辅助驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。

在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。

在这段视频发布前不久,特斯拉被迫召回近5.4万辆电动轿车和SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。

许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在视频的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。

这段视频似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在视频中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。

2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta计划。该计划只适用于该公司特别挑选的.特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。

这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。

FSD是特斯拉司机辅助驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的死亡事故,以及一系列非致命的撞车事故。

尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。

无独有偶,最新公布的监控视频显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。

自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机辅助系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”

车主上路实测特斯拉"全自动驾驶"撞上护栏3

1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过车祸意外或有人受伤,而同期美国则有20000人死于交通意外。马斯克转发了这条推特,并确定的说:“没错”。

而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的视频博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按视频的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。视频当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,视频到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的车祸事故。

当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即采取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。

特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。

除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。

特斯拉的自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。

FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,视频已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。

2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。

马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“

一月中马斯克才刚称赞完 FSD Beta 自一年前计划开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。

美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的辅助驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”

特斯拉车祸再致命 事故记录显示原因竟是这样的 ?特斯拉于日前证实,3月23日一辆Model X在加州发生了一起致命事故,当时汽车启用了Autopilot,进而引发了一系列关于处理半自动驾驶系统的新问题。

据悉受害者此前曾多次向特斯拉方面抱怨称汽车的Autopilot技术存在问题。而特斯拉方面称,根据恢复的事故记录显示,当时Autopilot处于开启状态,自适应巡航控制系统将距离设为最小。但是,事发时受害者的手离开了方向盘,系统曾多次提醒他重新将手置于方向盘上,但他没有做出反应。

特斯拉称:“司机大约有5秒的响应时间和150米的无障碍视线,可以看到混凝土分隔物,上面有冲撞衰减设施,但是车辆记录中显示,司机并未采取任何行动。”

然而,特斯拉的声明中并未说明为何Autopilot没有检测到混凝土分隔物。

这场发生在山景城附近的致命车祸还引发了车辆起火,后面两车也因车祸追尾,同时使得事故发生地的交通延误了数个小时。而38岁的受害者也在送往附近医院的途中不治身亡。

美国高速公路安全管理局(NHTSA)在本周早些时候对这起事件展开调查,但并未在本周五立即对特斯拉的回复置评。与此同时,美国国家运输安全委员会(NTSB)也在调查这起致命的事故。

在特定条件下,开启Autopilot后,司机无需长时间将手置于方向盘上。而特斯拉则是要求车主在开启Autopilot时也要始终保持对方向盘的控制,不过车主们似乎并不会乖乖遵守这一要求。

此前发生的特斯拉Autopilot驾驶事故已经引起了NTSB的注意。

特斯拉历史上出现过几次重大的自动驾驶事故,2016年5月,一名Model S在其官方的完全自动驾驶状态下撞上对向正在转弯的卡车,该事故导致驾驶员死亡。当时特斯拉的Autopilot因为卡车车体反光,摄像头并未识别对向的卡车。

这是特斯拉以自动驾驶模式运行时的首例死亡时间,因此引发了很多关于系统安全性的疑问,该系统能够在没有人为干预或是极少人为干涉的情况下长时间执行驾驶任务,但无法完全取代人类。

NTSB表示,特斯拉可以采取进一步措施防止系统被滥用,并防止司机过度依赖车辆的自动化。

此后,NHTSA和NTSB又调查了一辆处于半自动驾驶模式下的特斯拉汽车,该汽车撞上了加州的一辆消防车。但特斯拉和这两个机构均为对此事做出后续解释。

在行业正在寻求联邦立法以促进自动驾驶汽车的部署时,政府调查提高了特斯拉和汽车制造商的风险。

而亚利桑那州的一辆Uber汽车以自动驾驶模式撞上一名行人并致其死亡。

特斯拉于周五晚些时候称:“Autopilot并不能防止所有的事故的发生,事实上,我们无法达到这一标准,Autopilot 降低了事故的发生率。它为车辆乘客、行人和骑自行车的人都创造了应该更安全的世界。”

特斯拉表示,在美国,每行驶1.38亿公里都会有一名因车祸身亡的受害者。而将已知的死亡人数考虑在内,配备了Autopilot硬件的特斯拉起床的死亡人数是每5.1亿公里有一名身亡的受害者。”

特斯拉在2016年9月对Autopilot做出了完善,并增加了相关的限制。

3月30日,特斯拉宣布因为转向系统零配件缺陷召回12.3万辆特斯拉Model S,占特斯拉目前全部产量28万台的不到一半,大约是过去两年多的产量。虽然召回在汽车行业是正常现象,此次召回的故障也不是重大缺陷。但在目前的事态下,这个消息的负面效应会被放大。

文章标签: # 特斯拉 # 驾驶 # 事故