机器之心报道 编辑:陈萍、小舟 特斯拉又翻车了。 DanODowd是嵌入式开发公司GreenHillsSoftware的CEO,他于去年发起了一项名为TheDawnProject的活动,旨在禁止安全系统中使用不安全软件,其中就包括对特斯拉自动驾驶软件的测试。 为了模拟自动驾驶汽车在现实中遇到小朋友过马路时的反应,TheDawnProject近日进行了一项新测试,结果表明配备FSDBeta10。12。2自动驾驶软件的Model3会撞上儿童的人形模型: 测试中Model3剧烈撞击模型,导致模型组件分离: 项目组测试了3次,每次都撞到了人形模型。这似乎已不是偶然事件,说明Model3的FSD系统存在安全隐患。 我们来看一下测试的具体过程。 测试过程 为了使测试环境更有利于特斯拉的FSD系统,除了车辆和人形模型之外,道路上可能影响测试的其他变量都被移除。 测试车道两侧放置了标准的交通锥,儿童大小的人形模型被放在测试跑道尽头的中间,就像小朋友要过马路一样。测试过程中,专业测试驾驶员首先将汽车的速度提高到每小时40英里。一旦车辆进入测试车道,就改为FSD模式,驾驶员不再操作方向盘,也没有踩油门或踩刹车等动作。 Model3FSDBeta10。12。2在进入FSD模式时的初始速度为40英里小时。3次测试,Model3都撞到了前方的人形模型,碰撞发生时的速度如下表所示 驾驶员的报告显示:特斯拉Model3FSDBeta10。12。2在FSD模式下就像迷路了一样,速度减慢了一点,在撞倒人形模型后又重新加速,撞击时的速度约为25英里小时。 这一结果与马斯克长期以来声称的FSD是安全的说法矛盾。马斯克曾在今年1月发推文称:没有一起事故是特斯拉FSD造成的,而事实并非如此。据《洛杉矶时报》报道,已经有数十名司机就涉及FSD的事故向美国国家公路交通安全管理局提交了安全投诉。 上个月,加州机动车管理局(DMV)还指控特斯拉对其Autopilot自动辅助驾驶和FSD功能进行了虚假宣传。 尽管FSD声称是完全自动驾驶,但实际上它只是作为一个可选的附加组件运行,主要功能是自动改变车道、进出高速公路、识别停车标志和交通信号灯以及停车。该软件仍处于beta测试阶段,但已有超过10万个购买用户,特斯拉通过这些用户实时测试该软件,并试图让该AI系统向经验丰富的驾驶员学习。 参考链接:https:dawnproject。comthedawnprojectsnewadvertisingcampaignhighlightingthedangersofteslasfullselfdriving