在上周的Model X撞车事故之后,特斯拉接受了自动驾驶仪的参与并指责驾驶员,使NTSB对撞车事件的公开信息感到“不满”,一位特斯拉车主试图重现致命的Model X撞车事故,并几乎被炸死他自己。这表明自动驾驶仪的警告根本不够。使用自动驾驶仪时,特斯拉司机应自行承担风险。
扭矩新闻不建议您通过共享此视频来尝试,测试或重新创建类似的内容,但我们将其引起读者的注意,以显示特斯拉自动驾驶仪可能有多危险。了解特斯拉AP2.5如何将错误转变为血腥路障。
“对于每个不了解上下文的人:他正在复制杀死驾驶员的完全相同的场景,以证明特斯拉无法检测到碰撞的方式存在问题。这是您查找和报告程序和算法错误的方式。希望特斯拉采取行动挽救生命。”视频下方的一位人士评论说。
人们对特斯拉的Autpilot过于信任。
访问Torque News主页以获取更多故事。甚至航空公司的飞行员也不完全相信飞机的自动驾驶系统。而且他们的系统更先进,飞行员训练有素。特斯拉的自动驾驶仪尚未开发,驾驶员也未经培训。
“作为商业航空公司的飞行员,我想指出的是,飞行员一直在监视任何飞机上的自动驾驶仪。它绝对不是100%可信赖的。同样,在飞行中更复杂的部分,例如过渡到进近时,它经常需要断开连接,飞行员将手动接管,因为它的性能无法达到要求。”一位飞行员在我们于2018年1月发表的故事中写道:“飞行员和特斯拉业主解释自动驾驶仪的工作原理。”
现在禁止自动驾驶
自动驾驶仪会诱使人们。驾驶员认为它可以胜任,但事实并非如此。当它完成一半的工作时,人们将控件释放给自动驾驶仪,而当它失效时,它会导致人员伤亡,这表明了上周的严重崩溃,在该视频中,我们看到了后果有多悲惨。结果,人们将变得懒惰,并对自动驾驶仪寄予过多的信任。
作为人类,我们有这种趋势。我们的激情克服了我们,我们容易被诱惑。这就是为什么需要尽可能保护人们免受危险情况的原因。
我们在YouTube上看到许多视频赞扬了Autopilot的性能。在Autopilot的早期,《扭矩新闻》也发表了积极的评论,指出了它的局限性。但是我们现在认为,赞扬自动驾驶仪可能会给人们带来虚假的希望,会诱使他们并给他们带来安全的虚假希望。我们还不存在,这项技术需要多年的发展。同时,我们不希望看到任何人因激情,错误的安全感而死亡,并放弃对尚未完善的技术的驾驶控制。