捕捉所有小边缘并将其喂入自主驾驶系统比Elon Musk and Co.必须考虑的更为复杂。
当高速公路上的特斯拉型号3开始显示交通信号灯时,汽车以130 km/h的速度行驶。在自主模式下设置的汽车检测到了连续的交通信号灯流,实际上是卡车拖运的卡车,该交通信号灯停用了交通信号灯,由于将数据输入到系统中,Model 3无法真正理解。
交通信号灯保持恒定距离,而Model 3以超过80 mph的速度行驶,这是因为卡车运输的交通信号灯也以类似的速度行驶,并保持在特斯拉的领先地位,指出了另一种新鲜小故障的自动驾驶模式。
在许多情况下,人们报告说特斯拉的自动驾驶系统失败了,这是因为几乎不可能在所有情况下喂食,因此总会有改进的余地。自主驾驶系统的开发商还强烈意识到,现实世界与测试轨道有很大不同,并且如果在轨道上表现良好的自主系统并不是外部世界的风险,则无需。
用户可能会在网上发布他们的故事,这些故事是他们揭示的内容,并可能是另一个特斯拉故障的主题标签。这个问题不仅限于找出自动驾驶技术的缺点,而且还远远超出了这一点,因为人们在将完全信任置于自动驱动模式之后已经丧生。
伯明翰大学和麻省理工学院数学家Max Little在Twitter上说:“我想这种情况可能不是该系统培训数据的一部分。”“一个很好的说明,说明如何仅通过录制'更多数据'来实现完全驾驶自主权。”
发现最新故障的驾驶员透露,特斯拉和自主驾驶系统可能会因致命而失败,因为他们无法翻译周围的事情,并且无法与人脑的水平及其做出决策的力量相匹配。值得庆幸的是,该系统一旦在高速公路上滚动时就不会突然休息,这可能是因为它继续评估距流动灯的距离。