- 主题:自动驾驶技术存在天然的缺陷
我希望自动驾驶技术能和网文所说的那样,作为一个辅助系统,比如提供360的视野,死角区障碍物的提示,高风险车辆的提示,高风险路况的提示。
比如:右后侧有车辆。比如:持续提示在下个出口离开高速。比如:提示后方有S形行车的车辆
严重一点,还可以建立一个激进行驶车辆数据库,一看到车牌就提示司机要注意安全
【 在 muvoN200 (做个拉美化的中国人) 的大作中提到: 】
: 首先,自动驾驶最大的需要克服的障碍是伦理不是技术,因为所有系统一定有几率出错,自动化程度越厉害,理论上系统的责任就越大,全自动驾驶出了事故,事故责任究竟是谁的,这一点理不清楚没有共识,永远无法实现全自动驾驶
: 其次,即使系统出错概率远低于人类,你把控制权交给自动驾驶系统还是自己掌握,带给你的命运完全不同,作为个人你需要考虑你的选择会带来的后果,好的坏的你都会一起承受。因为系统出错的场景和人出错的场景是完全不同的,特斯拉的几起自动驾驶死人事件,如果人来操控肯
--
修改:kkkk3 FROM 124.207.89.*
FROM 124.207.89.*
现在是要求有类似的这种系统的。
【 在 chenchf (ccf) 的大作中提到: 】
: 说白了,就是只要是计算机就有宕机的时候,谁摊着谁倒霉,应该在设立一个检测系统
: ,主系统出问题的时候,由另一套系统立马接管靠边停车
--
FROM 111.202.221.*
没见到起作用的报道
【 在 selenita @ [GreenAuto] 的大作中提到: 】
:
: 现在是要求有类似的这种系统的。
:
: 【 在 chenchf (ccf) 的大作中提到: 】
: : 说白了,就是只要是计算机就有宕机的时候,谁摊着谁倒霉,应该在设立一个检测系统
#发自zSMTH@Mi9 Pro 5G
--
FROM 111.192.243.*
感觉现在的车企都是黑盒子,外人不让看,也看不懂。
【 在 chenchf (ccf) 的大作中提到: 】
: 没见到起作用的报道
: #发自zSMTH@Mi9 Pro 5G
--
FROM 111.202.221.*
你这是L2级
大厂现在都是L2和L4两条腿走的
【 在 kkkk3 (i d 3 r d) 的大作中提到: 】
: 我希望自动驾驶技术能和网文所说的那样,作为一个辅助系统,比如提供360的视野,死角区障碍物的提示,高风险车辆的提示,高风险路况的提示。
:
: 比如:右后侧有车辆。比如:持续提示在下个出口离开高速。比如:提示后方有S形行车的车辆
:
--
FROM 124.64.16.*
最好是L1级++,完全由人来驾驶,系统给人提供信息,避免人犯错,尤其是关键时刻,能抢出2秒钟,事情完全不一样。
【 在 robotong (机器人) 的大作中提到: 】
: 你这是L2级
: 大厂现在都是L2和L4两条腿走的
--
FROM 124.207.89.*
围棋是离散系统,开车是连续系统,复杂多了
【 在 west 的大作中提到: 】
: 原来说围棋复杂,计算机模拟不了。阿尔法狗出来后又说围棋简单了? 路况比围棋变化简单多了,人工智能驾驶现在是个公司都能做。
:
: --来自微水木3.5.10
: --
: FROM 223.104.38.*
: --来自微水木3.5.10
发自「今日水木 on iPhone XR」
--
FROM 114.245.57.*
围棋需要预测之后的几百步,而开车不需要,对人工智能,围棋比开车难多了
【 在 guest007 (007) 的大作中提到: 】
: 围棋是离散系统,开车是连续系统,复杂多了
: 发自「今日水木 on iPhone XR」
--
FROM 183.173.82.*
【 在 ivybill 的大作中提到: 】
: 看到这样一段话:当前智能技术主要是以专家知识为核心的第一
: 代人工智能和以数据为核心的第二代人工智能技术独立发展而来的。与人的认知能力相对照,第一代和第二代技术分别对应于我们用知识做推理的慢认知模式和以数据做预测的快认知模式。人具有超常认知能力的关键在于可以从数据中归纳出知识,从知识中演绎数据。而人工智能技术恰恰相反,两代技术割裂发展,第一代“慢模式”因依赖确定性知识而不完备,第二代“快模式”因无法推演新场景而不可靠,成为现有模式发展的困境。自动驾驶技术目前是基于“快模式的”。
人为失误容易找自动驾驶背锅
--
FROM 120.244.188.*