- 主题:AI开车和人开车的本质区别
人会犯错,即使是平时很正常,也有可能突发间歇性精神病而酿成大祸。
但是人与人不一样,这类定时炸弹只是少数,也许是百万分之一。
而AI是软件,是同一份。只要有一个bug,全世界几百万辆车都有这个bug。
所以必须确保软件里没有bug;并且能应对各种场景。
这对于大规模的软件来说,是不可能的。
开发时间很短、迭代次数少,就更不可能了。
我觉得这种独一份的模式必须打破才行。
--
FROM 142.105.139.*
比如windows打补丁的时候,全球几亿台电脑一起打,因为它是软件,有一个bug,那么全球几亿台电脑都有这个bug。
人就不一样了。总有几个有毛病的,但是大部分人没这种毛病。
--
FROM 142.105.139.*
这方面法律确实是空白,AI出错造成的损失,是开发者的责任,还是使用者的责任?相信以后法律会跟上的。
【 在 Oldsoup 的大作中提到: 】
: 还有一个共同点,那就是人开车犯错是自己负责。AI犯错也是你自己负责。
: :
--
FROM 142.105.139.*
其实还有一种可能:AI觉醒自我意识。
并不需要科幻片里那种跟人相当、甚至超过人类的意识。
只需要达到几岁小孩或者猫猫狗狗的水平。
小孩、猫猫狗狗会生气,甚至会报复人类。
说不定哪天AI也产生了小情绪,你骂它了,它带你去怼大货。
【 在 dd027 的大作中提到: 】
: 还有一种情况,计算机病毒、黑客。
: 如果交给AI来做,异常突发情况,真的是会非常惨烈的。
:
: ...................
--
FROM 142.105.139.*
这对大模型来说p的感觉都没有,相当于你穿越了5-10天。
人类的喜怒哀乐本质上是生化反应,多巴胺啥的,但更本质的依然是信息传递。相信不久AI就能搞出拟人的情绪。
【 在 sgub 的大作中提到: 】
: 对大模型采取断电5-10天治安处罚
:
--
FROM 142.105.139.*
但是计算机程序是100%。所有用电脑的人都体验过死机,windows打了这么多年布丁还在不停地打。
【 在 ia 的大作中提到: 】
: 这么讲吧,2023年,米国高速陆交通安全管理部的数据,估算车祸死亡40990人。
: 美国人口3.35亿,有效驾照2.36亿。
: 平均每一万个人每年撞死1.7个人。
: ...................
--
FROM 107.77.226.*
你记得有个苹果工程师开tsl自动驾驶撞路墩身亡吗?
后来有博主也开tsl在一个地点测试,果然撞向路墩,幸好博主急刹住了。
所有的tsl都会在这一地点发生同样的致命错误,几百万辆。
但是人类就不会,永远都是少数人。
这就是本质的区别。
【 在 ia 的大作中提到: 】
: 不是100%。
: 前面算人的故障率的时候,实际算的是 事故次数次数/(总人数*时长)。
: 程序也要这么算,决策错误导致事故/(程序实例数*时长).
: ...................
--
FROM 107.77.226.*
tsl之间又不能交流,它自己也不会看新闻。
那个路墩,据分析是路上的导流线让AI错误判断了路线,而路墩的光影又恰好没识别出来。
我朋友说,他只放心让tsl开它“练习”过的路线。比如上下班路线,他监督着开过N遍,他就放心了。他还说,监督着开比自己开还累,提心吊胆的。
【 在 ia 的大作中提到: 】
: 就是山路大下坡一样,每年总死人,死多了就挂个牌子说下坡危险,但是还是有人会死。
: 特斯拉这个也一样,汽车开到这里就撞,撞多了就改算法不让它撞...自动驾驶程序竟然记住了真不撞了,神奇!
:
--
FROM 107.77.226.*