- 主题:人类的思维不是靠目前的AI就能模拟的
我就问你一个内容你是在哪里看到的
是不是从论文里面看到的,还是从简中的自媒体上看到的
你看你,就一大堆的对我心理攻击
做个人吧!!
【 在 qtpr 的大作中提到: 】
: 你这人真是废了,可能童年阴影让你成为了一个多巴胺依赖得过且过的人,无论是bbs上过度追求关注,还是谈技术问题时一味嘴硬,都是病态多巴胺依赖的表现,完全被短时满足感所驱动,做不了任何深入和持久的事情。
--
FROM 58.218.168.*
你和他讲这些东西
他听的懂吗
对牛弹琴
【 在 Myarmor (余哀) 的大作中提到: 】
: 这种具体的技术不难。
: 不过就是看肩膀动作、脚的位置、速度、身体倾斜角度来判断下一步球往哪里踢罢了。
:
: 留意周围(前后左右)车的动向是AI的优势。
--
FROM 183.208.254.*
你应该说工程实践派与象牙塔小白的碰撞
【 在 myheart2023 (myheart2023) 的大作中提到: 】
: 民科和学院派的碰撞
: 咱们正好学习一下
: 我现在的科普基本上都是因他们吵架
: 才被动的了解了一些
--
FROM 183.208.254.*
诺贝尔物理学奖颁给了人工智能,以后物理学的发展可能就靠这个了
【 在 Myarmor 的大作中提到: 】
: 我怀疑的恰恰是理性部分。
: 我不怀疑在有了微积分后,
: AI能总结出牛顿万有引力,甚至麦克斯韦方程组。
: ----注意前提是有了微积分。而微积分我是不相信AI能自己搞出来的。
: 至于狭义相对论的基本假设:
: ...
- 来自 水木说
--
FROM 39.144.158.*
我觉得你这个论点无法证明自动驾驶技术不行阿
因为自动驾驶本质上来说就是一种模式化的应用,这个完全是可以通过大量的数据训练实现的
举一个不是那么恰当的例子
对于自动驾驶来说,它不需要非常精确的分辨前面挡路的是牛还是马还是啥,反正只要确认了是会动的一定体积的活物并采取相应的措施就可以了
自动驾驶的关键点我认为有三个:
1 是否有足够的场景数据;
2 系统是否稳定;
3 如何让客户改变觉得自己一定比机器更牛逼的心理;
【 在 qtpr 的大作中提到: 】
: 但是DL很难甄别样本相关(伪相关)和总体相关,更遑论发现真正的因果关系。
: 所以DL的泛化性能保证一直是瓶颈。
:
--
FROM 60.191.76.*
对做理论的来说当然要求百分之百可靠,但只要比大部分人可靠,部分时间和场景下可靠就会有需求有市场
【 在 myheart2023 的大作中提到: 】
: 太厉害了
: 你这么厉害的司机这还真的是很少见
: 但自动驾驶没必要做到这么好吧
: 刚才看你们说L4自动驾驶
: 又去百度了一下
: 这个应该没啥大问题吧
: L5估计不大行
: 你为啥觉得L4肯定也做不成?
- 来自 水木说
--
FROM 39.144.158.*
光脚的和穿鞋的碰撞
【 在 TimeAndRiver 的大作中提到: 】
: 你应该说工程实践派与象牙塔小白的碰撞
--
FROM 124.65.218.*
好多司机都不大可靠
我倒是有些期待无人驾驶
到时候我就给自己买辆车
【 在 pabkyh 的大作中提到: 】
: 对做理论的来说当然要求百分之百可靠,但只要比大部分人可靠,部分时间和场景下可靠就会有需求有市场
:
: - 来自 水木说
--
FROM 124.65.218.*
虽然我不懂什么神经网络机器学习,但是觉得指望自动驾驶完全靠谱是不可能的,能达到能用的水平也许可以,毕竟找个再靠谱的司机也有可能会出事儿
【 在 myheart2023 的大作中提到: 】
: 好多司机都不大可靠
: 我倒是有些期待无人驾驶
: 到时候我就给自己买辆车
- 来自 水木说
--
FROM 39.144.158.*
外网的原始新闻。
另外我不攻击你,是帮你,你要正确对待,不要讳疾忌医。
【 在 TimeAndRiver 的大作中提到: 】
: 我就问你一个内容你是在哪里看到的
: 是不是从论文里面看到的,还是从简中的自媒体上看到的
:
: ...................
--
FROM 111.167.233.*