- 主题:不知道端到端有啥好吹的
深度学习(DL)早就在“智驾”系统里用了。不过之前DL主要侧重于感知,即做对象识别之类的基础性任务。基于感知结果的决策,往往是基于规则的。所谓的端到端就是把决策这一块功能也用DL的数据驱动训练来实现了。
虽然规则系统有一些众所周知的局限性,例如一阶逻辑不完备二阶及以上逻辑可能不一致,以及规则系统设计的人力成本较大等等。但是规则系统跟冯诺依曼架构下的DL模型在理论上没有区别,后者实质上只是一个由数据驱动的规则系统而已(有些做“DL模型解释”的人,就是研究把DL模型映射成规则系统)。虽然数据驱动的路线可以降低开发和维护的人力成本,加快系统迭代演化的频率,但数据驱动模型本质上是统计的,模型所能学习的只是样本相关,不能保证能学到真正的总体相关,更遑论因果关系。所以这类模型的智能上限是相当可疑的,不足以承担真正的自动驾驶。
--
修改:qtpr FROM 111.167.230.*
FROM 111.167.230.*
喂数据,傻瓜式训练,
某种意义上其实是无技术,属于堆料。
但是以上对辩证最终结果谁强是无关的,
谁厉害,谁就是技术击倒对方。
【 在 qtpr 的大作中提到: 】
: 深度学习(DL)早就在“智驾”系统里用了。不过之前DL主要侧重于感知,即做对象识别之类的基础性任务。基于感知结果的决策,往往是基于规则的。所谓的端到端就是把决策这一块功能也用DL的数据驱动训练来实现了。
: 虽然规则系统有一些众所周知的局限性,例如一阶逻辑不完备二阶及以上逻辑可能不一致,以及规则系统设计的人力成本较大等等。但是规则系统跟冯诺依曼架构下的DL模型在理论上没有区别,后者实质上只是一个由数据驱动的规则系统而已(有些做“DL模型解释”的人,就是研究把DL模型映射成规则系统)。虽然数据驱动的路线可以降低开发和维护的人力成本,加快系统迭代演化的频率,但数据驱动模型本质上是统计的,模型所能学习的只是样本相关,不能保证能学到真正的总体相关,更遑论因果关系。所以这类模型的智能上限是相当可疑的,不足以承担真正的自动驾驶。
--
FROM 49.93.64.*
只击倒竞争厂商没意义
要能达到靠谱男司机的水平,才有意义
【 在 wsnsw 的大作中提到: 】
: 喂数据,傻瓜式训练,
: 某种意义上其实是无技术,属于堆料。
: 但是以上对辩证最终结果谁强是无关的,
: ...................
--
FROM 111.167.230.*
【 在 qtpr 的大作中提到: 】
: 只击倒竞争厂商没意义
: 要能达到靠谱男司机的水平,才有意义
:
这年代想要“人无我有”太难了
能做到“人有我精”已经很强
--
FROM 61.145.181.*
研究把DL模型映射成规则系统,做“DL模型解释”的人,就是原有技术路径的缺陷。
没听说过“开除一个语言专家,NLP表现提高1%”么?
【 在 qtpr 的大作中提到: 】
: 深度学习(DL)早就在“智驾”系统里用了。不过之前DL主要侧重于感知,即做对象识别之类的基础性任务。基于感知结果的决策,往往是基于规则的。所谓的端到端就是把决策这一块功能也用DL的数据驱动训练来实现了。
: 虽然规则系统有一些众所周知的局限性,例如一阶逻辑不完备二阶及以上逻辑可能不一致,以及规则系统设计的人力成本较大等等。但是规则系统跟冯诺依曼架构下的DL模型在理论上没有区别,后者实质上只是一个由数据驱动的规则系统而已(有些做“DL模型解释”的人,就是研究把DL模
: 陀成涑晒嬖蛳低常K淙皇萸穆废呖梢越档涂⒑臀さ娜肆Τ杀荆涌煜低车莼钠德剩萸P捅局噬鲜峭臣频模P退苎暗闹皇茄鞠喙兀荒鼙Vつ苎У秸嬲淖芴逑喙兀芈垡蚬叵怠K哉饫嗄P偷闹悄苌舷奘窍嗟笨梢傻模蛔阋猿械U嬲淖远菔
: ...................
--
FROM 114.94.31.*
神经网络尤其是大模型本身具有不可解释性,不能叫无技术
【 在 wsnsw 的大作中提到: 】
: 喂数据,傻瓜式训练,
: 某种意义上其实是无技术,属于堆料。
: 但是以上对辩证最终结果谁强是无关的,
: ...................
--
FROM 36.112.101.*
一群毫无计算机基础的在那里吹端到端我就觉得好笑
更有沙雕嘲讽激光雷达,简直大牙都要笑掉了
【 在 qtpr 的大作中提到: 】
:深度学习(DL)早就在“智驾”系统里用了。不过之前DL主要侧重于感知,即做对象识别之类的基础性任务。基于感知结果的决策,
- 来自 水木社区APP v3.5.7
--
FROM 223.104.40.*
DL这套架构完全不可解释,即使一时是热门,性能上限由多高也是存疑的,很难成为终极范式。
做研究,不要只知道跟风追热门。如果你有点儿记忆能力,应该知道十几年前NN还是非主流,想发主要会议和期刊的论文非常难。正是当时有些人坚持研究非主流的NN,才让DL的范式有机会被更多人了解和follow。这几年DL火了,又有一些鼠目寸光之辈看不起其他路线,以为DL能一统江湖了,呵呵。
【 在 zwordcn 的大作中提到: 】
: 研究把DL模型映射成规则系统,做“DL模型解释”的人,就是原有技术路径的缺陷。
: 没听说过“开除一个语言专家,NLP表现提高1%”么?
:
--
FROM 111.167.230.*
今天都是基于小数据量(相对)的验证过程,没有什么可互相指责的
【 在 qtpr 的大作中提到: 】
: DL这套架构完全不可解释,即使一时是热门,性能上限由多高也是存疑的,很难成为终极范式。
: 做研究,不要只知道跟风追热门。如果你有点儿记忆能力,应该知道十几年前NN还是非主流,想发主要会议和期刊的论文非常难。正是当时有些人坚持研究非主流的NN,才让DL的范式有机会被更多人了解和follow。这几年DL火了,又有一些鼠目寸光之辈看不起其他路线,以为DL能一统江湖
: 耍呛恰
: ...................
--
FROM 223.72.128.*
现在的所谓”验证过程“,是对大(参数多)模型更有利的。
因为测试集往往并非真正独立于模型选择和参数辨识(训练)的过程。相反,建模者往往反复地根据模型在测试集上的性能表现修改模型拓扑和超参数。这种测试集是伪测试集,更有利于易于过拟合的大模型。
【 在 Kevinforever 的大作中提到: 】
: 今天都是基于小数据量(相对)的验证过程,没有什么可互相指责的
:
--
FROM 111.167.230.*