☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Sat Aug 3 15:55:35 2024) 提到:
机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
端到端自动驾驶方案的问题在于,深度学习大模型完全是不可解释的,没人知道它的先验假设是什么,甚至不知道如何形式化它的先验假设。所以,端到端本质是一个瞎猫碰死耗子的游戏。
☆─────────────────────────────────────☆
RunFIFO (D10N) 于 (Sat Aug 3 16:08:56 2024) 提到:
恰恰这个行业目前营销是关键,用户本质上没有期待完全自动驾驶,没有用户购买车的首要要素是要车替代自己来开,只要能惊艳到别人一两次,给用户留下深刻印象,用户就满意了,这就给端到端很大的动力去推广了.
自动驾驶行业其实后面就烂了,用户对自动驾驶的兴趣会很快到达一个临界点,这个技术本身也会越来越普及,后面模型一开源,就像现在的GPT一样大家都能玩,到时候每个企业都无法证明自己的模型比别人的好多少.
☆─────────────────────────────────────☆
wakesman (jk) 于 (Sat Aug 3 17:04:23 2024) 提到:
不看好端到端,人驾车是通过规则进行的。视觉识别?规则判断才是符合人的驾驶方式。
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
:
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
:
: 端到端自动驾驶方案的问题在于,深度学习大模型完全是不可解释的,没人知道它的先验假设是什么,甚至不知道如何形式化它的先验假设。所以,端到端本质是一个瞎猫碰死耗子的游戏。
发自「快看水母 于 iPhone 11」
☆─────────────────────────────────────☆
RuralHunter (渔父) 于 (Sat Aug 3 17:37:54 2024) 提到:
你一外行别整天长篇大论的浪费时间
【 在 qtpr 的大作中提到: 】
:
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
:
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
:
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Sat Aug 3 19:34:50 2024) 提到:
你有何资格说我是外行
【 在 RuralHunter 的大作中提到: 】
: 你一外行别整天长篇大论的浪费时间
:
☆─────────────────────────────────────☆
dabuyang (dabuyang) 于 (Mon Aug 5 01:58:46 2024) 提到:
端到端的问题其实就是大模型的本质问题,不可解释性无法受控性,各方练出来的模型在各种边角场景各有各的搞法但无法保证按照自媒体瞎测后每次都是同样的表现。
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。
: ..................
发自「今日水木 on V2307A」
☆─────────────────────────────────────☆
FLYBBS (空手套白狼) 于 (Mon Aug 5 02:18:04 2024) 提到:
任何智驾都不看好,人有各种缺点,但最起码能知道保全自己性命,保全别人性命。
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
:
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
: ...................
--来自微微水木3.5.15
☆─────────────────────────────────────☆
shuimu0691 (shuimu0691) 于 (Mon Aug 5 03:28:56 2024) 提到:
【 在 RunFIFO 的大作中提到: 】
: 恰恰这个行业目前营销是关键,用户本质上没有期待完全自动驾驶,没有用户购买车的首要要素是要车替代自己来开,只要能惊艳到别人一两次,给用户留下深刻印象,用户就满意了,这就给端到端很大的动力去推广了.
: 自动驾驶行业其实后面就烂了,用户对自动驾驶的兴趣会很快到达一个临界点,这个技术本身也会越来越普及,后面模型一开源,就像现在的GPT一样大家都能玩,到时候每个企业都无法证明自己的模型比别人的好多少.
再怎么搅混水,目前最厉害的智驾还是华为。
几年后的事另说。
☆─────────────────────────────────────☆
TimeAndRiver (时间与河流) 于 (Mon Aug 5 07:24:03 2024) 提到:
你一外行别整天长篇大论的浪费时间
整天百度出来几个概念
然后就拿着那些概念招摇撞骗
【 在 qtpr (Transcendence constitutes selfhood.) 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
:
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
:
☆─────────────────────────────────────☆
nowan (nowan) 于 (Mon Aug 5 07:41:35 2024) 提到:
确实不那么看好,规则方法我认为是可行的,另外你可以发到人工智能版
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。
: ..................
发自「今日水木 on iPhone XR」
☆─────────────────────────────────────☆
Haimdinger (Haimerdinger) 于 (Mon Aug 5 07:54:48 2024) 提到:
我和你的观点一致,特别是加功能,减功能,修bug,似乎都只能重新训练。
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,NoFreeLunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其...
- 来自 水木说
☆─────────────────────────────────────☆
Paris2024 (Paris2024) 于 (Mon Aug 5 08:18:23 2024) 提到:
怎么解释alphaGo能战胜世界冠军?
【 在 qtpr (Transcendence constitutes selfhood.) 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
:
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
:
☆─────────────────────────────────────☆
fzplove (fzp) 于 (Mon Aug 5 08:38:50 2024) 提到:
可惜你的理解不对。
【 在 qtpr 的大作中提到: 】
:
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
:
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
:
#发自zSMTH-v-@realme RMX3300
☆─────────────────────────────────────☆
algebub (algebub) 于 (Mon Aug 5 09:16:05 2024) 提到:
端到端这个词本身就意思不大
就好比说底盘要用“金属”的一样
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
: 端到端自动驾驶方案的问题在于,深度学习大模型完全是不可解释的,没人知道它的先验假设是什么,甚至不知道如何形式化它的先验假设。所以,端到端本质是一个瞎猫碰死耗子的游戏。
: ...................
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Mon Aug 5 09:43:33 2024) 提到:
可惜你只会喊口号,一句完整的理据也说不出来,呵呵
【 在 fzplove 的大作中提到: 】
: 可惜你的理解不对。
:
:
: ...................
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Mon Aug 5 09:44:35 2024) 提到:
呵呵
【 在 TimeAndRiver 的大作中提到: 】
: 你一外行别整天长篇大论的浪费时间
: 整天百度出来几个概念
: 然后就拿着那些概念招摇撞骗
☆─────────────────────────────────────☆
liduo (利多) 于 (Mon Aug 5 10:08:09 2024) 提到:
断网了怎么办
☆─────────────────────────────────────☆
cdbdyx (差不多先生) 于 (Mon Aug 5 11:02:23 2024) 提到:
端到端只要训练数据足够多肯定比按规则来判断覆盖的情况更多啊这还有争议?主要是需要大量的路况数据,你看规则通过代码判断根本考虑不过来,举个例子,前面在修路,一个穿黄马甲的人在指挥大家怎么走,这个不通过端到端很难处理好,图像识别再判断的话有可能把黄色马甲判断为是送外卖的
☆─────────────────────────────────────☆
cdbdyx (差不多先生) 于 (Mon Aug 5 11:03:44 2024) 提到:
特斯拉的方案没问题,但是训练数据覆盖程度是个问题
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Mon Aug 5 11:41:14 2024) 提到:
端到端的模型,即使数据很多,你也不知道它学到的到底是什么
是样本相关、还是总体相关、还是真正的因果关系?
【 在 cdbdyx 的大作中提到: 】
: 端到端只要训练数据足够多肯定比按规则来判断覆盖的情况更多啊这还有争议?主要是需要大量的路况数据,你看规则通过代码判断根本考虑不过来,举个例子,前面在修路,一个穿黄马甲的人在指挥大家怎么走,这个不通过端到端很难处理好,图像识别再判断的话有可能把黄色马甲判断为是送外卖的
☆─────────────────────────────────────☆
sthgot2give (sthgot2give) 于 (Mon Aug 5 12:32:02 2024) 提到:
深度学习模型的可解释性有一些成熟的方法来判断,工程上用简单的消融实验就能判断因果关系。
端到端这个名词有点误导,构建复杂模型大多数都是从简单模型一层一层搭起来的,因此各个模块的作用和中间结果也是有人分析的。
大学里一大帮人都在研究模型的数学基础,大多数模型的基础结构现在都有数学解释,现在任何深度学习模型不能算是完全的黑盒吧。
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Mon Aug 5 12:36:51 2024) 提到:
只能说你读书读论文太少
【 在 sthgot2give 的大作中提到: 】
: 深度学习模型的可解释性有一些成熟的方法来判断,工程上用简单的消融实验就能判断因果关系。
: 端到端这个名词有点误导,构建复杂模型大多数都是从简单模型一层一层搭起来的,因此各个模块的作用和中间结果也是有人分析的。
: 大学里一大帮人都在研究模型的数学基础,大多数模型的基础结构现在都有数学解释,现在任何深度学习模型不能算是完全的黑盒吧。
☆─────────────────────────────────────☆
cdbdyx (差不多先生) 于 (Tue Aug 6 08:56:52 2024) 提到:
你输入的是什么就学到什么啊,主要问题是输入量得足够大
【 在 qtpr 的大作中提到: 】
: 端到端的模型,即使数据很多,你也不知道它学到的到底是什么
: 是样本相关、还是总体相关、还是真正的因果关系?
:
☆─────────────────────────────────────☆
wanllow (wower) 于 (Tue Aug 6 10:25:06 2024) 提到:
你提的这些可真是要了命的弱点
【 在 Haimdinger 的大作中提到: 】
: 我和你的观点一致,特别是加功能,减功能,修bug,似乎都只能重新训练。
:
: - 来自 水木说
☆─────────────────────────────────────☆
bolt08 (bolt08) 于 (Tue Aug 6 11:54:23 2024) 提到:
现在大模型的主流框架transformer的归纳偏置已经很少了(因为可以做到对语言、视觉、语音等各种输入一统江湖了),所以一般情况下你用它就行了,一般不会出什么问题,而且效果很不错,工程师做到这一步就行了
当然不排除你说的端到端出错的情况,但我认为发生概率很低。
另外,我觉得端到端方案肯定是很吃数据和算力的,这点没弄好可能还不如规则方案,但这个应该不是你说说的原因造成的
【 在 qtpr 的大作中提到: 】
: 机器学习领域有一个著名的理论结果,No Free Lunch定理(NFL)。本质上,NFL说明了任何机器学习模型都是有先验假设(归纳偏置)的,模型只是在符合其先验假设的数据上会有好的性能,而在不符合其先验假设的数据上性能会更差。并且,如果考虑所有可能的数据类型上的平均性能,实际上任何模型是没区别的。这个定理的提出者Wolpert和 Macready在他们的论文中说"It states that any two optimization algorithms are equivalent when their performance is averaged across all possible problems"。
: 所以,要想做好一个机器学习应用,例如自动驾驶,就必须确定两件事:1 应用所面对的数据类型(或者说数据的先验假设)是什么?2 模型的先验假设是什么?只有确定嘞这两个事,并且保证两个先验假设相匹配,任务才可能做好。
: 端到端自动驾驶方案的问题在于,深度学习大模型完全是不可解释的,没人知道它的先验假设是什么,甚至不知道如何形式化它的先验假设。所以,端到端本质是一个瞎猫碰死耗子的游戏。
: ...................
☆─────────────────────────────────────☆
qtpr (Transcendence constitutes selfhood.) 于 (Tue Aug 6 11:56:11 2024) 提到:
你不懂理论,没有归纳偏置的模型是没用的。
【 在 bolt08 的大作中提到: 】
: 现在大模型的主流框架transformer的归纳偏置已经很少了(因为可以做到对语言、视觉、语音等各种输入一统江湖了),所以一般情况下你用它就行了,一般不会出什么问题,而且效果很不错,工程师做到这一步就行了
: 当然不排除你说的端到端出错的情况,但我认为发生概率很低。
: 另外,我觉得端到端方案肯定是很吃数据和算力的,这点没弄好可能还不如规则方案,但这个应该不是你说说的原因造成的
☆─────────────────────────────────────☆
bolt08 (bolt08) 于 (Tue Aug 6 12:02:28 2024) 提到:
我没说transformers没有归纳偏置啊,而且没有归纳偏置的模型存在吗?
【 在 qtpr 的大作中提到: 】
: 你不懂理论,没有归纳偏置的模型是没用的。
:
☆─────────────────────────────────────☆
bolt08 (bolt08) 于 (Tue Aug 6 12:09:37 2024) 提到:
你怎么解释归纳偏置少的模型效果比归纳偏置多的模型效果好这一现象?
【 在 qtpr 的大作中提到: 】
: 你不懂理论,没有归纳偏置的模型是没用的。
: