- 主题:科学、可证伪性与精神分析 (转载)
我哪里是自作聪明呢,我就是自认不够聪明,才问的chatgpt
【 在 hut 的大作中提到: 】
: 总是有一些自作聪明的人
: 看截图吧 作者都是一流牛人
: 前三张是vapnik的统计学习理论
: ...................
--
FROM 128.107.241.*
精神分析主要是弗洛伊德学派。
证伪的话就是这些年的研究。
【 在 bajie0001 的大作中提到: 】
: 读谁的?维特吗,他把老师罗素否了,后来接着把自己的也否了
- 来自 水木说
--
FROM 72.195.231.*
友情提醒,以下内容来自ChatGPT,仅供学习参考:
在统计学习理论中,Vladimir Vapnik 提出的“不可证伪性”概念与科学哲学中的不可证伪性有一定的联系,但它是在统计学习和机器学习的背景下提出的,有其独特的含义。
Vapnik的统计学习理论中的不可证伪性:
背景介绍:
Vapnik是统计学习理论的主要创立者之一,该理论为机器学习提供了一个数学框架,特别是对如何从数据中学习进行分析。
统计学习理论探讨的是从有限样本中推断出一般规律的能力,研究如何通过学习算法将数据映射到某种模型,从而进行有效预测。
不可证伪性理论:
Vapnik在其理论中引入了“不可证伪性”的概念,用于描述模型或假设类的某些特征。这里的不可证伪性与科学哲学中的不可证伪性概念类似,但其应用更加技术性。
模型的不可证伪性:如果一个假设类(即模型空间)过于庞大、复杂,它可能在训练数据上表现很好,但实际上它的表现是因为它过度拟合了数据,而不是因为它很好地反映了数据背后的真实分布。这意味着这样的模型无法通过简单的测试或验证过程被证伪(即表现为糟糕),因为它总能找到一种方式去解释数据。
过度拟合与不可证伪性:不可证伪性的模型往往容易过度拟合,过度拟合的模型看似解释了训练数据,但它对新数据的预测性能很差。因此,在统计学习中,不可证伪性与模型的泛化能力密切相关。
Vapnik的观点:
Vapnik强调,在统计学习中,好的模型应该是能够被验证的。即,一个模型的假设空间不应该过于复杂,否则它的不可证伪性会导致过度拟合,并因此失去对未知数据的预测能力。
结构风险最小化(SRM)原则:Vapnik提出的SRM原则通过引入模型复杂度的约束来控制不可证伪性。这一原则建议在选择模型时,不仅要考虑训练误差,还要考虑模型复杂度,以避免不可证伪性所带来的过度拟合风险。
总结:
在Vapnik的统计学习理论中,“不可证伪性”指的是某些模型或假设类由于其过度复杂性,无法通过标准验证过程被“证伪”,即它们可能始终能够解释训练数据,但却无法有效地推广到新的数据。通过控制模型复杂度(如SRM原则),可以减少不可证伪性,避免过度拟合,从而提高模型的泛化能力。这与波普尔的证伪主义在科学哲学中的作用有一定相似之处,但在统计学习中,这一概念更直接与模型选择和泛化能力联系在一起。
【 在 hut 的大作中提到: 】
: 总是有一些自作聪明的人
: 看截图吧 作者都是一流牛人
: 前三张是vapnik的统计学习理论
: ...................
--
FROM 128.107.241.*
【 在 jinbabawa 的大作中提到: 】
: 友情提醒,以下内容来自ChatGPT,仅供学习参考:
: 在统计学习理论中,Vladimir Vapnik 提出的“不可证伪性”概念与科学哲学中的不可证伪性有一定的联系,但它是在统计学习和机器学习的背景下提出的,有其独特的含义。
: Vapnik的统计学习理论中的不可证伪性:
: ...................
赞ChatGPT
这个解释忠于统计原理,非常清晰有力
--
FROM 61.48.209.*
友情提醒,以下内容来自ChatGPT,仅供学习参考:
Tom M. Mitchell 在其经典著作《机器学习》中讨论了“无偏学习”的概念,指出了无偏学习在实践中的局限性。无偏学习(Unbiased Learning)是指一个学习算法在训练过程中没有任何偏见,即它不倾向于选择某些特定的假设或模型。Mitchell 主要提出了这种学习方式的一些理论问题,尤其是在实际应用中的不足。
1. 无偏学习的定义和背景:
无偏学习:无偏学习的理念是希望学习算法在选择模型时尽可能不带有先验的偏见,即它不预设任何关于数据的特殊假设或先入为主的观点。换句话说,无偏学习试图通过从数据中学习所有可能的模式,而不受到先验假设的影响。
2. Mitchell 的观点:
Mitchell 提出了无偏学习的几个主要局限性,主要集中在以下几个方面:
模型复杂性问题:
模型复杂度:在无偏学习中,算法可能会选择非常复杂的模型来拟合训练数据,尤其是当假设空间(即模型的集合)非常大时。这种复杂性往往会导致过拟合,使得模型在训练数据上表现良好,但在新数据上泛化能力较差。
选择合适的模型:无偏学习的算法可能会选择许多复杂的假设,缺乏对模型复杂度的控制。这种复杂性增加了算法的训练和计算成本,也使得模型难以解释和验证。
泛化能力问题:
泛化误差:无偏学习的算法可能在训练数据上表现很好,但由于它没有考虑泛化能力,它的实际性能可能在未知数据上不尽如人意。即使算法没有偏见,它仍然需要考虑如何在新数据上进行有效的预测。
经验风险与结构风险:Mitchell 认为,无偏学习并不一定考虑到模型的泛化误差(即结构风险),它可能仅仅关注训练误差(经验风险),这可能导致泛化能力较差。
偏见与方差权衡:
偏见-方差权衡:Mitchell 讨论了机器学习中的偏见与方差权衡问题。在实际应用中,学习算法必须在偏见(即模型的假设错误)和方差(即模型对数据噪声的敏感性)之间找到平衡。无偏学习往往忽视了这个权衡,因此可能在某些方面表现不佳。
实践中的有效性:
实际应用:在实际应用中,完全的无偏学习往往是不切实际的。实际数据通常存在噪声、缺失值和复杂的结构,这要求学习算法在模型选择和训练过程中进行适当的偏见调整,以实现更好的泛化能力。
领域知识:在许多应用场景中,利用领域知识来引导模型选择和训练可以显著提高模型的性能和解释能力。因此,完全无偏的学习策略在实际中往往不如具有合理先验知识的学习策略有效。
3. 总结:
Mitchell 的观点表明,尽管无偏学习在理论上是一个理想的目标,但在实践中它可能带来模型复杂性和泛化能力等问题。为了提高机器学习算法的实际效果,往往需要在学习过程中适当引入先验知识、控制模型复杂度,并关注偏见与方差的权衡。这些措施可以帮助提高模型的泛化能力,使其在面对真实世界的数据时表现更好。
【 在 hut 的大作中提到: 】
: 总是有一些自作聪明的人
: 看截图吧 作者都是一流牛人
: 前三张是vapnik的统计学习理论
: ...................
--
FROM 128.107.241.*
就是,ChatGPT 有一说一,不扯大旗,版上灌水大爷大妈们都能看懂
【 在 redapron 的大作中提到: 】
: 赞ChatGPT
: 这个解释忠于统计原理,非常清晰有力
--
FROM 128.107.241.*
【 在 jinbabawa 的大作中提到: 】
: 就是,ChatGPT 有一说一,不扯大旗,版上灌水大爷大妈们都能看懂
:
属实是大爷大妈友好型回答,都看懂了。
前头那个图太糊,远看有蝌蚪,近看一摸糊,我连上头字都没认全。
--
FROM 61.48.209.*
这正是:
前传万穿马屁不穿
【 在 hut 的大作中提到: 】
: 你的理解能力啊
: 你去看看xiaobaozhu在我原文下的回复吧
: 人家就觉得例子好,还特意发心得了
--
FROM 124.64.5.*
“无偏的学习机器是没有用的”
这句话我不确定对不对,需要找个权威的出处
【 在 redapron 的大作中提到: 】
:
: ,无偏的学习机器是没有用的,也就是你要学习,必须要有bias(偏置)
--
FROM 112.28.200.*
我觉得Bias不一定是随机误差,bias也可能是系统误差
Thus, the assumption of machine learning being free of bias is a false one, bias being a fundamental property of inductive learning systems.
因此,机器学习没有bias的假设是错误的,bias是归纳学习系统的基本属性。
【 在 redapron 的大作中提到: 】
:
: ,无偏的学习机器是没有用的,也就是你要学习,必须要有bias(偏置)
--
FROM 112.28.200.*