- 主题:马毅院士:为什么国内在AI的研究总是在跟踪或追赶
阿
【 在 eventvwr 的大作中提到: 】
: 中国人搞的,但是人在美国啊。说不定已经是美国人了。
--
FROM 124.64.123.*
清北的汉奸们要负很大的责任
【 在 mizhahu 的大作中提到: 】
: 最近常常有人问我,为什么国内在AI的研究总是在跟踪或追赶,而且好像越跟距离越远?我想英文有一句话讲很中肯:“You get what you reward”。也就是对管理者而言”你奖励什么,就会得到什么”。我们如果一直鼓励跟踪追赶,那么我们就只能得到越来越多的追赶。而且论证追赶很容易(人家都已经有了我们没有就落后了,而且可行性已经被验证了,投入风险不大云云,振振有词)。已经马后炮了,还特别的理所当然理直气壮。鼓励这种做法本身就是直接至少是间接的在打压真正有理想在做独立创新的人。中国不缺研发资源(至少在我涉及的领域),更不缺有才能有理想的年轻人,但目前这两个因素目前好像根本没有联系在一起。
--
FROM 183.228.177.148
【 在 zfbdcyj 的大作中提到: 】
: 看来还可以啊。看来光刻机是卡脖子的总根源。
:
百度自己搜索都做的稀烂,你信他能搞出多好的大型语言模型。
牛逼的都是建立在别人开源的基础上。
--
FROM 125.88.24.*
深度学习本身卡不了脖子了,都是公开的了,很多东西都是开源的,国内一堆公司在用,跟光刻机完全不像,光刻机新的一台得重新造出来,还有专利,但是代码你给出来就是给出来了,除非他们用新的东西卡脖子
神经网络这个东西底层本来也不像光刻机那么复杂,只是无法解释为什么能用而已
【 在 zfbdcyj 的大作中提到: 】
: 问题是美国人已经在深度学习上有了系统的人才和研究积累。在这个框架内中国很难从新设计一套吧?这里面应该有大量的专利和基本的程序。至少我没听说中国有类似pytorch之类的基本程序。这些程序一掐,不就又成卡脖子了吗?
:
--
FROM 168.235.206.*
贾扬清,阿里技术副总裁,但是人在疫情封城期间跑美国去了…
【 在 zfbdcyj 的大作中提到: 】
: 这有啥用?芯片也有很多中国人吧?别说应用研究。即使是基础研究,在美国做的就是美国的工作。
:
--
FROM 168.235.206.*
缺乏想象力才会觉得已经定型
chatgpt出来之前,大部分人也想不到能有如此智能
【 在 zfbdcyj 的大作中提到: 】
: 感觉AI已经研究很深入了,基层的东西可能已经定型了。至少目前的路径上中国即使再跟着走一遍,最后还是会被卡脖子。就像芯片一样,华为也会芯片设计,然而没有光刻机。现在AI相当于美国已经有了光刻机,中国搞得都是设计芯片层次的东西。
--
FROM 219.143.157.*
chatGpt还是神经网络框架啊。上层应用肯定和多样。我的问题就是神经网络框架底层会不会出现光刻机这样的卡脖子问题。
【 在 jimmycmh 的大作中提到: 】
: 缺乏想象力才会觉得已经定型
: chatgpt出来之前,大部分人也想不到能有如此智能
:
--
FROM 222.192.3.*
不是框架
神经网络的结构是核心。现在主要模型的结构,都是国外提出的
【 在 zfbdcyj 的大作中提到: 】
: chatGpt还是神经网络框架啊。上层应用肯定和多样。我的问题就是神经网络框架底层会不会出现光刻机这样的卡脖子问题。
--
FROM 219.143.157.*
有些人认为百度的可以用。因为我现在在用pytorch作为工具处理一些东西。担心的就是会不会出现禁用matlab之类的问题。
【 在 victd 的大作中提到: 】
:
: 百度自己搜索都做的稀烂,你信他能搞出多好的大型语言模型。
: 牛逼的都是建立在别人开源的基础上。
--
FROM 222.192.3.*
对啊。这些结构会不会被卡呢。比如我用的pytorch美国能不让我用吗?
【 在 jimmycmh 的大作中提到: 】
: 不是框架
: 神经网络的结构是核心。现在主要模型的结构,都是国外提出的
:
--
FROM 222.192.3.*