- 主题:主题:开发想简单入门人工智能/深度学习,选择哪个框架? (转载)
keras,看kaggle和官网
【 在 GoGoRoger 的大作中提到: 】
: 主要使用c++,python,简单使用过caffe。
: 有没有好的教程?
: --
: ...................
--
FROM 155.64.23.*
深入理解也很简单啊
每个操作都是可微的,然后反向传导就是个对误差函数数值求梯度再乘以学习率的过程
误差函数作为一个复合函数,梯度的求导实际上是解一个计算图,这个工作被python完成后变成大量矩阵计算任务,分配到GPU完成
框架干的事情,就是把麻烦的东西包起来。比如动态学习率变化的经验算法,各种算子,奇奇怪怪的误差函数之类
【 在 GoGoRoger 的大作中提到: 】
: 昨天看了一天tensorflow,其实调调api也挺简单的,要深入了解就很难了,估计也没几个人真懂。
--
FROM 155.64.23.*
人工智能专家这个概念是青年导师们搞出来作报告用的
对于大多数任务来说,需要的不是优化模型而是优化数据。对于具体应用来说把SOTA的模型提高一点点准确率什么意义也没有。两三年前开始,优化模型这事情也可以用机器自动完成,电费比专家费低多了但还是卖不掉啊
【 在 GoGoRoger 的大作中提到: 】
: 这些我也知道啊,但你会优化模型吗?那些“人工智能专家”不是只会调api吧?
--
FROM 155.64.23.*
resnet,transformer这类是原理上的创新,不是优化模型,这些模型也不是SOTA。
优化模型,指的是kaggle上的为了刷分搞出来的奇奇怪怪的东西。
【 在 GoGoRoger 的大作中提到: 】
: 还是可以优化模型吧,像resnet解决了vgg模型过深的问题,还有一些文本的,我不太懂。
--
FROM 155.64.23.*
tf的api改的太猛,换个领导就重构一遍,老代码基本都死了
【 在 heyuanlie 的大作中提到: 】
: 个人觉得没有哪个能搞死哪个这一说,因为底层都是靠gpu加速,上层网络结构都是公开发表在论文上的,所以各种计算架构的性能没有本质上的区别。
: 本来用哪个都差不多,用什么框架通常都是基于习惯、喜好和项目惯性,但现在有了制裁这个大背景就不同了,所以国内公司新上的项目最好优先选择国内公司开发的框架,用国外的风险太大,一旦出现新的制裁导致有部分市场不能用那损失就太大了。
:
--
FROM 27.91.71.*
最不爽的是两个问题:RGB顺序,颜色是第一维度还是最后一个维度
这些玩意能搞废一大堆代码,加大量肮脏的if else
【 在 heyuanlie 的大作中提到: 】
: 那就头大了,幸亏没有抱过tf大腿。
:
--
FROM 27.91.71.*
pytorch适合奇奇怪怪的模型,keras适合糙快猛
keras这种自动识别gpu,把loss,acc封装成一个参数,把优化算法封装成一个class的做法还是很爽的。训练时的默认输出也很漂亮。
【 在 ilovecpp 的大作中提到: 】
: 跟着大家用pytorch就行了。
: 随大流比关注一些技术细节更有效。
--
FROM 27.91.71.*
keras最早是一个theano和tf的兼容性皮,theano停更了,tensorflow决定吃了keras
【 在 GoGoRoger 的大作中提到: 】
: 我看tf里也有Keras的包
: 发自「今日水木 on M2007J17C」
--
FROM 155.64.23.*
这么一搞又破坏了不少现有代码的import写法,tf的领导真是祸害
【 在 syssky 的大作中提到: 】
: 现在keras已经合到tf的代码库去迭代了。
:
: - 来自「最水木 for iPhone Xs Max」
--
FROM 27.91.71.*