- 主题:做ai的。绝大部分当年就是搞压缩感知的那波人
压缩感知 弃之如敝屣
良心不会痛吗
--
FROM 182.104.127.*
那咋整?还能继续做压缩感知?
【 在 G1001 的大作中提到: 】
: 压缩感知 弃之如敝屣
: 良心不会痛吗
--
FROM 113.5.4.*
能抓着老鼠就是好猫。
【 在 G1001 的大作中提到: 】
: 压缩感知 弃之如敝屣
: 良心不会痛吗
--
FROM 124.205.77.*
也不完全是吧,如果数值计算做的越多,你对计算越没信心了
计算机模拟的问题需要大量的简化,真实复杂问题处理起来都是以年为单位
【 在 loooong 的大作中提到: 】
:
: 那咋整?还能继续做压缩感知?
:
: --
发自「今日水木 on iPad Pro 10.5」
--
FROM 219.246.62.*
压缩感知没人做了
小波变换也没人做了
现在全部炼丹
--
FROM 117.147.68.*
如何得出的结论?
【 在 G1001 的大作中提到: 】
: 压缩感知 弃之如敝屣
: 良心不会痛吗
--
FROM 119.103.118.*
所以最后还得要看做出什么可用的技术或者产品出来了。。
刷了一堆paper,没几个能真刀真枪用起来的,就在标准数据集上测几个所谓的性能
【 在 G1001 (高铁) 的大作中提到: 】
: 压缩感知 弃之如敝屣
: 良心不会痛吗
--
FROM 111.198.239.*
学术界都是在跟风啊, 就算法领域来说,我跟过的有:小波->水平集->压缩感知->深度学习,我私下比较喜欢的模型:贝叶斯,svm
【 在 G1001 的大作中提到: 】
: 压缩感知 弃之如敝屣
: 良心不会痛吗
--
FROM 124.16.254.*
就是啊,一堆跟风 还嘲笑 没有跟风的
真不知道说什么好
过两年 又出来一个什么东西, ai照样会被抛弃
【 在 mingmei 的大作中提到: 】
: 学术界都是在跟风啊, 就算法领域来说,我跟过的有:小波->水平集->压缩感知->深度学习,我私下比较喜欢的模型:贝叶斯,svm
:
:
--
FROM 222.204.49.*
最简单的往往最好用
【 在 mingmei 的大作中提到: 】
: 学术界都是在跟风啊, 就算法领域来说,我跟过的有:小波->水平集->压缩感知->深度学习,我私下比较喜欢的模型:贝叶斯,svm
:
:
--
FROM 106.121.128.*