传统规则模型容量很小,规则多了之后互相冲突,优先级难定,你愿意加再多人工,也无法提高了。
你愿意把新算法理解成容量很大的规则模型也没问题。真能“有多少人工就有多少智能”已经不错了,之前是“加再多人工也没多少智能”。
【 在 netskysm 的大作中提到: 】
: 机器学习是针对大量数据的,如果对数据做很多前期的治理,人工加上诸多标签,感觉有些脱离智能化了。现在宣传很好,但落地的时候真的是问题很多,不管是图像的分类还是语音的识别,需要大量人工干预进行标签化。效果好的算法,其实是掺杂了很多类似规则模型。
--
修改:ilovecpp FROM 124.78.174.*
FROM 124.78.174.*