同小白,转行准备中。
我是从吴恩达开始看,比较适合没基础的同学,基本能看懂
coursera上面搜 machine learning specialization和 Deep learning specialization
然后推荐看看github上 Andrej Karpathy的两个库 convnetjs 和 recurrentjs
我是看了这两个代码才真正理解了 backpropagation 和 RNN/LSTM
吴恩达的DL课程里,nlp/Transformer的部分听的不是很明白,所以又看了斯坦福的 CS224N
我比较笨,看的也比较慢,这些资料大概用了4个月的时间。
楼主专门提到了数学。我看到这里,对数学部分的感受是,
1.如果还记得些向量/矩阵乘法基本就够用了。
2.另外就是有些求导数的公式,太久没用确实忘光了,这个用到的时候专门查一下就好。
下一步的重点就打算放在LLM了:
准备看看Andrej Karpathy 的《Zero 2 Hero》 大概意思是从零撸一个 GPT-2
另外工程上,DL相关的工具链可能也得花些时间
python,numpy,scikit,pytorch,tensorflow之类的
以上是我目前看过的全部资料,也请大佬看看,还有没有其他资料值得推荐,感谢。
--
FROM 123.118.226.*