-
算法/深度学习/NLP面试笔记: [[github]](https://github.com/HarleysZhang/2019_algorithm_intern_information https://github.com/imhuay/Algorithm_Interview_Notes-Chinese)
-
AI Jobs Notes https://github.com/amusi/AI-Job-Notes 公式:刷题+背题+项目+实习(可选)+竞赛(可选)+顶会/顶刊(可选)
-
Deep Learning interview book https://github.com/amusi/Deep-Learning-Interview-Book
-
机器学习/算法校招面试考点 https://www.nowcoder.com/discuss/165930
-
介绍 CRF和HMM - 用Python实现 K-Means - 解释一下精确率和召回率
-
Transformer为什么要加残差 - 对比介绍 CNN,RNN和 LSTM
-
朴素贝叶斯为什么被称为“朴素”?
-
高频题:XGBoost和LightGBM的区别
-
高频题:Bagging和Boosting的概念与区别
-
解释一下支持向量机(SVM)如何学习非线性边界?
-
XGBoost里面不同参数主要是什么作用,有哪些参数可以调节?
-
思考题:假设你在 Reddit 数据集上使用循环神经网络或长短时记忆神经网络设计了一个聊天机器人,它能够提供 10 种可能的回复,如何选择最佳回复,或者说如何删除其他的回复?
-
深度学习500问 [github]
以问答形式对常用的概率知识、线性代数、机器学习、深度学习、计算机视觉等热点问题进行阐述,以帮助自己及有需要的读者。 全书分为18个章节,50余万字。由于水平有限,书中不妥之处恳请广大读者批评指正。 未完待续............ 如有意合作,联系scutjy2015@163.com 版权所有,违权必究 Tan 2018.06