-
线性代数
- 向量和矩阵运算
- 特征值和特征向量
- 奇异值分解 (SVD)
-
微积分
- 导数和梯度
- 多变量微积分
- 优化理论基础
-
概率论与统计
- 概率分布
- 贝叶斯定理
- 统计推断
-
信息论
- 熵和互信息
- KL 散度
-
最优化
- 梯度下降法
- 牛顿法和拟牛顿法
- 凸优化
-
搜索算法
- 深度优先搜索 (DFS)
- 广度优先搜索 (BFS)
- A* 算法
-
排序算法
- 快速排序
- 归并排序
- 堆排序
-
图算法
- 最短路径算法 (Dijkstra, Bellman-Ford)
- 最小生成树 (Prim, Kruskal)
-
动态规划
-
机器学习算法
- 线性回归
- 逻辑回归
- 决策树
- 支持向量机 (SVM)
- k-最近邻 (k-NN)
-
深度学习算法
- 前馈神经网络
- 卷积神经网络 (CNN)
- 循环神经网络 (RNN)
- 长短期记忆网络 (LSTM)
-
强化学习算法
- Q-learning
- 策略梯度法
- Actor-Critic 方法
-
Python 环境设置
- Anaconda 安装
- 虚拟环境创建
-
深度学习框架安装
- TensorFlow
- PyTorch
-
常用库安装
- NumPy
- Pandas
- Scikit-learn
- Matplotlib
-
GPU 加速设置
- CUDA 安装
- cuDNN 配置
-
开发工具
- Jupyter Notebook
- PyCharm
- Visual Studio Code
-
版本控制
- Git 安装和配置
-
云平台设置
- Google Colab
- AWS SageMaker
- OpenAI Gym
- TensorFlow Agents
- PyTorch Geometric
- Stable Baselines3
- Ray RLlib
- NLTK (Natural Language Toolkit)
- spaCy
- Hugging Face Transformers
- Rasa
- OpenCV
- IEEE Ethically Aligned Design
- EU Ethics Guidelines for Trustworthy AI
- OECD AI Principles
- UNESCO Recommendation on the Ethics of AI
- 中国新一代人工智能治理原则
- ACM Code of Ethics and Professional Conduct
本术语表包含了书中使用的关键术语及其简要解释。
-
Agent: 能够感知环境并采取行动的实体。
-
强化学习: 通过与环境交互学习最优策略的机器学习方法。
-
深度学习: 使用多层神经网络的机器学习子领域。
-
神经网络: 受生物神经系统启发的计算模型。
-
卷积神经网络 (CNN): 特别适用于处理网格化数据(如图像)的神经网络。
-
循环神经网络 (RNN): 适用于处理序列数据的神经网络。
-
长短期记忆网络 (LSTM): RNN 的一种变体,能够学习长期依赖关系。
-
注意力机制: 允许模型关注输入的特定部分的技术。
-
迁移学习: 将在一个任务上学到的知识应用到相关任务的技术。
-
元学习: "学习如何学习"的技术。
-
联邦学习: 在不共享原始数据的情况下进行分布式机器学习的方法。
-
对抗性攻击: 通过微小的输入扰动使 AI 模型产生错误输出的技术。
-
可解释 AI: 使 AI 系统的决策过程可理解的方法和技术。
-
伦理 AI: 开发和使用符合道德标准的 AI 系统。
-
边缘计算: 在数据源附近进行数据处理和分析的计算范式。
-
物联网 (IoT): 互联网连接的物理设备网络。
-
通用人工智能 (AGI): 能够执行任何智力任务的 AI 系统。
-
人机共生: 人类与 AI 系统之间深度融合和协作的概念。
-
脑机接口 (BCI): 在大脑和外部设备之间建立直接通信通道的技术。
-
联邦学习: 允许多方在不共享原始数据的情况下共同训练 AI 模型的技术。
-
Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction. MIT press.
-
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
-
Russell, S. J., & Norvig, P. (2020). Artificial intelligence: a modern approach. Pearson.
-
Chollet, F. (2018). Deep learning with Python. Manning Publications Co.
-
Géron, A. (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: Concepts, tools, and techniques to build intelligent systems. O'Reilly Media.
-
Silver, D., et al. (2017). Mastering the game of Go without human knowledge. Nature, 550(7676), 354-359.
-
Vaswani, A., et al. (2017). Attention is all you need. In Advances in neural information processing systems (pp. 5998-6008).
-
Finn, C., Abbeel, P., & Levine, S. (2017). Model-agnostic meta-learning for fast adaptation of deep networks. In Proceedings of the 34th International Conference on Machine Learning-Volume 70 (pp. 1126-1135).
-
McMahan, H. B., et al.(2017). Communication-efficient learning of deep networks from decentralized data. In Artificial Intelligence and Statistics (pp. 1273-1282). PMLR.
-
Goodfellow, I. J., Shlens, J., & Szegedy, C. (2014). Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572.
-
Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.
-
Amodei, D., et al. (2016). Concrete problems in AI safety. arXiv preprint arXiv:1606.06565.
-
Shi, W., Cao, J., Zhang, Q., Li, Y., & Xu, L. (2016). Edge computing: Vision and challenges. IEEE internet of things journal, 3(5), 637-646.
-
Lake, B. M., Ullman, T. D., Tenenbaum, J. B., & Gershman, S. J. (2017). Building machines that learn and think like people. Behavioral and brain sciences, 40.
-
Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555-572). Springer, Cham.
-
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436-444.
-
Mnih, V., et al. (2015). Human-level control through deep reinforcement learning. nature, 518(7540), 529-533.
-
Silver, D., et al. (2016). Mastering the game of Go with deep neural networks and tree search. nature, 529(7587), 484-489.
-
Brown, T. B., et al. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165.
-
Vinyals, O., et al. (2019). Grandmaster level in StarCraft II using multi-agent reinforcement learning. Nature, 575(7782), 350-354.
-
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, 25.
-
Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735-1780.
-
Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473.
-
Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347.
-
Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
-
He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).
-
Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980.
-
Graves, A., Mohamed, A. R., & Hinton, G. (2013). Speech recognition with deep recurrent neural networks. In 2013 IEEE international conference on acoustics, speech and signal processing (pp. 6645-6649). IEEE.
-
Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural networks, 61, 85-117.
-
Lillicrap, T. P., et al. (2015). Continuous control with deep reinforcement learning. arXiv preprint arXiv:1509.02971.
这些参考文献涵盖了 AI 和机器学习领域的关键论文和书籍,包括深度学习、强化学习、自然语言处理、计算机视觉等多个方向的重要工作。它们为本书的内容提供了坚实的理论基础和实践指导。读者可以通过这些参考文献深入了解相关主题,并跟踪最新的研究进展。
在 AI 这个快速发展的领域,保持对最新研究的关注是非常重要的。我鼓励读者定期查阅顶级会议(如 NeurIPS, ICML, ICLR, CVPR 等)的论文,以及 arXiv 预印本平台上的最新工作。同时,关注领先 AI 研究机构和公司的博客和技术报告也是了解行业动态的好方法。
记住,在 AI 领域,理论与实践同样重要。在学习这些论文的同时,也要动手实现算法,参与实际项目,这样才能真正掌握 AI Agent 开发的技能。
祝你在 AI 的探索之旅中取得成功!