分享一份斯坦福大学 CME 295 课程的图解速查表,它将 Transformer 和大语言模型的核心概念和技术要点浓缩成直观图解。
对 AI 开发者和学生来说,这是一份不错的学习资料,可快速掌握到大模型相关的关键概念。
GitHub: https://github.com/afshinea/stanford-cme-295-transformers-large-language-models
涵盖从 Transformer 自注意力机制、架构变体、优化技术,到 LLM 的提示工程、微调方法、和应用场景,包括 RAG、Agent 和推理模型等内容。
并提供英语、西班牙语和法语三种语言版本,可以直接在 GitHub 上查看或下载 PDF 格式使用。