跳转至

LLM自学指南

🎯 15天掌握大语言模型核心技术,助力技术面试成功!

🚧 项目状态:积极开发中

当前版本主要覆盖模型架构与应用领域。我们正在持续扩展内容,计划添加数据处理、模型训练、强化学习、推理优化等更多核心领域。

📅 更新频率:每周新增内容 | 预计完整版本:2025年Q2

这是一个专为技术面试设计的LLM学习资源库,涵盖从基础原理到前沿技术的完整知识体系。

🎯 学习目标

  • 📝 面试导向: 重点覆盖技术面试高频考点
  • 🔬 技术深度: 既有原理理解又有代码实践
  • ⚡ 高效学习: 15天系统化学习路径
  • 🌟 前沿技术: 包含DeepSeek等最新技术创新
  • 💪 实战能力: 完整的代码实现和项目练习

📅 15天学习计划

阶段 章节 主要内容 学习时间 重点技能
基础理论 第1节 Transformer基础 Attention + FFN + 编码器-解码器 + Tokenizer 3天 架构理解
技术升级 第2节 Attention升级 MHA→MQA→GQA→MLA + KV Cache + RoPE 3天 优化技术
现代架构 第3节 LLM升级技术 MOE架构 + 分布式训练基础 1.5天 工程概念
前沿创新 第4节 DeepSeek技术 MLA + DeepSeek MoE + MTP 3天 前沿技术
应用实战 第5节 Context Engineering 上下文工程 + 提示词设计 1.5天 应用技能
应用实战 第6节 RAG与Agent RAG技术 + AI Agent框架 1.5天 系统架构
应用实战 第7节 CoT与评测 思维链 + LangChain + 模型评测 1.5天 评测方法

总计:15天 | 核心技能:理论+实践+面试

🚀 快速开始

推荐学习路径

  1. 按顺序学习: 每个章节都有前置依赖关系
  2. 理论+实践: 每节都包含代码实现和面试问答
  3. 重点关注: 标记为🌟的DeepSeek创新技术是面试热点

学习检验标准

  • 理论理解: 能清晰解释核心原理
  • 代码实现: 能写出关键算法代码
  • 面试准备: 能回答技术面试问题

🔥 核心特色

📊 技术覆盖

模型基础 (10.5天)
├── Transformer基础 (3天)
├── Attention升级 (3天)
├── 现代架构 (1.5天)
└── DeepSeek前沿 (3天)

应用实战 (4.5天)
├── Context Engineering (1.5天)
├── RAG与Agent (1.5天)
└── CoT与评测 (1.5天)

🎖️ 技术深度

  • 基础扎实: 从Attention到Transformer完整理解
  • 技术前沿: DeepSeek MLA/MoE等最新创新
  • 实战导向: 完整的工程实现和优化策略

🚀 未来规划

📋 即将添加的内容 (按优先级排序)

优先级 领域 主要内容 预计时间
🔥 P0 数据与预处理 数据收集、清洗、预处理流程、数据集构建 3-4天
🔥 P0 模型训练 预训练技术、分布式训练、训练监控调试 4-5天
🎯 P1 强化学习与对齐 RLHF、DPO、Constitutional AI、安全对齐 3-4天
P1 推理优化与部署 量化剪枝、推理加速、生产部署策略 3-4天
📊 P2 评测与基准 评测体系、基准测试、模型分析方法 2-3天
🌍 P2 多模态与专业领域 Vision-Language、代码生成、科学计算 3-4天
🏢 P3 工程与产品化 MLOps、产品化、商业化考量 2-3天

🎯 完整版本预览

完整版本将包含 35-40天 的系统化学习内容,覆盖LLM从理论到实践的全栈技术体系。


🎉 开始学习

选择感兴趣的章节开始学习吧!当前内容已足够支撑大部分LLM技术面试需求。

点击左侧导航栏选择章节,开始你的LLM学习之旅!