Skip to content

一、知识模块拆分

1. 大模型基础与原理

  • 大模型训练与目标

  • 参数、Token、量化、推理优化

  • Transformer 结构与机制

  • 涌现能力

  • LLM 与普通程序差异

2. 模型微调与对齐

  • 指令微调 / 全参数微调 / PEFT

  • RLHF

  • 微调 vs 预训练 vs 提示工程

  • 微调种类与用途

3. 提示工程(Prompt Engineering)

  • 提示模板 / 提示链 / 思维链 / 思维树

  • 零样本 / 少样本 / CoT

  • 提示注入与防御

  • 角色提示、复杂多轮对话提示

  • 提示效果评估

4. Agent 与多Agent系统

  • Agent 定义与核心模块

  • ReAct 框架

  • Agent 与 Workflow 区别;Agent 与单轮LLM区别

  • Agent 记忆模块

  • Function Calling、MCP、A2A 协议

5. RAG(检索增强生成)与相关技术

  • RAG 定义、原理、优势、流程

  • 文档分块策略

  • 向量检索与索引

  • 高级RAG方法、GraphRAG

  • RAG与微调比较

  • RAG在企业部署中的挑战

6. 大模型应用开发与架构

  • 大模型部署方式

  • 扩展性与性能优化

  • 安全性与隐私

  • 成本管理

  • LangChain 与 LangGraph

  • API 调用 & 错误处理机制

  • SSE / WebSocket 通信机制)

7. 模型评估与监控

  • 模型评估方法、维度

  • 性能监控与指标

  • 基准测试 Benchmark

  • 用户体验优化

8. 大模型应用难点专题

  • 幻觉

  • 深度搜索策略

  • IoT/垂直领域应用

  • DeepSeek-R1 优缺点

二、学习方法设计(结合三大原则)

  • 艾宾浩斯遗忘曲线:重复复习 → 1天/3天/7天/14天/30天节点。

  • 费曼学习法:每个模块学习后,用自己的话讲出来,像对面试官/同事解释。

  • 第一性原理:每个概念都问自己“它最核心的本质是什么?为什么要这样设计?如果不这样会怎样?”

三、时间规划

1. 每日学习(微循环)

  • 学习:1–2 小时

    • 新内容:1 个子模块(约 5–7 道题目)

    • 方式:看题 → 自己回答 → 查资料补充 → 用费曼法讲解

  • 复习:30 分钟

    • 前 1 天的内容(短期记忆回顾)

    • 前 3 天的内容(巩固)

👉 指标:能用口头表达清楚,解释时逻辑自洽,无明显卡壳。

2. 每周学习(中循环)

  • 周一到周五:逐个模块推进

  • 周六:全周题目自测(模拟面试),每题限时 2 分钟回答

  • 周日:错题回顾 + 知识图谱梳理(绘制思维导图,把模块连起来)

👉 指标:80% 题目能在 2 分钟内答出核心要点。

3. 每月学习(大循环)

  • 第 1–3 周:逐步学习 + 周考

  • 第 4 周:全量模拟面试(100+ 题,分模块随机抽问)

  • 输出:写一份面试手册(题目 + 自己的简洁答案)

👉 指标:

  • 至少 3 次完整模拟面试演练

  • 答案结构:先定义 → 再机制/原理 → 最后应用/优缺点

四、学习里程碑指标

  1. 第1周:完成“大模型基础”和“提示工程”,能清晰解释 Transformer 机制和 Prompt 技巧。

  2. 第2周:掌握 Agent 与 RAG 核心知识,能讲清楚它们的流程与区别。

  3. 第3周:能把微调、部署、评估和安全性讲完整,答题时有结构感。

  4. 第4周:全覆盖复盘,形成个人面试答案集。

五、大语言模型面试知识图谱

大语言模型面试知识图谱

六、支持作者

如果这个项目对你有帮助,欢迎赞助支持!
你的支持是我继续优化和更新项目的动力,让更多人受益于优质的LLM学习资源。

支付宝赞助

支付宝赞助

微信赞助

微信赞助

感谢每一位支持者,你们的鼓励是我持续更新的动力!🚀