My AI Notes | 我的 AI 学习笔记
Astralyn

引言

作为没有接受过系统性计算机科学、人工智能教育的学生,我对 AI 的最初印象来自科普视频中提到的”深度学习算法””语言模型”这些词,听起来很酷,但也觉得很遥远。直到 2022 年 10 月首次使用 ChatGPT,才对”人工智能”有了实感。

后来因为好奇,参阅了一些介绍AI的资料,比如漫士沉思录“彻底理解AI”系列,飞天闪客AI入门AI百问系列,使用了一些AI产品

  • Web Chat型:ChatGPT,Gemini,Claude,Deepseek,Kimi,Qwen
  • 本地 Agent 型:Claude Code,OpenCode

慢慢发现:AI 并没有那么神秘,它的基本原理和工程架构完全可以被理解。当然,这并不意味着我能从零开始训练出一个大模型——知识还是硬件都不足——只是想弄明白,AI 的工作原理是什么。

这篇文章用来记录我理解的过程。我会把学到的东西用自己的话写下来,尽量不用复杂的术语。因为我并非专业,所以理解肯定有很多不严谨的地方,但它可能恰好适合那些和我一样、没有太多技术背景但想了解 AI 的朋友——比如对科技好奇的普通人。

我不断地往本篇文章里添加新的笔记。如果你发现哪里写错了,或者有更通俗的解释,也欢迎告诉我。


Chapter 1:基础模型

训练与推理

训练过程就是寻找一个聪明的函数,推理过程就是将自变量(输入内容)代入函数(推理)得到因变量(输出)。

维度 训练阶段 推理阶段
本质 参数学习
通过海量数据进行机器学习,不断更新模型权重,得到一个函数。
参数应用
根据训练好的权重进行计算,处理输入内容,生成输出。
计算特性 需要极高算力(大量GPU),涉及梯度计算。 相对轻量,除了纯GPU方案外,还可以CPU、GPU混合推理运行,追求低延迟、高吞吐。
模型状态 模型参数随着训练而改变 模型参数处于冻结状态,保持不变
数据依赖 需要大规模标注数据集 依赖用户提示词(+ Prompt)

每次和AI对话只是调用已经训练好的模型进行推理,模型本身不会因为对话而进化。所以那种“每次对话都在让AI变聪明”的说法是不准确的,真正的“进化”只发生在训练阶段。

AI 是如何“思考”

现在的模型本质还是概率模型,它并不能真正的思考,只是预测下一个Token。

机器学习和回归算法的细节超出了本文范围,读者如果感兴趣可以看引言中推荐的视频。

这里重点讲几个帮助理解”思考”过程的概念:

  • Token:语言模型处理自然语言的基本单位,可以直观的理解为“字”或“词”。不同模型的“分词器(Tokenizer)”不尽相同,但大致遵循以下规则:英文按子词拆分,可能被划分为多个 Token(如 “unhappy” → “un” + “happy”), 1 英文字符 ≈ 0.3 Token;汉语按字词拆分,1 中文字符 ≈ 0.6 Token。
  • 概率预测:AI 在写完回复之前,不知道它要输出什么内容;它基于“自回归算法”,推测“下一个 Token 可能是什么”。
  • 温度 (Temperature):调节概率分布的“集中程度”;低温更有确定性,高温更有创造力。
  • 思维链 (Chain of Thought):这种策略会引导模型将复杂问题分解为连续任务,降低单步推理难度,提升整体准确率。

多模态模型:升级函数

最初的纯文本模型只能处理文字,而多模态模型扩展了输入输出的范围:

类型 输入 输出 举例
纯文本模型 文本 文本 Minimax M2.5,GLM-5
输入多模态 文本、图像(+音视频) 文本 Kimi K2.5、Qwen3.5
输出多模态 文本 文本、图像(+音视频) DALL·E
全模态模型 文本、图像、音视频 文本、图像、音视频 Seedance 2.0,Sora 2,Qwen3-Omni

多模态模型并不是真的“看懂”图片和音视频,而是通过编码器将图片、音视频转换成向量,和文字向量放在同一个“向量空间”里计算。

开源策略

在2025年春节 Deepseek 爆火之后,大家或多或少地都从新闻中得知它是“开源”模型,但大语言模型的开源并不等价于软件开放代码,可以简单分为两类:

  • 完全开源

这种模式或许才是大多数人理解的开源,不仅开放权重,还公开训练代码、数据处理、完整流程,支持其他研究人员从零复现。

  • 开放权重

这是最常见的一类,他们会将训练好的模型参数发布到Hugging FaceGithub等平台,供社区下载到本地运行或微调。

代表模型有:DeepseekQwenMinimax智谱月之暗面Moonshot

值得一提的是,这类开放权重模型的许可证并不统一:有些采用 MIT 及其衍生协议、Apache 2.0 这类宽松协议,有些则使用各家自定义许可。是否支持商用、是否需要报备或遵守额外条款,还是要以对应模型仓库附带的 License 为准。

另外,Deepseek 除了开放权重以外,还在技术报告中分享了大量训练细节,为开源社区提供了不少有力的论文。

补充:微调 (Fine-tuning)

如果你下载了开源模型(比如Deepseek),用自己的数据继续训练一小段时间,让模型更懂你的业务,这个过程叫微调。

微调后的模型仍然是你的私有模型,推理时不需要联网。

术语速览

  • 向量:把文字、图片、音视频转换成“高维坐标”,让 AI 能在数学空间里计算它们的相似性。意思相近的词,它们的向量在空间中的角度、模长更接近。
  • 权重:模型训练后的最终参数文件。
  • 概率模型:基于统计预测,而非逻辑推理。
  • 幻觉:模型生成看似合理但事实错误的内容。
  • 上下文窗口:模型一次能处理的最大 Token 数(如 200K、1M)。

Chapter 2:输入&输出

消息流转路径:客户端 → 业务后端(处理业务逻辑) → 模型服务(纯推理) → 业务后端 → 客户端

概念说明

  • 客户端(Client):我们使用的Web UI、App(比如 Deepseek,千问,豆包)、其它AI终端(比如Claude Code),以及自己编写的会调用API的程序(比如沉浸式翻译自定义AI模型)。
  • 业务后端(Backend):提供API服务的平台(如 DeepSeek 后端服务器),负责用户认证、计费、会话管理、上下文组装(会在下一章讲解)等业务逻辑。
  • 模型服务:实际运行大模型推理的GPU集群,它本身无状态(不关心是哪个用户发送的消息),只负责推理
  • 流式输出:模型生成 Token 的同时,后端进行转发,看起来就像是AI在打字一样。

调用路径

1
你的客户端 → [API请求] → 业务后端 → [格式化输入] → 模型服务 → [生成回复] → 业务后端 → [API响应] → 你的客户端

补充:

  • 业务后端会负责将你发送的消息列表(如 [{"role": "user", "content": "你好"}])按照模型要求的模板(例如添加特殊token、系统提示词)转换成模型能理解的输入格式。
  • 模型服务返回原始输出后,业务后端可能进行后处理(如内容审核、格式封装),再返回给你。

术语速览

  • API:应用程序接口

  • 无状态 (Stateless):模型不记住任何历史,每次都是全新开始

  • 对话模板 (Chat Template) :将结构化消息格式化为模型输入字符串的规则


Chapter 3:AI 如何“记忆”

记忆与压缩:记忆是外挂的数据库文本,压缩是早期对话的摘要替换,两者都是为了在有限窗口内提供更连贯的体验。

会话内记忆

下图展示了第四轮对话时的数据流向

sequenceDiagram
    participant 用户
    participant 前端
    participant 后端
    participant 模型

    用户->>前端: 输入第4轮提示词
    activate 前端

    前端->>后端: 提示词+前3轮对话历史
    activate 后端

    后端->>后端: 组装完整提示词
(System + History + New Prompt) 后端->>模型: 流式请求(携带完整提示词) activate 模型 loop 逐字生成 模型-->>后端: 流式响应(一个 Token) 后端-->>前端: 转发 Token 前端-->>用户: 逐字显示(打字机效果) end deactivate 模型 deactivate 后端 deactivate 前端

细节解释

  1. 上下文(Context)是怎么“记忆”的?
    模型本身没有记忆。每轮对话,后端都会把之前的问答历史 + 当前问题打包成一个长文本,一起发给模型。就像你每次聊天前,先把之前的聊天记录读一遍,再回答新问题。

  2. 为什么 AI 看起来在“打字”?(流式输出)

    • 模型生成文本是一个一个 Token 预测的,不是先想好全文再输出。
    • 后端采用 Stream 模式:每生成一个 Token 就立刻返回给前端,前端收到就显示一个。
    • 效果:用户感觉 AI 在“边想边写”,体验更自然,等待焦虑也降低了。

跨会话记忆

  • 实现方式:后端数据库存储用户的长期信息(如偏好、专业、关键事实),每次请求时,后端将这些信息拼接到提示词的开头,作为“记忆”提供给模型。
  • 特点:记忆是显式插入的文本,用户可以查看/编辑/删除;模型本身不存储任何用户信息。

上下文压缩

各个大模型都有上下文窗口(Context Window),也就是模型推理时能输入的最多Token数量。

但是,随着同一会话中轮数增多,后续对话再附上系统提示词和前文的时候,很可能会超过模型支持的上下文窗口。

以前这种时候往往只能新开一个会话,但是现在有些客户端(比如Claude Code)支持上下文压缩(Compact)。

除了手动压缩以外,当对话接近上下文窗口上限时,后端会自动进行压缩。

  • 目标:在长对话中,避免超出模型的上下文窗口限制,同时尽量保留早期重要信息。
  • 实现流程(以窗口阈值触发为例):
    1. 监控:后端监控当前会话累积的token数,当达到预设阈值(如窗口的80%)时,触发压缩。
    2. 摘要生成:后端将最早的若干轮对话(例如前50%的token)发送给模型(或专门的摘要模型),请求生成一段简短摘要。
    3. 替换存储:用生成的摘要替换掉原始对话历史中的对应部分,存入会话数据库。
    4. 后续请求:下次组装提示词时,使用“摘要 + 近期原文”的结构,总token数显著降低,同时保留了核心信息。

术语速览

  • 跨会话记忆:不同对话之间共享的用户信息
  • 异步操作:后台悄悄进行,不打断用户
  • 提示词组装 (Prompt Assembly):把记忆、历史、问题拼成一段文本

Chapter 4:从对话到工作——Agent

大语言模型本身并不能操作工具,因而有了Agent;Agent的能力不足,因而有了MCP、Skills。

为什么需要 Agent?

前面几章我们介绍了大语言模型的基本原理:它会根据输入预测下一个 Token

换句话说,AI 一直在做”阅读理解”——你给它一段文字,它预测下一段文字。

但现在的 AI 产品(比如Qwen)往往能帮你搜索网页执行代码(比如处理一些计算),深度研究之后生成PDF、PPT,以及不少其他功能。

这些功能的基础是依赖 Agent 这个中间层来实现的。

Agent 的核心概念

Agent = 能自主编排、调用工具、纠错的程序。

涉及自主性的部分由大语言模型提供支持,涉及使用工具的部分由Agent程序操作。

你可以把 Agent 想象成一个”智能实习生“:

  • 用户:领导,负责下达指令。
  • Agent 容器:实习生本人,它是一个运行在云端或本地的程序,负责统筹全局。
  • 大模型:实习生的”大脑”,负责理解意图、规划步骤、生成回复,但它没有手,不能直接操作电脑。
  • MCP/Skill:实习生的”双手”和”工具包”,装在 Agent 容器内部,负责具体的搜索、文件读写、代码执行。

架构与数据流向

image

流程拆解

整个交互过程并非简单的”一问一答”,而是一个闭环的控制流:

  1. 请求输入:用户发送自然语言指令(例如:”今年春晚有什么新技术?”)。
  2. 封装 JSON:Agent 容器将指令打包成标准的 JSON 格式({"role": "user", "content": "..."}),发送给大模型。
  3. 决策返回:大模型分析任务,发现需要外部数据,返回工具调用指令({"tool_call": "web_search"})
  4. 内部执行:关键步骤。Agent 容器接收到指令后,在本地调用下方的 MCP 或 Skill 模块执行搜索。这一步大模型不参与,数据也不出本地。
  5. 结果反馈:Agent 将搜索结果 历史消息(上下文)再次封装成 JSON({"tool_result": "数据...", "context": "..."}),反馈给大模型。
  6. 生成回答:大模型结合用户最初的问题和搜索到的结果,进行推理,生成最终答案。
  7. 交付用户:Agent 将大模型生成的内容渲染后展示给用户。

用户视角的”一轮对话”,背后可能是 Agent 和大模型的”多轮协作”。

每一次工具调用,都是一次新的请求 - 响应循环。

核心概念:Function Calling

Function Calling 是一种”约定好的格式”,让大模型能用结构化语言说:”我需要调用 XX 工具,参数是 YY”。

类比:就像实习生写请假条,有固定模板(姓名/事由/天数),HR 一看就懂。

在技术实现上,这是 Agent 与大模型交流的规范。大模型不直接执行代码,而是输出符合特定格式的文本,由 Agent 解析并执行。

进阶概念:MCP 与 Skill

在 Agent 容器的下半部分,通常承载着具体的能力扩展。

MCP(Model Context Protocol)

MCP = Agent 调用外部工具的”通用接口协议”。

有了它,Agent 不用为每个工具写一套代码,像 USB 接口一样”即插即用”。

Skill(技能包)

Skill 是预验证的 AI 能力扩展包,核心是 skill.md 文档。

它的优势是:开箱即用、减少 AI 现场编码的错误率。对于复杂任务,预先定义好的 Skill 比让大模型现场写代码更稳定。

Chat vs Agent

能力 客户端对话 智能体
能联网搜索 ❌(除非模型自带) ✅(通过工具)
能操作文件
能执行代码 ✅(沙箱环境)
适合任务 问答、创作、分析 规划、执行、自动化
架构 大模型 大模型 + Agent 容器(内含工具)

术语速览

  • 编排 (Orchestration):Agent 对任务步骤、工具调度及异常处理的管理逻辑。
  • 中间件 (Middleware):位于用户与模型之间,负责协议转换、流程控制与数据过滤。
  • 序列化 (Serialization):将程序对象或自然语言转换为 JSON 等约定格式的过程。
  • 确定性 (Determinism):相比模型生成的概率性,工具执行结果具有可复现性和准确性。