AI入门学习笔记 03:为什么你和 AI 聊天,其实不是“聊天”那么简单?
很多刚开始学 AI 的人都有一个直觉:我在和 ChatGPT 对话,所以模型应该像人一样“记住了聊天过程”。但从技术上看,这个理解并不完全准确。更真实的情况是: 你看到的是聊天界面,模型接收到的其实是一段被重新整理过的文本。也就是说,用户发一句,AI 回一句,这些内容在后台并不是“零散地记着”,而是会被系统重新拼接、格式化,变成模型能理解的一整段输入。模型每次回答时,读到的都是这段整理后的内容,而不是像人一样真的“经历过对话”。这里就引出两个很重要的概念: 消息(messages) 和 特殊标记(special tokens) 。其中最重要的是 system message(系统消息) 。它有点像“总导演给演员的指令”,会提前告诉模型:你是谁、你的风格是什么、你该怎么回答。比如让模型扮演“专业客服”,它的语气就会更礼貌;如果系统消息变了,模型的表现也会跟着变化。而用户消息、助手消息,则共同组成上下文,让模型知道这段对话进行到了哪里。但问题来了:模型本身并不天然懂“这是用户说的,那是助手说的”。所以这些消息还要再经过一步处理,转换成模型能识别的格式。这个过程,就靠 聊天模板(chat template) 来完成。你可以把聊天模板理解成一个“翻译器”。 它把我们的对话形式:转换成模型内部能识别的一串标准文本结构,并加上特殊标记,告诉模型哪里是系统消息、哪里是用户输入、哪里该开始生成回答。这也解释了一个常见问题: 为什么不同模型的提示词格式不一样?因为不同模型使用的聊天模板和特殊标记可能不同。表面上你都是在“发消息”,但底层格式化方式并不一样。所以,同样一段对话,换一个模型,后台的组织方式可能就变了。这里还要区分两个概念: 基础模型 和 指令模型 。- 基础模型,更像“原始的大脑”,擅长继续往后生成文本。
- 指令模型,则是在基础模型上进一步训练过,更懂得“听指令、按要求回答”。
我们平时用的 ChatGPT、各种 AI 助手,通常都更接近后者。也正因为如此,它们才更像“能沟通的助手”,而不是单纯的文本续写机器。对于 0 基础学习者来说,这一篇最值得记住的不是代码细节,而是下面这几点:- 你和 AI 的“聊天”,本质上是消息被重新组织后再送进模型。
- 不同模型格式可能不同,所以不能把所有提示词写法混为一谈。
- 我们日常使用的很多 AI 产品,本质上都是“消息 + 模板 + 模型”共同工作的结果。
一句话总结就是: 你以为自己是在和 AI 聊天,实际上你是在通过一套消息格式和聊天模板,和模型建立沟通。理解这一点很重要。因为当你以后学习 Prompt、Agent、工具调用时,你会越来越明白:AI 并不是“天然懂你”,而是系统把你的意图,翻译成了模型能处理的输入。 这也是 AI 应用真正的起点。