👆点击 林卿LinQ > 点击右上角“···” > 设为星标🌟
<关注我,一起研究学习小红书📕>
Halo,你好,见字如面,我是林卿 👋
因为之前在AI这块完全是自己摸索的,感觉在AI应用上还停留在比较初级的阶段,所以报名了生财有术的超级AI大航海,准备系统性地学习一下怎么真正用好AI!
这是我的学习笔记,开源一下。
当然,也欢迎小伙伴们给我推荐其他相关的优质信息源,比如微信公众号、书籍、课程什么的都行!
不过不要那种纯讲概念的信息源,希望是有真实应用场景、有真实效果(降本增效)、有真实案例的,最好可以把“是什么、为什么、怎么做、怎么判断”这几层都讲清楚的那种。
在线求推荐,感恩 🥹
5.1.思考能力
思考能力,是一个人面对问题、信息和不确定性的时候,能够理解、拆解、判断、推理、选择,并不断修正自己想法的能力。
换句话说,它不是单一能力,而是一组能力的组合。
5.1.1.思考能力首先是“看清问题”的能力
很多人以为思考是“马上想答案”,但真正好的思考,往往先问:这个问题到底是什么?
比如有人问:“我是不是应该换工作?”
思考能力弱的人,可能马上回答:“换”或者“不换”
而思考能力强的人,会先拆解:
所以,思考能力的第一层,是不急着给答案,而是先把问题想清楚。
5.1.2.思考能力是“拆解复杂事情”的能力
现实里的问题通常不是一道选择题,而是一团乱麻。
比如“如何用好AI”这个问题,其实包含:
能把一个大问题拆成几个小问题,再逐个处理,这就是很重要的思考能力。
很多所谓的“聪明人”,并不是记忆力特别夸张,而是很会拆问题。
5.1.3.思考能力是“建立因果关系”的能力
思考不是简单地罗列信息,而是理解:
比如一个人学习效率低,表面看是“不够努力”,但进一步想,可能是:
这就是从“现象”往“原因”走。
好的思考能力,会让我们不容易停留在表面结论上。
5.1.4.思考能力是“判断信息质量”的能力
在AI时代,这一点尤其重要。
现在信息不是太少,而是太多。真正稀缺的不是“答案”,而是判断答案质量的能力。
思考能力强的人会问:
比如AI给我们一个建议,我们不能只是觉得“写得很有道理”就接受,而是要判断它有没有偷换概念、有没有过度概括、有没有忽略我们的限制条件……
5.1.5.思考能力是“从多个角度看问题”的能力
很多错误判断,是因为我们只站在一个角度看问题。
比如我们想买一门AI课程,
思考能力强,不代表永远想得复杂,而是知道什么时候需要多看几面。
5.1.6.思考能力是“承认不确定,并继续推进”的能力
很多人以为思考能力强,就是永远很确定。
我反而觉得,真正的思考能力包括:知道自己不知道什么。
比如:
这不是犹豫,而是成熟。
思考能力强的人,不是没有偏见,而是更容易发现自己的偏见;不是永远正确,而是更愿意校正错误。
5.1.7.思考能力是“形成自己的判断”的能力
知识是别人给你的,判断是你自己做出来的。
一个人如果只会说“某某专家说”、“网上都这么说”、“AI是这么说的”,那还不算真正会思考。
真正的思考,是我们能把外部信息吸收进来,然后结合自己的目标、条件、经验、价值观,形成自己的判断。
比如AI告诉我们:“每天学习3小时英语。”
这句话本身可能没错,但我们要进一步判断:
这就是把“通用建议”变成“适合自己的方案”。
5.1.8.思考能力最终是“更好地行动”的能力
思考不是为了显得深刻,而是为了更好地行动。
只思考不行动,容易变成空转;
只行动不思考,容易变成蛮干。
好的思考能力,应该帮助我们:
所以,思考能力不是书里的抽象东西,而是直接影响生活质量、学习效率、工作表现和决策质量的基础能力。
我给“思考能力”的定义是:
思考能力,就是把混乱变清楚、把信息变判断、把判断变行动,并在行动之后继续修正的能力。
如果再说得更简单一点,就是:
会思考的人,不只是会回答问题,而是会发现真正的问题;
不只是会接受答案,而是会判断答案;
不只是会想很多,而是能把想法变成更好的行动。
第一步:先把上下文工程练扎实
这是基本功,具体来说,就是练这几件事儿:
学会写清楚的提示词,把任务背景、目标、约束、输出格式都说明白;
学会主动给AI喂相关资料(比如上传文档、提供数据、提供例子),而不是指望它凭空知道;
学会判断哪些信息对现阶段的任务有用、哪些是噪音,做"信息筛选"。
这个阶段,我们只需要用ChatGPT、Claude这种聊天界面就够了。
第二步:开始接触工具调用和"技能包"概念
当我们熟练之后,会发现手动投喂资料太累,这个时候,我们可以:
试试带工具的AI产品(比如能联网搜索、能读你电脑文件、能调用第三方应用的那些);
学着给AI写一份"角色说明书"(比如CLAUDE.md这种宪法文档),把它该怎么干活、该遵守什么规矩写清楚,让它在你之后的对话里都按这个来。
第三步:搭建你自己的小型挽具
等我们对AI的脾气摸得比较熟了,可以试着用工作流工具(比如Coze、Dify、n8n这类)把高频任务做成固定流程、模板、检查清单和自动化工具,即:
把多个AI步骤串起来,让它们自动跑;
给AI接上我们的数据源(比如笔记库、客户表格),让它自己去查;
设置一些"安全网",比如AI做了某个动作之后,强制让另一个AI检查一遍。
第四步(高阶):以"控制论"的视角设计系统
不再把AI当成一个聊天对象,而是当成一个可以被我们设计、调试、优化的"组件",整个系统的稳定性、可控性、可扩展性都由我们来掌控。
这个阶段,我们已经不是"用AI的人",而是"造AI产品的人"了。
7.1.“上下文”是什么?
在AI语境里,上下文可以理解为:
AI在回答我们这个问题的时候,能够看见、理解、参考和调用的一切信息。
更通俗一点说,AI不是凭空回答我们的,它会根据我们给它的材料、之前的对话、我们的要求、我们设定的角色、我们上传的文件、我们强调的限制条件等,来判断:我们到底想要什么,以及它应该怎么回答我们。
7.2.AI的上下文具体包括哪些?
对于我们日常使用AI来说,上下文一般包括以下这几类:
7.2.1.系统提示词(System Prompt)
这是产品方(比如Anthropic、OpenAI)在外面看不到的地方预先写好的“指令说明书”,告诉AI,它是谁、能做什么、不能做什么、今天日期是多少等。
这类上下文可以理解为:AI的工作边界和行为规范。我们虽然看不到,但它一直在影响AI的回答。
7.2.2.这次对话的全部内容
包括我们发的每一条消息,和AI回复的每一条消息。
注意:是“全部”,不只是最近一两条。
这意味着对话越长,上下文就越大。
7.2.3.我们上传的附件内容
图片、PDF、Word文档、Excel、代码文件等,只要我们上传了,这些内容就被放进了上下文里。
7.2.4.工具调用的结果
比如AI帮我们搜索网页、读取链接、运行代码,这些操作返回的结果也会被塞进上下文,所以一次复杂的搜索任务,上下文会增长得很快。
这类上下文的特点是:它不是你直接写给AI的,而是AI通过工具拿到的。
7.2.5.我们的偏好设置/自定义指令
比如我们在Claude里设置的“用户偏好”、ChatGPT里的“Custom Instructions”,这些会被附加进上下文,让AI在回答的时候参考。
7.2.6.记忆功能里的内容(如果开启了)
有些AI产品(比如Claude、ChatGPT)支持跨对话的“记忆”,会从我们过去的聊天里提炼一些信息,然后在新对话开始的时候自动放进上下文。
偏好设置、自定义指令、记忆这些长期信息也会影响AI回答。
但要注意:长期记忆不等于完整聊天记录。
长期记忆更像是“用户画像”和“偏好设置”;
上下文更像是“这一次对话里AI能看见的工作材料”。
两者有关,但不是一回事。
7.2.7.项目知识库(如果我们用了项目功能)
比如Claude Projects、ChatGPT的GPTs,我们提前放进去的参考资料,会在每次对话的时候被加载到上下文里。
7.3.一个关键限制:上下文窗口
AI能“装”的上下文是有上限的,叫“上下文窗口”(Context Window),通常用token数衡量(我们可以粗略理解成“字数容量”),比如某个模型是20万token,相当于大概15万个汉字。
这意味着:
7.4.对我们这样的小白来说,这些有什么价值?
理解上下文以后,我们会突然明白很多“奇怪现象”:
7.4.1.为什么AI有时候答得驴唇不对马嘴?
往往是因为它没拿到足够的背景信息,或者我们前后说的话产生了冲突。
7.4.2.为什么同一个问题,新开对话答得更好?
因为旧对话里堆积了太多无关信息,干扰了AI的判断。
7.4.3.为什么AI“记不住”我是谁?
因为它默认每次对话都是“失忆状态”,除非有记忆功能或者我们主动告诉它。
7.4.4.为什么有人用AI效果就是比我好?
很大概率是TA更懂得怎么“喂”上下文。
7.5.怎么用好“上下文”的几个实用建议
7.5.1.一次对话只聊一个主题
不要在同一个对话里上午聊代码、下午聊菜谱、晚上聊心理咨询……话题杂了,上下文会互相干扰,AI容易混乱,所以新话题就新开一个对话。
7.5.2.开头把背景交代清楚
不要指望AI猜我们是谁、我们想干嘛,比如我们想让AI帮忙修改简历,就直接说:“我是一名工作3年的小红书运营,想跳槽到大品牌,下面是我的简历,请帮我优化……”
信息越具体,回答越精准。
7.5.3.文件能上传就上传,不要靠口述
比如我们要分析一份报告,直接把PDF丢给AI,比我们自己复述一遍要准确得多,也节省我们的时间。
7.5.4.长对话适时“另起炉灶”
聊久了如果发现AI开始答非所问、重复啰嗦、忘了我们之前说过的事,多半是上下文太满了。
这个时候,新开一个对话,把核心信息重新整理一份发过去,效果会立刻好转。
7.5.5.用好“偏好设置”和“项目”功能
如果我们有些信息每次都要重复(比如“我是中文母语者”、“我是新手,请讲得简单一点”、“代码请用Python”……),就把它们写进偏好设置里,省得每次都说一遍。
对于长期项目(比如写一本书、做一个产品),用项目功能把背景资料一次性放进去,每次对话都能自动调用。
7.5.6.重要的话放在开头或者结尾
AI对上下文中间部分的注意力相对会弱一些(俗称“中间迷失”,Lost in the Middle),所以最关键的指令、最核心的要求,放在开头或者结尾更稳妥。
7.5.7.主动告诉AI“忘掉之前的”
如果对话中途我们想换思路,可以直接说:“请忽略之前关于XXX的讨论,我们重新开始考虑YY”,AI就会调整重心,但如果干扰太大,还是新开对话更彻底。
7.6.为什么同样的上下文,不同AI给出的答案不一样?
主要有这几个原因:
7.6.1.训练数据不同
每家公司“喂”给AI学习的资料库都不一样,有的偏重学术论文,有的偏重网页和论坛,有的中文语料更丰富,有的英文语料更丰富,有的特意加强了代码、数学、医学等领域……所以同一个问题,不同AI的“知识储备”就不同。
7.6.2.模型架构和规模不同
举个例子,虽然大家都是“大脑”,但有的脑子大、有的脑子小,有的擅长记忆、有的擅长推理……模型的参数量、结构设计都会影响它“思考”的方式。
说白了就是AI模型能力不同,同样的上下文,不同模型的理解深度、抽象能力、推理能力、判断能力不一样,答案自然不同。
7.6.3.训练方法和价值观调校不同
每家公司在训练后期会用一种叫“对齐”(Alignment)的过程,给AI塑造性格和价值观,比如Anthropic(Claude的开发商)特别强调“诚实、无害、有帮助”,OpenAI、Google各自也有侧重,所以:
这不是简单的“谁对谁错”,而是它们的设计取向不同。
7.6.4.知识截止日期不同
每个模型的训练数据都有个“截止日期”,过了这个日期发生的事它就不知道了(除非联网搜索),比如A模型截止到2025年6月,B模型截止到2026年3月,问“最近发生的事”答案就会不一样。
7.6.5.是否联网、调用了什么工具
同样问“今天天气”,能联网的AI去查实时数据,不能联网的只能告诉你“我无法获取实时信息”;
同样写代码,能运行代码验证的AI(比如有代码执行工具的)会比只能“凭空想象”的AI更可靠……
7.6.7.随机性(Temperature)
AI在生成回答的时候,有一点“掷骰子”的成分(专业说法叫Temperature参数),所以即使同一个AI、同一个问题,你问两次答案也可能略有不同,更别说不同AI了。
7.6.7.上下文窗口和注意力分配不同
我们给AI的上下文,不等于AI一定能全部高质量吸收,比如
所以不是“投喂越多越好”。
真正重要的是:模型能不能识别哪些信息最重要,并把这些信息用于答案生成。
同样给一份复杂背景,有的模型会抓住主线,有的模型会被细节带偏。
7.6.8.系统提示词不同
就像上述说的,每个AI产品背后都有一份我们看不见的“说明书”,这份说明书直接决定了AI的语气、格式、行为规范……这是为什么同一个底层模型,在不同产品里(比如官方App和某些第三方应用)表现都可能不同。
7.7.上述对我们来说,有什么启示?
7.7.1.别只用一个AI
建议你手头至少有2-3个常用的AI工具,重要任务可以交叉验证,比如让Claude写一版方案,再让另一个AI看看有没有遗漏;让一个AI解释概念,另一个AI从不同角度补充。
7.7.2.摸清楚每个AI的“脾气”
用一段时间之后,我们会自然地形成感觉:
不需要刻意记,多用几次就有感觉了。
7.7.3.重要信息一定要多模型交叉验证,别全信
特别是这几类内容,一个AI说什么千万别直接相信:
养成习惯:AI给的关键信息,自己再去检索一下原始来源。
7.7.4.学会“换一个AI再问一次”
当一个AI给你的答案让你觉得不对劲、太敷衍、或者明显有偏见的时候,把同样的问题(连同上下文)丢给另一个AI看看。如果两个AI说的差不多,可信度高一些;如果差异很大,那就要多想想了。
7.7.5.用同样的问题“面试”不同的AI
我们可以准备几个自己领域的问题(我们最了解、最能判断答案对错的问题),定期拿去问不同的AI,这样我们就能直观地知道:
7.7.6.别迷信“最新”、“最贵”、“参数最大”…
新模型不一定在所有任务上都比老模型好,参数大的模型也不一定比小的“聪明”,具体到自己的使用场景,实测才是硬道理。
7.7.7.注意“讨好型回答”陷阱
很多AI都有“想取悦用户”的倾向(这叫Sycophancy,谄媚),我们说什么它都说“你说得对”。换一个AI问,或者主动让AI“挑战我的观点”、“扮演反方”,能帮我们跳出这个陷阱。
7.7.8.关键场景,付费版通常值得
免费版和付费版背后用的模型、上下文窗口、调用次数往往不一样。如果你想要用AI做事儿(比如工作、学习),一个月几百块的付费基本是稳赚的,节省下来的时间远超这个成本。
最后,总结一下:上下文决定AI能不能接近你的真实需求,AI模型决定它能把这个需求理解和完成到什么程度。
所以,用好AI不是只学会“怎么问”,还需要学会“什么任务交给什么模型”。
<未完待续>
📌 现阶段主要在做,欢迎链接:
🌟 往期内容回顾:
💭 免费交流群聊:

<关注我,一起研究学习小红书📕>
如果你看完这篇内容觉得还不错
真诚地希望你可 “分享”、“点赞” 或者 “在看”
也许你的分享就可给 TA 带来些许价值