前面学完了AI能做什么、不能做什么、有哪些伦理问题、怎么选项目……这篇进入最实操的部分:如果我想自己搞一个AI应用,到底怎么搞?
看完这周的内容,我最大的感受是:门槛比我想象的低太多了。
课程里做了一个对比,让我印象很深。
假设你想做一个“餐厅评论情感分析”系统——就是自动判断一条评论是好评还是差评。
如果用传统方法:
· 花1个月收集1000条评论,让人工一条条打上“好评/差评”标签
· 花3个月让机器学习工程师训练模型
· 再花3个月部署上线、调试优化
· 总共6-12个月,一个优秀团队才能搞定
如果用现在的方法:
· 写几行提示词,比如“将以下评论分类为积极或消极情绪”
· 调用一个大语言模型的接口
· 几小时甚至几分钟就能跑起来
不是说传统方法不好——它仍然有很多适用场景。但现在的确多了一条路,一条快得多的路。
现在世界上有数百万人可以在几天或一周内构建这样的应用程序。
这意味着什么?意味着很多以前需要专业团队才能做的事,现在一个人、一台电脑、几天时间,就可能搞出来。
课程里讲了一个“生成式AI项目生命周期”,我发现和自己平时做事的节奏挺像的。
1. 确定范围:想清楚这个软件要干什么
2. 快速原型:先搞一个能跑起来的版本,哪怕很糙
3. 内部测试:让自己人试用,看看哪里不对劲
4. 发现问题、改进:哪里不好就改哪里,再试
5. 部署上线:让真实用户用起来
6. 持续监控:看用户怎么用,有没有新问题
7. 发现问题、再改进:循环回去
这个过程,和写代码的传统软件开发不太一样。
写代码你可以在脑子里想清楚再动手。但做AI应用,很多时候是先动手试试,看看效果,再调整想法。
课程里把这种叫“高度经验性的过程”——说白了就是:试错、调整、再试。
大语言模型虽然知道很多事,但它不知道你公司的停车政策、不知道你刚发的内部文件、不知道某个PDF里的具体内容。
那怎么让它知道?
有一种技术叫RAG(检索增强生成),原理很简单:
第一步:检索
你问“员工有停车位吗?”系统先去翻你的公司文档库,找出跟“停车”“设施”有关的文档片段。
第二步:增强
把找到的这段文字(比如“所有员工可停在一层和二层”)和你的问题拼在一起,组成一个新的、更长的提示。
第三步:生成
把这个增强后的提示喂给大语言模型,它就能基于你提供的信息来回答。
更贴心的是,有些应用还会在答案后面加个链接,指向原始文档,方便你回去核对。
现在很多“和PDF聊天”的应用(比如ChatPDF),背后的核心技术就是这个。
课程里有一句话点醒了我:
不要把语言模型看作是一个知识存储库,而是看作一个推理引擎。
意思是:别指望它什么都记得住。而是给它材料,让它现场读、现场想、现场回答。
这个视角一换,能想出来的应用就多多了。
如果说RAG是“让AI临时查资料”,那微调就是“让AI长期学会你的套路”。
比如你想让AI总结客服电话。一个通用的AI可能会总结成:“客户和客服讨论了显示器问题”。
但如果你是客服经理,你可能希望它总结成:“关于MK4127KX,客户542报告损坏”——更具体、更有业务价值。
怎么让AI学会这种风格?
微调的做法是:准备几百个人类专家写的、你想要的风格的总结示例,让AI在这些例子上“加练”一下。它本来就已经从互联网上学了大量知识,再加练这几百个例子,输出就会往你想要的风格靠。
微调还有几个用处:
模仿特定风格
比如让AI说话像某个人。你很难用文字描述“怎么让AI说话像我”,但给它看我写过的几百段文字,它就能学个七七八八。
学习专业领域语言
医疗记录里,“SOB”不是骂人,是“呼吸急促”;“CC”不是抄送,是“主诉”。法律文件里,“通知”这种词普通人不太用。让AI在这些专业文档上微调一下,它就能更好地处理这类文本。
让小模型干大活
一个1000亿参数的模型跑起来很慢、很贵。但如果你只想做“评论分类”这种简单任务,可以用一个1亿参数的小模型,在相关数据上微调一下,效果可能差不多,但速度快得多、成本低得多,甚至能在手机本地跑。
1. 现在做AI应用,门槛低了很多——从写几个月代码变成写几行提示
2. 做AI应用像做实验——快速试、发现问题、调整、再试
3. RAG让AI知道你不知道的事——给它材料,让它现场读、现场答
4. 微调让AI学会你的风格——用少量例子,让AI的输出往你需要的方向走
5. 大模型不是知识库,是推理引擎——这个视角一换,能想出来的应用多很多
这次课程的内容让我觉得,AI让普通人实行的门槛变低了
以前想搞一个AI应用,得组团队、筹资金、等半年。现在一个人、一台电脑、几天时间,就可能搞出一个能跑的东西。
当然,不是说随便搞搞就能做出好产品。但至少,试一试的成本,已经低到每个人都可以承受了。