这是课程的第九篇笔记,关于大型语言模型LLMS(就是ChatGPT这类东西)。
说实话,之前我对这些工具的认知很模糊——知道它能聊天、能写东西,但具体能干嘛、怎么用更好,一直没细想过。
这周的内容,让我把这件事想清楚了一点。
课程一开始就问了个问题:什么时候用网络搜索,什么时候用语言模型?
比如你扭伤了脚踝。网络搜索能带你去梅奥诊所或哈佛医学院的页面,这些来源可信。语言模型也能回答,但它有时候会“编造”一些听起来很自信但其实是错的东西——这叫“幻觉”。所以医疗健康类的问题,还是得找权威来源确认。
再比如烤菠萝派。网上有很多靠谱的食谱,随便找一个就行。但如果你想烤“咖啡注入的菠萝派”,网上可能根本搜不到食谱。这时候语言模型就能当你的“思考伙伴”,帮你 brainstorm 怎么搭配、怎么烤。
所以我现在理解的是:有标准答案的事,去搜索;需要创造、整合、 brainstorm 的事,可以试试语言模型。
课程里把语言模型能做的事分了三大类,第一类是写作。
我试了试里面的一些例子:
· 头脑风暴:让它给花生酱饼干想五个有创意的名字,它给了“Nutty Nirvana Nibbles”“Butter Bite Bliss”之类的——有些还挺像回事。
· 写新闻稿:让它写一份宣布新COO上任的新闻稿。第一次写出来很“模板”,因为不知道我的公司和新COO是谁。但把背景信息贴进去后,出来的稿子就具体多了。
· 翻译:把酒店欢迎词翻译成印地语,第一次“前台”被译成了“前面的桌子”,调整提示后就能译对。
有个细节让我印象很深:如果你不会某种语言,怎么判断翻译对不对?课程里给了一个“歪招”——让它翻译成海盗英语。听起来就很“海盗”,至少说明它在按指令做风格转换。
第二类是阅读任务——输入长文本,输出短的结论。
我发现自己可能用得上的是校对。课程里说,自己检查三四遍还可能漏掉的错误,语言模型能找出来。我试了试,确实。
还有总结文章。课程里讲了个例子:斯坦福一位教授发了篇长文章《图灵陷阱》,他没时间细读,就让语言模型用300字总结了一下,快速了解了核心观点——与其让AI取代人类,不如让它增强人类。后来他还是读了全文,但至少先有了个框架。
对企业来说,这类应用更实在:
· 客服对话总结:把客服和客户的通话转成文字,让模型自动生成摘要,经理扫一眼就知道发生了什么问题。
· 邮件分类:判断一封邮件是不是投诉,该转给哪个部门。第一次模型可能选错,调整一下提示词就好。
· 舆情监控:让模型判断每条餐厅评论是好评还是差评,然后每天统计一下,看看情绪有没有变化趋势。
这些事以前都要人来做,现在可以让模型先过一遍。
第三类是聊天。
除了通用的ChatGPT,很多公司在做专门的聊天机器人:
· 帮你订芝士汉堡的客服机器人
· 帮你规划巴黎省钱旅行的旅行顾问
· 问你“用意大利面、鸡蛋、柠檬、火腿能做什么”的烹饪顾问
· 处理密码重置请求的IT服务机器人
但机器人会说错话,怎么办?课程里讲了几种设计方式:
1. 机器人只辅助人:机器人先写一个回复,人工客服看看没问题再发出去。这叫“人在循环”,能降低风险。
2. 机器人先筛选:比如识别出10%的对话是要求退款的,让机器人处理这部分,剩下的难的再给人。这样人能更专注。
3. 先内部再用外部:先让机器人服务自己团队,出错了大家能理解,等稳定了再面对客户。
这些思路让我意识到:用AI不是“扔进去就行”,需要设计、需要迭代、需要把控风险。
1. 搜索和语言模型是两回事:有标准答案的事用搜索,需要创造的事用语言模型
2. 写作类任务:头脑风暴、写稿、翻译,都能帮忙,但提示词要迭代
3. 阅读类任务:校对、总结、分类、情感分析,能处理大量文本
4. 聊天类任务:从通用到专用,需要设计交互方式和风险控制
5. 提示词不是一次写对的:第一次不行就改,这很正常
ChatGPT这类工具其实比想象的更“可操作”。
它可以当写作助手、阅读助手、分类器、总结器……关键是看我们怎么用它。