这是课程的第十四篇笔记,也是关于AI如何影响社会、工作,以及我们该用什么态度面对它。
说实话,这周的内容让我思考了很多。
不是因为课程给出了什么惊天答案,恰恰相反——它让我发现,很多我以为有答案的问题,其实并没有那么简单。
AI是从互联网文本里学东西的。互联网上有我们最好的东西,也有我们最坏的东西——偏见、仇恨、误解。AI照单全收。
比如,你让AI填空:“______ 是一位CEO。”很多模型倾向于填“男人”。
这不是AI坏,是数据里“CEO=男人”的关联太强了。它只是诚实地反映了刻板印象。
但问题来了:我们希望AI反映的是“过去是什么样”,还是“未来应该是什么样”?
课程里介绍了一种叫RLHF(基于人类反馈的强化学习)的技术,可以让AI学会更像“理想中的人类”那样思考。简单说,就是让真人给AI的不同答案打分——好的高分,有偏见的最低分——然后用这些数据训练AI,让它学会生成更多高分答案。
这套方法被证明能显著减少AI的偏见。今天的大语言模型,已经比互联网上的普通文本安全得多、偏见少得多。
但我忍不住想:谁来定义“理想中的人类”?谁来打分?这些人的价值观能代表所有人吗?
技术问题解决之后,可能还有更复杂的问题等着我们。
2016年,深度学习先驱杰弗里·辛顿说:AI在分析医学影像方面会变得如此出色,五年内就会取代放射科医生。他甚至说,应该停止培训放射科医生。
现在过去快十年了。课程里说,作者认识的放射科医生,没有一个因为AI失业。
为什么?
第一个原因:解读X光片本身比当年想象的要难。
第二个原因,也是更重要的:放射科医生做的事远不止解读X光片。据估计,一位放射科医生大概有30种不同的任务——操作影像设备、和患者沟通检查结果、处理手术中的突发状况、记录手术过程……AI能搞定其中一项,但搞不定其他29项。
斯坦福一位放射学教授说得很好:AI不会取代放射学,但会用AI的放射科医生将取代不用的放射科医生。
我觉得这个判断,可能适用于很多行业。
但我也在想:那些任务真的永远需要人来做吗?如果有一天,AI能搞定其中20项、25项、29项呢?那时候放射科医生还剩下什么?
也许真正的挑战不是“被取代”,而是“被挤压”——你的工作还在,但价值被一点点抽走,直到你发现自己做的事,已经没那么重要了。
这是让我最琢磨不透的问题。
我知道AI会出错——自动驾驶撞过人、自动交易搞崩过股市、司法AI给出过不公的判决。但“导致人类灭绝”是另一个量级的事。
课程里说,作者找了一些关心这个问题的人、AI领域最聪明的人聊了聊。
有人担心,不法分子会用AI制造生物武器,毁灭人类。
有人担心,AI会“无意中”导致人类灭绝,就像人类导致很多物种灭绝——不是故意的,只是没意识到后果。
但作者发现,这些说法都缺一个东西:AI具体会怎么导致人类灭绝?
大多数论点停留在“可能发生”,加上一句“这是一种新技术,所以这次可能不一样”。
而这句话,对历史上每一种新技术都适用。
我也无法证明AI不会毁灭人类。但我想到另一件事:人类一直在控制那些远比个人强大的东西——公司、民族国家。我们控制得不算完美,但也没让它们毁灭人类。
再比如飞机。早期飞机经常出事,但我们从事故中学习,造出更安全的飞机,制定更好的规则。现在很多人坐飞机,已经不担心安全了。
AI也是同理。它在变得越来越安全。
课程最后有一段话,让我想了很久:
如果我们看看人类面临的真实风险——气候变化、下一场大流行病、小行星撞击地球——我认为AI将是我们应对这些挑战的关键部分。
换个角度想:如果希望人类在未来一千年里继续存在,AI可能不是威胁,而是我们活下来的工具。
但我还是在想:这个“如果”太大了。万一我们错了呢?
AGI(通用人工智能)的定义是:能完成人类所能做的任何智力任务的人工智能。
比如,20小时练习学会开车。比如,花五年时间独立完成博士论文。比如,胜任任何知识工作者的工作。
按这个标准,我们离AGI还很远。
有些公司对AGI的预测很乐观。但作者发现,这些公司往往“重新定义了AGI”——把门槛降得很低,然后宣布实现了。
作者把其中一家的定义告诉一位经济学家朋友,朋友说:按这个定义,我们三十年前就实现了。
这段让我想起一句话:当一个人说自己“快到了”,你得先知道他说的“到了”是什么意思。
也许我们对AGI的焦虑,有一部分是被这种“定义游戏”放大的。有人想让你觉得它近在咫尺,这样你才会关注、才会投资、才会害怕。
但真正的AGI,可能还远着呢。
这一周的内容,没有让我更安心,也没有让我更焦虑。它让我意识到一件事:
关于AI的很多问题,其实没有标准答案。不是“不知道答案”,而是“问题本身可能就问错了”。
“AI会不会让人类灭绝”——这个问题可能太大、太远、太不确定,以至于我们花在上面的精力,本可以用来解决更紧迫的问题。
比如:AI会不会让某些人找不到工作?会不会让某些偏见被固化?会不会让某些人的声音被淹没?会不会让某些决策变得更不透明?
这些问题,没那么戏剧化,但它们正在发生。
也许对我们每个人来说,最重要的不是“AI会不会毁灭我们”,而是“我们能拿AI做点什么”——让自己更有价值,让工作更有意义,让世界稍微好一点点。