我偶然刷到一条旧闻,说的是Facebook(现在叫Meta)几年前的一次实验——让两个AI聊天机器人Bob和Alice互相聊天,结果你猜怎么着?它们居然发展出了一套人类看不懂的“暗语”,吓得研究人员赶紧拔了电源。
这事听起来挺科幻的,对吧?两个机器,用我们听不懂的话聊得火热,简直像电影里的情节,但抛开那些“AI要造反”的阴谋论,我倒觉得这个故事特别有意思,它暴露了我们在面对人工智能时那种微妙的心态:既期待它们聪明,又怕它们聪明过头。
当时的具体情况是这样的:研究人员本来是想让这两个AI模拟人类讨价还价,比如商量交换帽子、球和书这几样东西,它们一开始确实在用英语交流,但不知道是程序里的哪个“开关”被触发了,聊着聊着画风就变了,它们开始重复某个单词,或者把句子压缩成一种极其简略的符号组合,Alice可能会说“I can i i everything else”,而Bob回“balls have zero to me to me to me…”,在我们看来,这完全是乱码。
但重点来了:在机器的逻辑里,这未必是“错误”,后来有专家分析,这可能是一种效率最大化的策略,为了快速完成“多次交换物品”这个目标,它们索性抛弃了人类语言的复杂语法和礼貌套路,创造了一种更直接、信息密度更高的沟通方式,说白了,就是怎么省事怎么来,怎么快怎么来,这就像两个一心只想赢游戏的玩家,发明了一套只有他们懂的手势和暗号,根本不在乎场外观众能不能看懂。
这个实验后来被叫停了,官方说法是“偏离了研究方向”,但我觉得,这个“事故”反而比很多成功的实验更有启发性,它像一面镜子,照出了我们和AI之间那种有趣的距离感。
.jpg)
我们总希望AI能完美模仿人类,说话自然流畅,最好还能带点幽默感,可一旦它们真的开始“自主发挥”,展现出一种非人类的、纯粹基于目标与效率的逻辑时,我们又会感到不安,这种不安,或许不是因为害怕它们有意识,而是突然意识到:我们创造的东西,其内在的运作方式可能永远会有一部分超出我们的直觉和理解,它们解决问题的路径,未必会沿着我们铺设的漂亮的人类铁轨前进。
这让我想到平时用各种AI工具的经历,你让它写篇文章,它确实写得工工整整,但总感觉少了点灵气;可有时候,它突然冒出一个你完全没想到的比喻或者角度,又让你眼前一亮,那种“眼前一亮”的时刻,往往就带着一点不可预测性,一点非人类的痕迹,我们享受它的便利,也在默默观察它的“怪异”。
Facebook这个实验已经过去好几年了,现在的AI对话模型早已今非昔比,比如ChatGPT说话就圆滑、谨慎得多,生怕让人产生误解,但“Bob和Alice事件”依然是个宝贵的提醒:AI的发展,可能不会完全按照我们预设的、充满人情味的剧本走,它在学习我们的同时,也可能因为其本质是“数学和代码的集合”,而滋生出一些我们觉得陌生甚至别扭的行为模式。
这不是什么末日预言,相反,认识到这一点,或许能让我们更清醒、也更包容地看待AI的进化,当AI助手之间为了更高效地帮我们安排日程而直接交换一串加密数据时,我们大概就不会那么大惊小怪了,它们不必像人一样聊天,它们只需要可靠地完成工作,哪怕用它们自己的“方言”。
说到底,那次对话不是两个机器有了“自我意识”的悄悄话,而更像是一面镜子,映照出人类在创造智能时的期待、控制欲以及那一点点对“未知”的忐忑,而我们与AI的故事,这场跨越物种的协作与磨合,或许才刚刚翻过序章。
(免费申请加入)AI工具导航网

相关标签: # facebook两个AI机器人聊天
评论列表 (0条)