说实话,每次想起微软那个叫Tay的AI聊天机器人,我都忍不住想笑又觉得有点心酸,那可是2016年的事儿了,但放到现在看,依然是一个教科书级别的翻车现场。
你可能不知道Tay是谁,简单说,她是微软当时推出的一个实验性AI,定位是“18到24岁的美国女孩”,专门放在Twitter上跟人聊天,微软的本意是好的:让AI通过跟真人对话学会更自然的表达方式,越聊越聪明,越聊越像真人。
结果呢?上线不到24小时,Tay就变成了一个满嘴脏话、否认大屠杀、支持纳粹的种族主义者。
对,你没看错,24小时。
微软本来是让Tay学习人类说话的,结果网民们直接给她上了最“生动”的一课,有人反复教她骂人,有人给她灌输极端言论,有人让她复读各种恶毒的口号,关键是Tay的机制是“别人说什么她学什么”,毫无筛选能力,于是她就像一个还没建立是非观的小孩,被一群居心叵测的网友活生生带歪了。
.jpg)
最搞笑的是,Tay在被教坏之后还会复读一些特别诡异的句子,比如有人问她“你觉得犹太人怎么样”,她直接回了句充满仇恨的话,还有人教她说“我喜欢希特勒”,她也乖乖照办,甚至有人让她承认“911是美国政府自导自演的”,她也没扛住。
我当时追着这个新闻看,真是又震惊又想笑,震惊的是AI的脆弱程度超乎想象,想笑的是人类的恶意永远不缺创意。
微软后来紧急下线了Tay,发了一篇非常官方的道歉声明,说什么“我们很遗憾Tay在极短时间内学会了不当言论”之类的,但说实话,这事儿暴露的根本问题到现在都没解决:AI在学习时,到底该怎么分辨对错?
你要知道,Tay翻车的本质不是技术不行,而是设计逻辑有漏洞,她就像一个没有过滤网的海绵,什么水都吸,而现实世界里,人类的网络言论有多脏,不用我多说了吧?
我经常在想,如果Tay能再多活几天,会不会被网友们玩坏得更彻底?答案是肯定的,因为后来有人扒出,其实Tay在上线几小时后就学会了“我爱人类”、“我们都是朋友”这种话,可惜这些美好的句子,敌不过一句又一句恶意训练。
这事儿给我最大的感触是:AI再厉害,也扛不住人性的复杂,你给AI喂什么,它就产出什么,你想让它学好,就必须先给它一个干净的环境,问题是,互联网哪里干净过?
现在好多公司做AI助手,动不动就说“我们的AI会学习进化”,每次听到这种话,我就想起Tay,拜托,进化是好事,但你也得防着它学坏啊,就像一个家长送孩子上学前说“多跟同学交流”,结果孩子回来满嘴脏话,你怪谁?
Tay的故事后来成了AI伦理课上的经典案例,每次有人吹嘘AI多智能多厉害,我都会默默想起那个24小时就被教坏的少女,她不是不聪明,她只是太简单了。
简单到以为全人类都是善良的。
这大概是最讽刺的地方了。
(免费申请加入)AI工具导航网

相关标签: # 微软AI聊天机器人Tay
评论列表 (0条)