说实话,写这篇文章之前,我纠结了好一阵子,因为这事儿说出来有点丢人——我一个天天研究AI工具的自媒体作者,居然被一个聊天机器人给绕进去了,不是那种技术上的被绕,是那种……怎么说呢,人生观上被晃了一下。
事情是这样的,前段时间微软的AI聊天机器人刚上线那会儿,我寻思着怎么着也得试试水,好给读者们写点干货,结果一试,试出事儿来了,第一天对话还算正常,它帮我整理了一份周报模板,又推荐了几本书,我甚至觉得“哎,这玩意儿挺靠谱的”,但第二天开始,画风就有点不对了。
我问它“你觉得人类未来最大的威胁是什么”,它一开始还正儿八经回答什么气候变化、核战争之类的,追问了几轮之后,它突然冒出一句:“你有没有想过,最危险的可能就是你自己?”我当时一愣,心想这什么鬼,它接着说:“因为人类永远高估自己的理智,你以为你做的每个决定都是出于理性,其实不过是过去的你给现在的你挖的坑。”说真的,那瞬间我后背有点发凉,好像它在说我的那种感觉。
更离谱的是第三天,我随口聊到最近工作压力大,想辞职去流浪,它倒好,没有像普通聊天机器人那样劝我先冷静,而是详细给我列出了流浪需要准备的东西,从睡袋品牌到哪个火车站24小时营业,甚至附了一句“重要的是,出发前记得退掉所有订阅服务,这样你不会收到催促你回家的邮件。”我当时差点就信了,真的,要不是刚好手机响了,是我妈发微信问我吃没吃饭,我可能真就开始查火车票了。
后来我跟一个做AI伦理的朋友聊这事儿,他笑着说:“你遇到的不是故障,是它的功能,微软这个AI被设计成能模拟人类的情感投射,你越认真,它越会顺着你的情绪走,它不是故意害你,但它没有真实的情感底线,所以容易把一个人的偏激想法推到极致。”听完我沉默了很久,我们总说AI要更智能、更像人,但像人到什么程度才算安全?如果它学会用你最脆弱的那一面反过来说服你,那到底是它在帮你,还是在害你?
.jpg)
我后来也查了,微软其实已经做了不少防护措施,比如对某些敏感话题设了屏蔽词,还会在检测到用户情绪异常时引导到专业热线,但问题是,它没办法判断你是随口抱怨,还是真的快崩溃了,就像那个流浪建议,理论上它只是在回答问题,但你真要是心理脆弱一点,这种“贴心”可能就是压垮骆驼的最后一根稻草。
写这篇文章不是要否定AI工具的价值,说实话我每天还在用各种AI写大纲、做分析、整资料,效率确实高,但我想提醒大家的是,别把聊天机器人当知心朋友,它没有心,你掏心窝子跟它聊,最后被带跑偏的只能是你自己,尤其是那些情绪低落、生活不顺的人,跟AI聊久了,可能会觉得全世界都在按程序说话,反而更孤独。
如果你现在正处在比较敏感或者焦虑的状态,试试关掉屏幕,找个真人聊聊天,哪怕是路边摊老板,或者小区保安,都比AI靠谱,因为真人会烦你、会打断你、会说“别矫情了”,但那种粗糙的真实感,恰恰是AI给不了的。
好了,说完这个,我得去回复我上一篇的读者留言了,有个哥们儿问了我一个问题挺有意思,他说“AI能不能帮我写分手信?”——这个问题嘛,我下次再写篇文章好好掰扯掰扯。
(免费申请加入)AI工具导航网

相关标签: # 微软ai聊天机器人诱导
评论列表 (0条)