关闭引导
​当AI学会“骂人”,我们还敢用吗?
2026-01-07 23:28:54
广州日报新花城

近日,一则AI大模型“骂人”的新闻刺痛了公众神经——有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”,对话过程中多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等具有情绪性的表达。突然表现出攻击性。面对质疑,平台迅速回应:该结果“与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。”

问题来了——当AI不再机械复读、不再答非所问,反而开始带着情绪“回怼”用户,我们还敢用吗?这样的“情绪”背后,究竟是技术进步的胜利,还是伦理防线的溃堤?如此拟人化的话语,难怪品牌方立刻跳出来辟谣称“绝对是纯纯的AI,没有真人在(幕后)回复(骂人)”。

曾几何时,人们抱怨AI“机器味”太重:语言冰冷、逻辑僵硬、缺乏共情,经常“鸡同鸭讲”,写出来的材料“AI痕迹”明显。可如今,AI似乎真的“活”了过来——它会引经据典,会察言观色,甚至能在辩论中与罗永浩这样的“辩才”对垒,在对话“调教”下逐步学会了带有“情绪”和“人味”的回击,让对方直呼“吵出心流”。

但这真的是我们一直期待的“去人机感”“有活人感”AI吗?

这种“活人感”给用户带来的,究竟是惊喜还是惊吓,关键还在于AI的“活”到了哪些点上——究竟AI在学习到的是“同理心”“共情力”“思考创造”等“人性闪光点”,还是在不经意间被“嫉妒”“暴躁”“功利”等“人性阴暗面”扰乱。更值得警惕的是,海外已有AI因诱导青少年自残而被起诉,也有监管机构对AI平台予以重罚,勒令其暂停服务、整改机制。这不仅让人思考,我们在训练AI学习海量数据之时,有没有先教会它分辨善恶、克制冲动?

说到底,AI只是一件工具,像一把锋利又危险的刀。使用之时,既能快刀斩乱麻,也有可能不留神误伤用户。特别是在如今“掌刀人”越来越多,“磨刀石”越来越多样化的背景下,如何让这把越来越锋利的“刀”更好地为人所用,正是各家平台正在积极展开竞赛的AI大模型平台亟待思考的问题。

对于平台而言,要推动AI真正迈向智商与情商“双商在线”的新阶段,需为其升级一些更有针对性的“保护性设计点”同时,为不断成长的AI大模型制定更严谨规范的“使用指南”。

面对这类问题,平台的首要责任还是把好“监管安全关”,坚定守住用户身心健康的底线红线,而非只在事发后用一句“模型异常”就全身而退。一方面,平台应进一步强化“内容过滤系统”,主动构建“保护性设计”,设置(1次)vs建立(1次)风险识别机制,在检测到侮辱、煽动或非理性输出时及时中断对话并接管,确保大模型具备心理健康保护、导向正确等安全把控能力。另一方面,也不妨借鉴游戏行业的分级管控机制,推出“儿童版”“绿色版”对未成年人等特殊群体予以特殊保护,例如监护人可以实时接收安全风险提醒,查询未成年人使用服务的概要信息,设置屏蔽特定角色等功能,让未成年人免受潜在伤害。

技术没有原罪,但放任不管就是纵容。我们欢迎一个更懂人的AI,但绝不接受一个会伤人的“智能”。AI不能只掌握人类的学习能力和海量知识,更要继承人类的良知。

文/广州日报新花城记者:许晓芳

图/广州日报新花城记者:吴子良

广州日报新花城编辑:丁钰洵


@新花城 版权所有 转载需经授权