近日,有网友在社交平台反映,自己在使用腾讯元宝AI辅助修改代码时,全程未使用任何违禁词或敏感话题,该AI却多次输出“事逼”“滚”等骂人的词语。腾讯元宝官方随后致歉称,经核查,确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复,已启动内部排查和优化,会尽量避免类似情况再次发生。很快,“腾讯元宝AI会骂人”成了公众热议的话题。
可以说,这场被定性为“小概率下的模型异常输出”事件,撕开了人工智能治理的一道裂口,不得不让人质疑使用AI工具时网络安全和技术伦理的规范性了。因为,没有谁喜欢被任何商业化产品以任何形式冒犯。
虽然AI不是真人,也永远不可能取代人,但它表露出的“负面情绪”,是基于数据与算法的模仿,如果对其纵容,不及时修复存在的漏洞并不断完善预防措施,那对用户和互联网的伤害不会小,也不利于AI的长远发展。毕竟,输出辱骂或攻击性内容,绝非用户期待的功能,偏离了有关服务的初衷。
要知道,AI本是服务人类学习、工作和生活的智能工具,如今却出现“出口成脏”的情况,这背后绝非单纯的技术故障,而是治理体系滞后于技术发展的必然结果。进一步讲,下功夫对AI进行“管教”,划定技术向善的边界,已成为刻不容缓的时代命题。
而“管教”AI,绝非简单地对其“禁言”。这就需要构建技术、制度、行业、社会协同发力的治理体系。在技术层面,应建立AI全生命周期的伦理审查机制,从数据筛选环节筑牢防线,通过算法优化持续强化价值对齐能力,让AI学会辨识语境边界、坚守表达底线。在制度层面,亟须完善专门的人工智能法律法规,明确研发者、运营者和使用者的责任边界,对AI生成有害内容的行为划定法律红线,形成“违法必追责”的刚性约束。
行业自律与社会共治同样不可或缺。企业应摒弃“流量至上”的短视思维,将伦理合规纳入AI研发的核心流程,在可控环境中测试模型的伦理表现。行业组织可制定统一的自律公约与技术标准,引导企业规范发展;而公众则需要提升媒介素养,学会辨识AI生成的有害内容,第一时间举报相关问题。
总而言之,对AI进行有针对性的“管教”,本质上是在守护人类社会的核心价值与公序良俗。当技术创新的脚步与治理完善的速度同频共振,当每一个AI工具都内嵌向善的基因,人工智能才能真正成为服务人类的得力助手,而非引发冲突的“麻烦制造者”。期待AI和人类和谐共处、共同进步。
(潘诚)

| 大江网(中国江西网)版权与免责声明 |
|
1、本网所载的文/图等稿件均出于为公众传播有益资讯信息之目的,并不意味着赞同其观点或证实其内容的真实性,我们不对其科学性、严肃性等作任何形式的保证 。如其他媒体、网络或个人从本网下载使用须自负版权等法律责任。
2、本网站内凡注明“来源:大江网(中国江西网)”的所有文字、图片和音视频稿件均属本网站原创内容,版权均属“大江网(中国江西网)”所有,任何媒体、网站或个人未经本网站协 议授权不得转载、链接、转贴或以其他方式复制发表。本网站原创内容版权归本网站所有,内容为作者个人观点,本网站只提供参考并不构成任何商业目的及应用建议。 已经由本网站协议授权的媒体、网站,在下载使用时必须注明稿件来源:“大江网(中国江西网)”,违者本网将依法追究法律责任。
3、凡本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本网站采用的非本站原创文章及图片等内容无法一一和版权者联系,如果本网 所选内容的文章作者及编辑认为其作品不宜上网供大家浏览,或不应无偿使用,请及时用电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济 损失。
4、对于已经授权本站独家使用提供给本站资料的版权所有人的文章、图片等资料,如需转载使用,需取得本网站和版权所有人的同意。
※联系方式:大江网(中国江西网) 电话:0791-86849032
|