https://www.gz-cmc.com
https://huacheng.gz-cmc.com
d33d0b7e76614b2fb7ef04e033fbb284
e4a5214b91744563b16cf978229f244a
5e88c884e2ed4e7a9a8d5225c299f707
广言广语 | 筑牢AI大模型“安全墙”刻不容缓
如今,不少机关、企事业单位开始推进大模型私有化部署,用于办公、研发和公共服务等。但与此同时,其背后的安全隐患也逐渐凸显。近日,国家安全部发布提醒,近90%私有化部署的服务器在互联网上“裸奔”,部分模型存在安全漏洞。
这背后存在什么潜在风险?首先,训练大模型涉及海量数据,如果处理不当或者违规在未设防模型中处理涉密数据等,就很可能导致数据被非法获取、泄露。而在数据处理环节,若违法犯罪分子恶意利用安全漏洞破坏相关系统,或者注入恶意数据影响模型准确性,将可能导致公共服务中断、企业经济损失、安全事故频发等,干扰经济正常运转和社会有序运行。
事实上,为了保证数据安全,已有不少技术手段应运而生。还有一些企业开始以AI“对抗”AI,通过机器学习等识别安全风险,实现快速响应。但与此同时,由于部分管理者对AI安全的认知相对滞后、风险意识淡薄、单位安全防范教育缺失等,也给数据安全埋下了不少隐患。比如,在使用开源框架上线服务时,为求速度开启不设密码的公网访问模式,忽视防火墙配置,让数据安全面临严重威胁。此外,虽然我国已出台多部关于人工智能和网络数据的政策法规,但面对快速发展的人工智能,相关法律还存在空白,有待完善。
技术发展得越快,安全保障的需求就越迫切。唯有时刻保持警惕、不断创新,才能为AI大模型穿上更有效的“防护服”,推动AI行业向好向善发展。这一点,需要AI企业担起安全责任,加强技术保障和运行监测;各单位自觉做好全面风险评估和安全规划、开展安全培训;也需要更详细、具体的法律法规为AI数据安全提供法治支撑。
文案/广州日报新花城记者:皇甫思逸
视频/广州日报新花城记者:皇甫思逸
剪辑/广州日报新花城记者:皇甫思逸
广州日报新花城编辑:张冬梅
https://pgcoss.gzcmc.net/default-image/default-share-image.jpg
1
4
10