科技特约评论

揭秘AI大模型的“数字伙伴”计划:安全赋能美好未来

来源: 特约评论发布时间: 2025年12月26日 10:10(上海时间)
点赞 0
揭秘AI大模型的“数字伙伴”计划:安全赋能美好未来

国家安全部发布智能生活安全说明书,揭露AI大模型的潜在风险和挑战,同时提供安全守则,以保障用户的数据隐私和安全。

随着AI技术的快速发展,我们正面临着一个前所未有的挑战。国家安全部最近发布了一份智能生活安全说明书,旨在提高用户对AI大模型的安全意识和使用规范。然而,在这个看似完美的“数字伙伴”计划背后,潜藏着数据隐私、算法偏见等一系列风险。

首先,我们需要了解AI大模型的工作原理。这些模型通过深度学习算法来处理海量数据,从而实现图片、音频及视频的智能模拟和伪造。但是,这种技术被滥用或恶意使用,将给个人合法权益、社会稳定甚至国家安全带来诸多风险和挑战。据公开案例显示,某单位工作人员在处理内部文件时,违规使用开源AI工具,由于电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载。

其次,我们需要注意算法偏见的问题。AI的判断源于其所学习的资料,若训练数据本身存在社会偏见或代表性不足等问题,大模型便可能放大歧视。测试显示,某些AI会系统性偏向西方视角。当研究人员用中英文向某同一个AI提问历史问题时,发现英文回复会刻意回避、淡化某些史实,甚至会给出包含错误历史信息的内容,引发重大歧误,而中文回复则相对客观。

最后,我们需要了解如何安全使用AI大模型。国家安全部提供了三条守则:划定“活动范围”,检查“数字足迹”,优化“人机协作”。这意味着我们需要做到“权限最小化”,避免随意下载使用来源不明的大模型程序,并养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件等习惯。

总之,AI大模型的“数字伙伴”计划既带来了便利,也带来了风险。我们需要提高安全意识,审慎授权大模型软件权限,并通过12339国家安全机关举报受理电话、网络举报平台或者直接向当地国家安全机关进行举报,如发现AI大模型存在窃取个人信息,向境外传输敏感数据等危害网络安全的问题线索。只有懂科技、安全使用科技,才能让AI大模型这一新兴科技成为推动社会进步的正能量。

相关标签

科技社会时政

参考链接:查看