乐清上班族网
标题:
如何防范人工智能应用风险?中国方案有规范→
[打印本页]
作者:
苏心何
时间:
2023-11-10 16:20
标题:
如何防范人工智能应用风险?中国方案有规范→
从去年开始,以ChatGPT为代表的人工智能大模型面世,人工智能技术在世界范围内引发新一轮高度关注,但是随着“AI换脸诈骗”“AI谣言”等诸多安全风险问题相继出现,“如何规范人工智能技术应用”“怎么在发展中寻求最大化的风险防范”等成为目前人们关注的焦点,而我国在人工智能治理方面也积极同世界各国进行合作,贡献中国方案。
在世界互联网大会乌镇峰会上,与会专家认为,人工智能在近些年得到了快速发展和普及应用,它的巨大潜力被迅速挖掘释放的同时,对它的潜在风险也应保持高度警惕。
(, 下载次数: 28)
上传
点击文件名下载附件
网络安全专家 周鸿祎
大模型既可以成为我们每个人的帮手,如果不受限制,到了坏人手里,它可以变成犯罪分子的利器。你可以拿它制作犯罪计划。普通的黑客可能利用它,突然自己攻击的水平提升了很多。
与会专家认为,相关科研机构和科技企业在人工智能系统设计之初就要充分考虑安全、可控的风险,只有这个前提下,人工智能的创新发展才能可持续。
(, 下载次数: 32)
上传
点击文件名下载附件
网络安全专家 叶章龙
当我们做产品应用的时候,更建议封闭式的交互方式,就是我们不要轻易接受输入者的一些输入信息来训练我们的大模型,或者是说我们在输入的这一块进行一个深度的内容检测,对于一些偏向性的或者错误引导性的内容进行过滤和筛选。
(, 下载次数: 33)
上传
点击文件名下载附件
网络安全专家 周鸿祎
我们还可以借助大模型超强的人工智能能力来对安全能力进行加强,我们训练的一个安全大模型,对我的安全防护能力进行加强。这样用大模型来对大模型进行校正,可能是一个解决问题的方法。
(, 下载次数: 28)
上传
点击文件名下载附件
据了解,早在2017年,国务院印发《新一代人工智能发展规划》明确提出,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。
另外,我国还在积极参与人工智能国际合作和全球治理,2022年,中国发布《中国关于加强人工智能伦理治理的立场文件》,今年,在第三届“一带一路”国际合作高峰论坛期间,中国发起“全球人工智能治理倡议”,明确提出发展人工智能坚持相互尊重、平等互利的原则,通过对话与合作凝聚共识,构建开放、公正、有效的治理机制,促进人工智能安全发展。
来源:网信广东
欢迎光临 乐清上班族网 (http://bbs.5iyq.com/)
Powered by Discuz! X3.3