点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
当前,人工智能技术的突破式发展在带来极大便利的同时,也导致新旧风险叠加,引发一系列问题,给现有经济社会治理模式和治理规则带来挑战。在中国网络法治建设三十年的背景下,如何在法治轨道上推进人工智能高质量发展成为业界关注的话题。近日,360集团创始人周鸿祎在接受采访时建议,面对人工智能技术发展存在的问题,在产业政策上,应持宽容和包容的创新思路,鼓励大模型的快速发展。
“数字化的本质是软件定义世界,包括汽车、城市等都被软件所定义。”周鸿祎指出,由于软件存在漏洞,可能会被人利用进行攻击。在万物互联的时代,虚拟网络空间里的攻击甚至可能带来物理伤害。他认为,人工智能(AI)和其他数字化技术一样,是一把双刃剑。一方面,AI能够帮助解决一些过去难以处理的网络安全问题;另一方面,AI本身也带来了新的安全威胁和挑战。
“利用大数据技术,将高质量的攻击知识库和网络安全大数据训练成专业的安全大模型,可以有效提高我们发现网络攻击、溯源以及应急处置的能力。”他表示,这种技术的应用能够显著提升网络安全防护的效率和准确性。
然而,AI本身作为数字化系统,也面临着数据安全的问题。周鸿祎提道,数据污染和数据投毒是AI训练过程中必须警惕的风险。“如果人工智能训练的数据被污染了,那么训练出来的人工智能的推理和结论肯定会有问题。”他警告说,生成式AI既可以生成有趣、有创意的内容,也可能生成大量伪造、虚假或不合适的内容,从而引发网络欺诈和社会稳定问题。
对于这些问题,周鸿祎呼吁产业界对大模型持宽容和支持的态度。“人工智能肯定会出错,也可能会说出一些不恰当的内容,希望不要因为一出问题就彻底否定它。”周鸿祎认为,在没有大模型的时代,判断文章内容只能依赖关键字和敏感词,而现在有了大模型的辅助,可以更好地筛选内容。
同时,周鸿祎也强调,不要高估大模型当前的能力,但更不要低估其未来发展的潜力。“大模型刚刚诞生两年,其未来的发展潜力巨大。”他认为,在产业政策上应持宽容和包容的创新思路,这将可能为中国带来一次信息革命和工业革命的巨大升级机会。
监制:张宁 策划:廖慧 统筹:李政葳 撰文:刘昊 摄制:曾震宇 赵鹏超 刘鑫坤