奇安相信齐向东:ChatGPT将壮大网络攻击者队伍齐向东建议,企业在使用GPT产品时,需要提高数据使用的敏感度

日期:2023-05-10 14:01:03 / 人气:174

姜敬玲
随着ChatGPT在各行业的快速落地,人工智能技术带来的安全风险正在引发新的担忧。网络安全研究机构CheckPointResearch对地下黑客社区活动的分析表明,目前网络犯罪分子正在利用ChatGPT开发恶意工具、编写病毒脚本或钓鱼邮件来进行网络攻击。
近日,奇安信集团董事长齐向东在接受本站采访时也提到,ChatGPT现在带来了三大网络安全挑战:
首先,它降低了网络犯罪的门槛,增加了数据遭受外部攻击的风险。在过去,高级黑客只是一小部分,而ChatGPT不仅可以挖坑、写代码,还可以教人如何做网络攻击者。借助ChatGPT,初学者网络攻击者可以快速达到中级甚至高级水平。恶意攻击代码、钓鱼攻击已经“触手可及”,数据安全风险不断增加。
其次,数据泄露渠道的增加,会让数据在使用过程中“被动”泄露。数据安全提供商Cyberhaven最近的一项研究表明,在2023年初的一周内,每100,000名员工将有199次将机密业务数据输入ChatGPT。用户可能没有意识到ChatGPT的公共版本并没有将他们的输入保密,而是用它来学习和响应未来的请求。
最后,deepfake技术使信息识别变得困难。利用人工智能技术,不法分子不仅可以编写更接近受害人工作环境的钓鱼邮件,深度合成这一人工智能的重要技术分支也可能被不法分子用来伪造声音、图像、视频等证据。
“如果人工智能像水、电、气一样成为基础设施,那么基础设施一旦出现问题,后果可想而知。”齐向东说道。
由于GPT带来的安全风险仍然充满未知数,因此很多公司对GPT相关技术表现出相当保守的态度。美国运营商Verizon已阻止其员工在工作中访问该程序,理由是高管们担心ChatGPT的安全风险。摩根大通、亚马逊、美国银行、花旗集团、德意志银行、高盛和富国银行也纷纷效仿,限制员工使用ChatGPT。
齐向东表示,针对GPT带来的安全挑战,企业需要提高数据使用的敏感度。“在向GPT输入数据时,需要对数据进行处理,或者寻求专业的安全公司,避免GPT在开发过程中出现重大数据泄露问题。”
对于网络安全公司本身,齐向东表示,人工智能技术将提升网络安全防御的效率,在威胁检测、漏洞挖掘、安全软件开发等方面会更加高效。例如,在整个数据链的安全检查中,人工智能可以大大提高监管效率,使过去不可能的事情成为可能。
据他介绍,奇安信目前正在训练专有的ChatGPT类安全大模型,并通过“人机”合作,做好人才培养应对未来安全挑战的安排。“

作者:恒耀平台




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 恒耀娱乐 版权所有