安恒信息官方微信号15日早间发布消息称:“2月12日晚,Telegram各大频道突然大面积转发某隐私查询机器人链接。网传消息称该机器人泄露了国内45亿条个人信息,疑似电商或快递物流行业数据。用户只需输入手机号,就可以查询到姓名、手机号和详细的收货地址等隐私信息。”
受此消息影响,15日开盘,快递板块集体下挫,截至当日收盘,申通快递、顺丰控股、韵达股份跌幅均超过2%,圆通速递跌幅近6%。对于个人信息泄露传闻,圆通速递证券部工作人员称:“已经注意到二级市场的波动,上述传闻与公司无关,公司生产经营一切正常。”
截至发稿,并无安全网站或公司对于此次数据泄露事件的公司身份进行确认。而该事件所涉及的隐私查询机器人却引发了业内关于ChatGPT安全隐患的探讨。
快递公司屡陷各种传闻
近日,快递公司屡屡陷入信息泄露乃至破产传闻。除了圆通速递受到此次个人信息泄露传闻的影响,此前,韵达股份被传关闭网点乃至“公司要倒闭”。
2月12日,韵达官方微博发布澄清公告称,网点积压的快件绝大多数已得到及时清理,近日将全部清理完毕。“网传2000多个网点关闭”为不实内容、“客服不受理”“营收不盈利”“公司要倒闭”等皆为不实之词。
数据安全威胁升级
ChatGPT也有安全隐患
技术的演进从来就是“矛”与“盾”的结合体,AIGC也不例外。当前爆火的ChatGPT在极大提升了AI应用普及率的同时,也带来了新的安全隐患。
据奇安信虎符智库研究员李建平介绍,如同其他人工智能模型一样,ChatGPT是把双刃剑,既可以是提升效率的工具,也可以解答人们的各种问题,甚至编写代码。同时也可能被绕过安全机制,用于实施有害的活动。比如,对网络安全行业来说,ChatGPT可以用来编写网络钓鱼、生成恶意软件、开展社会工程攻击,也可以成为网络防御者的有力工具。“因此,我们看到ChatGPT相继被不少机构(Stack Overflow、高校、顶级协会等)封禁,部分原因是模型目前仍然会生成一些虚假错误内容,并且难以辨别。”
此外,ChatGPT还降低了网络犯罪的门槛——即使没有技术,也能成为攻击者。
如今,微软、亚马逊等科技巨头就纷纷提醒员工不要与ChatGPT分享敏感数据。
李建平建议:“从安全防护的角度来看,ChatGPT的运营机构需采取针对性的应对措施。对ChatGPT等类似模型进行培训,标记恶意的活动和恶意代码,避免其向恶意人员提供;同时对ChatGPT设置难以绕过护栏,提升恶意人员利用其生成恶意内容、开展恶意活动的门槛。”
在他看来,ChatGPT等人工智能工具会以比人类罪犯更快的速度制造出新的、日益智能的威胁,传播威胁的速度也将超过网络安全人员的反应速度。对于机构来说,跟上这一变化速度的唯一方法是“用人工智能来应对人工智能”。
记者从奇安信人工智能研究院了解到,公司正在基于ChatGPT相关技术和自身积累的海量安全知识和数据,训练奇安信专有的类ChatGPT安全大模型。未来将广泛应用于安全产品开发、威胁检测、漏洞挖掘、安全运营及自动化、攻防对抗、反病毒、威胁情报分析和运营、涉网犯罪分析等领域。