英国网络安全机构警告:人工智能将使网络钓鱼邮件难以分辨

 邮箱网  0条评论  1108次浏览  2024年01月24日 星期三 13:18

分享到: 更多
英国网络安全中心(NCSC)近日发布的报告警告称,人工智能技术将使网络钓鱼攻击变得更加难以识别,尤其是那些要求用户重置密码的欺骗性信息。NCSC表示,由于人工智能工具的复杂性,人们将很难辨别这些欺骗性信息,使得网络攻击的威胁水平在未来两年内“几乎肯定”会上升。

生成式人工智能(Generative AI)是一种能够从简单手工输入的提示中产生令人信服的文本、语音和图像的技术,通过像ChatGPT这样的聊天机器人以及开源模型的免费使用,已经广泛面向公众。NCSC指出,这种技术将使网络攻击更加复杂,尤其是欺骗性信息和社交工程攻击的辨识变得更加困难。

报告中强调到2025年,生成式人工智能和大型语言模型将使每个人,无论其网络安全理解水平如何,都难以评估电子邮件或密码重置请求是否真实,以及辨别网络钓鱼、欺骗或社交工程的企图。

此外,NCSC还预测勒索软件攻击将增加,其中包括一些已经针对英国图书馆和皇家邮政等机构的攻击。该机构警告称,人工智能技术的复杂性“降低了”业余网络犯罪分子和黑客访问系统并收集目标信息的难度,使他们能够瘫痪受害者的计算机系统,提取敏感数据并要求加密货币赎金。

报告还指出,生成式人工智能工具已经通过创建虚假的“诱饵文件”帮助黑客接触潜在受害者,这些文件不包含传统网络钓鱼攻击中常见的翻译、拼写或语法错误,因为它们的内容由聊天机器人精心制作或修正。

尽管生成式人工智能被认为是一种有效的编码工具,但报告指出,它并不会提高勒索软件代码的有效性,而是有助于对目标进行筛选和识别。

最后,NCSC强调了人工智能技术作为一种防御工具的潜力,该技术能够检测攻击并设计更安全的系统。此次报告发布的同时,英国政府制定了新的指导方针,鼓励企业更好地准备应对勒索软件攻击,即“网络治理实践守则”,旨在将信息安全置于与财务和法律管理相同的层次。

尽管如此,网络安全专家呼吁采取更强有力的行动。前NCSC主管Ciaran Martin表示,除非公共和私人机构从根本上改变对勒索软件威胁的应对方式,否则在未来五年内可能发生类似英国图书馆袭击那样严重的事件。Martin在一份新闻简报中写道,英国需要重新评估其对勒索软件的应对方式,包括制定更严格的有关赎金支付的规定,并放弃对位于敌对国家的罪犯进行“反击”的“幻想”。

标签:钓鱼邮件人工智能

我的评论:

请  后发表评论。