首页 > 资讯 > 综合 > 正文
2023-12-07 14:02

生成人工智能“帮助犯罪分子制造更复杂的网络攻击”

ChatGPT

英国国家网络安全中心(National Cyber Security Centre)也强调,利用人工智能制造和传播虚假信息是一个关键威胁。

网络安全专家警告称,ChatGPT等生成式人工智能工具的兴起,正在帮助网络犯罪分子制造更有说服力的复杂骗局。

在ChatGPT向公众推出一周年之际,许多行业专家表示,这项技术正在被网络上的坏人利用。

他们警告称,用于文本和图像创建的生成式人工智能工具使犯罪分子更容易制造令人信服的骗局,但人工智能也正被用于帮助加强网络防御,帮助识别不断演变的威胁。

在本月早些时候的英国人工智能安全峰会上,由人工智能驱动的更复杂的网络攻击的威胁被强调为未来的一个关键风险,世界各国领导人同意在这个问题上共同努力。

英国国家网络安全中心(NCSC)也强调,利用人工智能制造和传播虚假信息是未来几年的主要威胁,尤其是在选举前后。

网络安全公司KnowBe4的安全意识倡导者詹姆斯·麦克奎根(James McQuiggan)表示,人们已经感受到生成式人工智能以及为其提供动力的大型语言模型(llm)的影响。

“ChatGPT彻底改变了威胁形势、开源调查和总体网络安全,”他告诉巴勒斯坦新闻社(PA)。

“网络犯罪分子利用法学硕士课程生成语法正确、没有拼写错误、写得很好的文件,以提升他们的攻击水平,并绕过安全意识课程中教授的最大危险信号之一——错误的语法和拼写错误表明存在社会工程电子邮件或网络钓鱼攻击。”

“毫不奇怪,各种类型的网络钓鱼攻击越来越复杂,数量也越来越多,给企业和消费者都带来了挑战。

“随着生成式人工智能降低了创建令人信服的个人资料图片、无可挑剔的文本甚至恶意软件的技术障碍,人工智能和ChatGPT等法学硕士越来越多地被用于大规模创建更有说服力的网络钓鱼信息。”

下一代生成式人工智能模型预计将于2024年开始出现,专家预测它们将比当前一代模型强大得多。

网络安全公司Outpost24的威胁情报运营经理博尔哈·罗德里格斯(Borja Rodriguez)展望了不良行为者未来对生成式人工智能的潜在使用,他表示,黑客可能会开发人工智能工具,为他们编写恶意代码。

他说:“目前,像GitHub的Copilot这样的工具可以帮助开发人员自动生成代码。

“离那不远,有人可以创建一个类似的工具,专门帮助创建恶意代码、脚本、后门等,帮助技术知识水平低的脚本小子(新手黑客)实现他们过去无法做到的事情。

“这些工具将帮助地下组织在没有太多专业知识的情况下执行复杂的攻击,降低对执行者的技能要求。”

专家们表示,生成式人工智能的发展速度,以及未来几年该技术普遍未知的潜力,给它带来了不确定性。

许多政府和世界领导人已经开始讨论如何监管人工智能,但如果不更多地了解技术的可能性,拼凑成功的监管将是不可能的。

Cato Networks安全策略高级主管Etay Maor表示,信任问题仍然是法学硕士的关键,法学硕士是在大量文本数据上训练的,以及它们是如何编程的。

他说:“随着人们对法学硕士课程的热情逐渐转变为一种更加平衡的观点,我们必须承认法学硕士课程的优势和局限性。”

“用户必须核实来自可靠来源的关键信息,并认识到,尽管法学硕士实力雄厚,但他们也难免出错。

“ChatGPT和巴德等法学硕士已经重塑了市场格局。

“然而,随着行业努力了解这些工具的信息来源以及它们是否可以完全信任,不确定性仍然存在。”