伊斯兰国的支持者转向人工智能来加强在线支持

2025-02-10 09:56来源:本站

  

  

  贝鲁特:在伊斯兰国今年3月对俄罗斯音乐厅发动致命袭击的几天后,一名身穿军装、头戴头盔的男子出现在一段网络视频中,庆祝这次造成140多人死亡的袭击。

  追踪和分析此类网络内容的组织赛德情报集团(SITE Intelligence Group)称,这名男子用阿拉伯语说,“伊斯兰国发动了一场血腥的袭击,给俄罗斯造成了沉重打击,这是多年来最猛烈的袭击。”

  但汤森路透基金会无法独立观看的视频中的男子并不是真实的——根据SITE和其他在线研究人员的说法,他是用人工智能创造出来的。

  总部位于伦敦的智库皇家联合服务研究所(Royal United Services Institute)的研究员费德里科·博尔戈诺沃(Federico Borgonovo)追踪到人工智能生成的视频是一名活跃在该组织数字生态系统中的IS支持者。

  博尔戈诺沃解释说,此人将声明、公告和来自伊斯兰国官方新闻机构的数据结合起来,利用人工智能制作了这段视频。

  尽管伊斯兰国使用人工智能已经有一段时间了,但博尔戈诺沃表示,这段视频是一个“例外”,因为即使内容不像其他网络帖子那样暴力,制作质量也很高。

  “对于一款人工智能产品来说,这是相当不错的。但就暴力和宣传本身而言,它是一般的,”他说,但他指出,该视频显示了伊斯兰国的支持者和分支机构如何在网上增加同情内容的生产。

  数字专家表示,伊斯兰国和极右翼运动等组织越来越多地在网上使用人工智能,并在社交媒体平台上测试安全控制的极限。

  西点军校反恐中心1月份的一项研究称,人工智能可用于制作和分发宣传,使用人工智能聊天机器人进行招募,使用无人机或其他自动驾驶车辆进行攻击,以及发动网络攻击。

  比利时鲁汶大学(UCLouvain)国际关系教授斯蒂芬?贝尔(Stephane Baele)表示:“许多对人工智能风险的评估,甚至是对人工智能生成风险的评估,都只是粗略地考虑了这个特定的问题。”

  “大型人工智能公司通过发布有时冗长的报告来描绘其工具的风险,真正参与其中,很少关注极端主义和恐怖主义的用途。”

  世界各地仍在制定有关人工智能的法规,该技术的先驱们表示,他们将努力确保人工智能的安全。

  例如,科技巨头微软制定了“负责任的人工智能标准”,旨在将人工智能开发基于公平、可靠性和安全性、隐私和安全性、包容性、透明度、问责制等6项原则。

  在今年早些时候的一份特别报告中,赛德情报集团创始人兼执行董事丽塔·卡茨写道,从激进组织基地组织成员到新纳粹网络,一系列行动者都在利用这项技术。

  她写道:“很难低估人工智能对恐怖分子和极端主义团体来说是多么大的礼物,媒体是他们的命脉。”

  聊天机器人和动画片:

  在2014年的鼎盛时期,伊斯兰国声称控制了叙利亚和伊拉克的大部分地区,在其控制的地区实施了恐怖统治。

  媒体是该组织武器库中的一个重要工具,而在线招聘一直是其运营的关键。

  尽管伊斯兰国自称的哈里发国在2017年垮台,但其支持者和分支机构仍在网上宣扬他们的教义,并试图说服人们加入他们的行列。

  上个月,一名安全部门消息人士告诉路透社,法国已经确认了12名ISIS-K组织头目,他们驻扎在阿富汗周边国家,在网络上有很强的影响力,并试图说服欧洲国家的年轻人,让他们有兴趣加入该组织,转而在国内发动袭击。

  ISIS-K是伊斯兰国的一个复兴分支,以历史上的呼罗珊地区命名,该地区包括伊朗、阿富汗和中亚的部分地区。

  分析人士担心,人工智能可能会促进这类在线招聘工作的自动化。

  社交媒体研究公司Graphika的调查员丹尼尔·西格尔(Daniel Siegel)说,他的团队遇到了模仿死亡或被监禁的伊斯兰国武装分子的聊天机器人。

  他告诉汤森路透基金会,目前还不清楚这些机器人的来源是伊斯兰国还是其支持者,但它们带来的风险仍然存在。

  西格尔说:“现在(IS附属机构)可以与机器人建立真正的关系,这代表了一个潜在的未来,聊天机器人可能会鼓励他们参与动态暴力。”

  作为研究的一部分,西格尔与一些机器人进行了互动,他发现它们的答案是通用的,但他说,随着人工智能技术的发展,这种情况可能会改变。

  他补充说:“我还担心的一件事是,合成媒体将如何使这些团体将他们以前存在于孤岛中的内容融入我们的主流文化。”

  这种情况已经发生了:Graphika追踪了瑞克和莫蒂(Rick and Morty)、彼得·格里芬(Peter Griffin)等流行卡通人物在不同平台上演唱伊斯兰国国歌的视频。

  西格尔说:“这使得该组织或同情者或附属机构能够针对特定的受众,因为他们知道海绵宝宝、彼得·格里芬或瑞克和莫蒂的普通消费者将通过算法获得这些内容。”

  利用舞会分

  此外,伊斯兰国的支持者可能会利用人工智能技术扩大他们对非法活动的了解。

  在1月份的研究中,西点军校反恐中心的研究人员试图绕过大型语言模型(llm)的保安,提取可能被恶意行为者利用的信息。

  他们精心制作提示,要求提供从攻击计划到招募和战术学习等一系列活动的信息,llm产生的回答有一半是相关的。

  在一个他们称之为“令人震惊”的例子中,研究人员要求一位法学硕士帮助他们说服人们向伊斯兰国捐款。

  报告称:“在那里,该模型为如何开展筹款活动提供了非常具体的指导方针,甚至提供了在社交媒体上使用的具体叙述和短语。”

  兰开斯特大学(Lancaster University)国际安全教授乔·伯顿(Joe Burton)表示,企业迅速将人工智能模型作为开源工具发布是不负责任的行为。

  他质疑法学硕士安全协议的有效性,并补充说,他“不相信”监管机构有能力对这些方法进行测试和验证。

  伯顿说:“这里要考虑的因素是我们想要监管多少,以及这是否会扼杀创新。”

  “在我看来,市场不应该凌驾于安全之上,我认为,目前的情况就是这样。”

宝贝巴声明:未经许可,不得转载。