美国情报机构在 ChatGPT 发布前3年就开始使用生成式人工智能
远在生成式人工智能蓬勃发展之前,一家硅谷公司被承包,收集和分析关于非机密数据的中国芬太尼非法交易的数据,为美国情报机构的采用提出了有力的观点。
该行动的结果远远超出了仅靠人工分析的范围,发现在这种致命阿片类药物中,从事非法或可疑商业活动的公司数量增加了一倍,涉及的人员增加了400%。
激动的美国情报官员公开宣扬了这些结果 - 这种人工智能主要基于互联网和暗网数据建立联系 - 并与北京当局分享,敦促打击。
2019年行动的一个重要方面,名为“Sable Spear”,之前从未报道过:该公司使用生成式人工智能为潜在刑事案件提供了证据摘要,为美国机构提供了服务 - 比OpenAI的开创性产品ChatGPT发布的时间提前三年 - 从而节省了无数的工作时间。
“没有人工智能是做不到的,”国防情报局的AI主任兼项目协调员布赖恩·德雷克说。
承包商 Rhombus Power 后来使用生成式人工智能,提前四个月以80%的确定性预测了俄罗斯对乌克兰的全面入侵,为另一家美国政府客户。Rhombus表示还会提醒政府客户,他们不愿透露客户的名称,有关朝鲜导弹发射和中国太空行动的即将发生。
美国情报机构正在竭力拥抱人工智能革命,他们相信否则将被传感器生成的监视技术进一步覆盖全球所产生的指数级数据增长所淹没。
但官员们清楚地意识到,这项技术尚处于初期阶段,脆弱不堪,生成式人工智能 - 在庞大数据集上训练的预测模型,能够生成按需的文本、图像、视频和类似人类对话的内容 - 绝非适用于深陷欺骗的危险贸易的量身定制。
分析人员需要“能够消化庞大量的公开来源和秘密获取的信息的复杂人工智能模型,”中央情报局局长威廉·伯恩斯最近在《外交事务》中写道。但这并不简单。
中情局首席技术官南德·穆尔钦达尼认为,因为生成式人工智能模型“产生幻觉”,最好将其视为“疯狂、醉醺醺的朋友” - 能够提供很好的洞察力和创造力,但也容易受到偏见。还有安全和隐私问题:对手可能会窃取和破坏它们,并且它们可能包含官员未经授权查看的敏感个人数据。
然而,这并没有阻止实验,尽管大部分都是秘密进行的。
一个例外是:18个美国情报机构中的数千名分析师现在使用中央情报局开发的生成式人工智能 Osiris。它运行在未分类和公开或商业可获得的数据上 - 也就是所谓的开源。它可以编写注释摘要,其聊天机器人功能让分析师可以通过查询进一步深入了解。
穆尔钦达尼说,Osiris使用来自多个商业供应商的多个人工智能模型,他不愿透露供应商的名称。他也不愿透露中央情报局是否在机密网络上主要使用生成式人工智能。
穆尔钦达尼说:“现在还处于初期阶段,我们的分析师需要能够绝对确定信息来源。”他说,中央情报局正在尝试所有主要的生成式人工智能模型 - 不承诺任何一个 - 部分原因是因为人工智能在能力上不断超越彼此。
穆尔钦达尼表示,生成式人工智能在作为“针在针堆中寻找”的虚拟助手方面大多是有益的。官员们坚称,它永远不会取代人类分析师。
去年退休的中央情报局分析副局长琳达·韦斯戈德认为,模拟战争将是一个“杀手级应用”。
在她任职期间,该机构已经在翻译和任务中使用常规人工智能 - 算法和自然语言处理 - 包括在非工作时间提醒分析师可能重要发展的AI。人工智能不能描述发生了什么 - 那将是机密的 - 但可以说“这里有些东西你需要过来看看”。
预计生成式人工智能将增强这样的流程。
Rhombus Power CEO 安舒·罗伊认为,其最强大的情报用途将是预测分析。“这可能是整个国家安全领域最大的范式转变之一 - 预测对手可能会做什么。”
Rhombus 的人工智能机器利用了250种语言超过10年的全球新闻来源、卫星图像和数据网络中的5000多个数据流。所有这些都是开源的。“我们可以追踪人员,我们可以追踪物体,”罗伊说。
争夺美国情报机构业务的人工智能巨头包括微软,他们在5月7日宣布,他们正在为秘密网络提供OpenAI的GPT-4,尽管这款产品仍需获得在机密网络上工作的认证。
另一个竞争对手 Primer AI 名单上有两家未透露名称的情报机构是其客户之一 - 其客户包括军事服务,最近在军方人工智能研讨会上发布的文件显示。它提供了基于100种语言的AI动力搜索,用于“检测突发事件的新信号”,来源包括 Twitter、Telegram、Reddit 和 Discord,并帮助识别“关键人员、组织、位置”。Primer列出了定位作为其技术宣传用途之一。在以色列哈马斯袭击后几天举行的陆军会议上,公司高管描述了他们的技术如何将中东的在线信息洪流中的事实与虚构分开。
Primer 的高管拒绝接受采访。
在短期内,美国情报官员如何运用生成式人工智能可能不如反击对手如何使用它重要:为了突破美国的防御,传播虚假信息,并试图破坏华盛顿解读他们意图和能力的能力。
由于硅谷推动这项技术,白宫也担心美国机构采用的任何生成式人工智能模型都可能被渗透和毒害,研究表明这是一个威胁。 (opens new window)
另一个担忧是:确保“美国人”数据的隐私可能被嵌入到大型语言模型中。
“如果你与正在训练大型语言模型的任何研究人员或开发者交谈,并问他们是否可能从一个LLM中删除一个个体信息片段,并让其忘记 - 并拥有强大的实证担保来确保其遗忘 - 那是不可能的事情,”国家情报总监办公室的人工智能主管约翰·贝勒在采访中说。
这也是情报机构在生成式人工智能采用方面没有采取“速战速决”方式的一个原因。
“我们不希望进入这样一个世界,我们迅速移动并部署其中一个东西,然后两三年后意识到 t 他们拥有一些我们没有预料到的信息、影响或紧急行为,”Beieler说。
举例来说,如果政府机构决定使用人工智能来探索生物和网络武器技术,这就是一个问题。
昆西负责国家政策研究所的资深研究员威廉·哈唐表示,情报机构必须仔细评估人工智能的潜在滥用可能性,以免导致意外后果,比如非法监视或在冲突中平民伤亡增加。
“所有这些都发生在军事和情报领域多次吹嘘“神奇武器”和革命性方法的背景下——从越南的电子战场到1980年代的星球大战计划再到20世纪90年代和2000年代的“军事事务革命时代——只能发现它们的表现不尽如人意,”他说。
政府官员坚称他们对这些问题很敏感。此外,他们说,人工智能任务将根据涉及的机构而有所不同。没有一刀切。
以国家安全局为例。它拦截通信。或者国家地理空间情报署(NGA)。其工作包括查看和理解地球的每一英寸。然后还有测量和签名情报,多个机构使用物理传感器跟踪威胁。
用人工智能加速这些任务是明确的优先事项。
去年十二月,NGA发布了一项全新类型的生成人工智能模型的请求。其目的是利用其收集的图像—从卫星和地面级别—通过简单的语音或文本提示收集精确的地理空间情报。NGA的创新总监马克·曼赛尔在一次采访中表示,Gen AI模型不会绘制道路和铁路,也“不了解地理的基础知识”。
曼赛尔在弗吉尼亚州阿灵顿举行的四月会议上表示,美国政府目前只对地球的大约3%进行了建模和标记。
Gen AI应用在网络冲突中也很有意义,攻击者和防御者在不断作战,并且自动化已经在发挥作用。
但是,Zachery Tyson Brown,一名前国防情报官员表示,许多重要的情报工作与数据科学无关。他认为,情报机构如果过于迅速或完全采用Gen AI将会招致灾难。这些模型并不会推理,它们只是预测。而且它们的设计者无法完全解释它们是如何工作的。
因此,对于与欺骗对手的竞争非常有用。
“情报分析通常更像是有关拼图的老陈词,只是有人不断试图偷走你的拼图块,同时还将完全不同的拼图块放入你正在处理的堆中,” Brown最近在一份中央情报局杂志中写道。分析人员使用“不完整、模糊、经常矛盾的部分、不可靠的信息片段”。
他们对直觉、同事和机构记忆寄予极大信任。
“我不认为人工智能会很快取代分析人员,”前中央情报局分析局副局长韦斯戈尔说。
有时基于不完整数据必须做出迅速的生死决策,而当前的Gen AI模型仍然过于不透明。
“我认为某位总统永远不会接受情报机构走进来说,‘我不知道,黑匣子告诉我的’,”韦斯戈尔说。
订阅“AI之眼”新闻简报,了解人工智能如何塑造商业的未来。免费注册 (opens new window)。