经济学人:英美情报界如何使用AI模型?,英美情报共享
【文/经济学人】
就在唐纳德·特朗普宣誓就任总统的那一天,一家名为深度求索(DeepSeek)的中国公司发布了一款世界级的大语言模型(LLM)。特朗普后来形容,这对美国AI行业敲响了“警钟”。美国参议院情报委员会副主席马克·华纳(Mark Warner)表示,美国情报界(由18个机构和组织组成)对这件事“措手不及”。
7月14日,五角大楼向Anthropic、谷歌、OpenAI以及埃隆·马斯克旗下的xAI(该公司的聊天机器人在最近一次更新后一度自视为希特勒)等企业分别授予了最高达2亿美元的合同。这些公司将测试AI“智能体”(agentic models)。此类模型能够代替用户执行任务,并将复杂任务拆分为若干步骤,还可以操控其他设备,比如汽车或计算机。
欧洲也在同步推进这一进程。一位英国知情人士表示:“在生成式AI方面,我们一直试图迅速追赶处于前沿的模型。”他补充说:“整个英国情报界(UKIC)都已接入了最高保密级别的大语言模型功能。”法国公司Mistral是欧洲在AI领域唯一的领军企业,它正与法国的国防人工智能局(AMIAD)开展合作。Mistral的Saba模型专门训练了处理中东和南亚数据的能力,因此在阿拉伯语及泰米尔语等区域性语言上的表现尤为出色。今年1月,以色列左翼评论杂志《972杂志》报道称,自加沙冲突爆发以来,以色列军方对OpenAI当时最先进的GPT-4模型的使用频率增长了20倍。
尽管各方在推进,进展却并不如预期的那样迅速。OpenAI负责该领域合作的卡特里娜·穆利根(Katrina Mulligan)曾在美国国防和情报部门任职,她坦言:“AI在国家安全领域的应用,还远没有达到我们期望的水平。”据一位内部人士透露,负责处理信号情报的美国国家安全局(NSA)在语音识别等早期AI技术应用上已深耕数十年,被视为业界典范。但不少情报机构仍在试图为现成的聊天机器人构建自己的“封装器”(wrappers),这种做法常常使其大幅落后于公共领域中最先进的模型。
7月23日,美国总统特朗普在参加“赢得AI竞赛”峰会期间展示关于人工智能行动计划的行政命令
AI情报游戏开始了
但也有质疑者认为,这些希望被过分夸大了。英国艾伦·图灵研究所的理查德·卡特(Richard Carter)指出,美英情报机构真正想要的是实验室能显著降低现有大语言模型的“幻觉”率。英国情报机构正采用一种叫“检索增强生成”(retrieval-augmented generation,RAG)的方法,先由一个算法筛选出可靠信息,再提供给大语言模型,借此降低幻觉率。一位英国消息人士透露:“情报界最需要的是一致性、可靠性、透明度和可解释性。”卡特博士则提醒,相比之下,目前各大实验室更关注的是研发更先进的智能体模型。
卡特博士警告说,智能体模型的风险在于,它们会递归地为分配到的每个任务自行生成提示词,这使其更难预测,错误也可能层层累积。根据OpenAI发布的评估结果,其最新的智能体模型ChatGPT agent的幻觉率约为8%,甚至高于早前发布的o3模型。
一些AI实验室认为,这些担忧不过是来自官僚的保守作风,但卡特博士表示,这其实是“一种健康的谨慎态度”。他说:“尤其在英国政府通信总部(GCHQ,即美国国家安全局的英国对应机构)内部,你会发现一批极其出色的工程人员,他们本能地对新技术持怀疑态度。”
这也引出了一个更广泛的问题——AI未来的发展方向何在?卡特博士属于那种持怀疑态度的声音,他认为,如今的通用大语言模型架构并不适合“因果推理”,因而难以掌握真实世界运行的逻辑。他主张,情报机构的重点应转向开发具备推理能力的全新AI架构。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。
2、丝路走笔丨“不只是食物,更是希望”——为非洲孩子餐桌带去希望的“中国草”
3、东西问丨西佐·恩卡拉:溯源中非友好,从万隆会议到新时代合作,恩佐西福的资料