大型语言模型如何改变现代战争ChatGPT适用于军事领域吗?
以 ChatGPT 为代表的大型语言模型 (LLM) 的出现彻底改变了数字化转型,将人工智能 (AI) 定位为其核心。LLM 理解和生成人类语言的非凡能力导致了各个行业的各种应用,包括内容创建和客户服务。然而,它们在军事领域的潜力仍未得到充分开发。
本分析研究了 LLM 在现代战争中的变革潜力,并评估了它们在军事环境中的适用性。它深入研究了 LLM 的技术方面,强调了它们使用深度学习原理自主生成上下文相关文本的能力。此外,它还讨论了潜在的军事应用,例如加强决策过程和改进情报、监视、目标获取和侦察 (ISTAR) 行动。
2022 年 10 月,OpenAI 发布了其新型人工智能 (AI) 驱动的聊天机器人,即著名的 ChatGPT(聊天生成预训练转换器)。从那一刻起,世界进入了一个新时代,人工智能成为数字化转型的核心。眨眼间,整个星球都获得了使用复杂人工智能工具的特权,该工具可以在法律考试中取得成功,编写计算机代码,学校论文,小说和烹饪食谱,并理解图片包含的内容并得出合乎逻辑的结论,通常以类似人类的方式。然而,很少有人深入了解 GPT 是什么以及它是如何工作的。
尽管人工智能和机器学习 (ML) 已经成功地用于模式识别、过滤和其他目的,但它们的狭窄范围集中在特定任务上。相比之下,ChatGPT 和类似的文本生成系统具有更广泛的范围,本质上更接近人类领域。它们在理解、生成和处理人类语言方面的卓越能力导致了各种私营部门的应用,包括内容创作、语言翻译、医疗诊断、客户服务和科学研究。
许多人将这项技术归类为颠覆性技术,并分析其对全球格局的影响。事实上,像 ChatGPT 这样的人工智能解决方案为个人和企业提供了强大的语言处理工具,可以更轻松地访问大量信息,并允许他们更有效地处理日常任务,从而改变我们与计算机的交互方式并改变我们的工作方式。
本文旨在概述在更广泛的人工智能领域为 ChatGPT 提供动力的技术。它还将提出与其部署相关的众多挑战,提出潜在的军事应用,并最终提出值得考虑的军事中可能的安全和成功使用的一般准则。
ChatGPT 和类似的文本生成系统由大型语言模型 (LLM) 提供支持,这是生成式 AI 的一种形式。后者包括更广泛的人工智能系统,旨在通过利用学习的模式和数据自主生成新内容或输出。在内容方面,该技术涵盖一系列内容类型,包括文本、语音、视频和图像,而无需为每个输出提供明确的说明。与受预编程规则或特定输入约束的传统人工智能系统不同,生成式人工智能具有独立创建与上下文相关的新的衍生输出的能力。
具体来说,LLM 是统计模型,利用深度学习 (DL) 原理和复杂的内部机制在任何给定语言中创建单词序列,从而生成连贯且上下文相关的文本。4,5它们的主要功能包括分析文本语料库中的模式和关系,以获得基于先前上下文评估特定单词或单词序列的统计可能性的知识和能力,从而生成表现出自然或类似人类品质的内容。
LLM的运作包括两个主要阶段:训练和生成。培训包括两个阶段。首先,该模型从广泛的文本数据集中学习统计模式,并调整其数十亿个内部参数,以开发通用单词预测能力。其次,微调过程,利用人类反馈对输出进行建模,在给定的上下文中优化单词预测的准确性,从而塑造模型的最终形式。经过训练后,系统会应用其获得的知识来响应提示生成新的输出,并根据先前生成的内容和提供的上下文不断完善其输出,直到达到所需的结果或完成条件。
2020 年,OpenAI 推出了 GPT-3,这是第一个在各种自然语言处理 (NLP) 任务中展示卓越性能的模型。7当时,GPT-3 在文本完成、翻译、总结和问答方面表现出色,引起了公众的广泛关注。其令人印象深刻的自学习能力使该模型能够以最少的示例或训练来执行任务。8它的继任者 GPT-3.5 是 ChatGPT 的革命性模型,功能更强大,并提供更广泛的 NLP 功能。今年早些时候推出的 OpenAI 最新模型 GPT-4 继续突破 NLP 的界限,凭借其更广泛的常识和先进的推理能力提供更高的准确性。此外,该模型还提供文本和图像输入和输出。
虽然军事和国防部门已经研究了各种人工智能应用,包括网络安全、海上安全、关键基础设施保护等,但没有公开的 LLM 技术使用实例。然而,LLM在组合和分析来自不同来源的原始数据方面的卓越能力,以及他们的NLP能力,使军事领域成为一个具有巨大潜力的领域。
通过利用这项技术来加强包括规划和决策在内的几个过程,军事空中行动可以大大受益。例如,人工智能的一个可能应用可能涉及通过支持工作人员制定、评估和推荐可用的行动方案 (COA),协助军事指挥官以相关的速度做出正确的决定。LLM 还可以通过协助人类操作员实时收集、分析和评估数据来帮助情报、监视、目标获取和侦察 (ISTAR) 过程,从而缩短 OODA 循环并在战场上提供决定性优势。11另一个潜在应用领域可能是军事演习,生成式人工智能工具可以帮助创建更逼真的场景,甚至增强人手不足的红军,以实现更好、更有效的训练。
然而,重要的是要承认,LLM 的完全集成可能会遇到挑战,例如确保高质量的训练数据、改进模型功能、管理资源成本以及解决道德、法律和偏见问题。应对这些挑战对于确保采用LLM在不损害军事行动的完整性和安全性的情况下真正增强现有流程具有决定性意义,更不用说更广泛的社会价值观和利益了。
数据偏差
需要注意的是,LLM 是使用大量数据集训练的,其中包括固有的和通常阴险的偏见,例如地理、性别、社会、伦理、道德和宗教偏见。12,13如果这些偏见得不到解决,LLM的输出可能会延续或放大现有的偏见,导致错误、不公平或歧视性的结果。在军事行动中,LLM生成的信息或决策支持系统中的偏见可能会产生严重后果,包括歧视性目标、任务优先级排序不当或资源分配不足的可能性。
解决偏差问题需要仔细关注所使用的训练数据,并制定和实施偏差缓解策略。研究人员正在研究偏差缓解技术,例如数据集管理、模型微调和输出的持续评估,以确保输出的质量。
问责制问题
此外,LLM或任何其他类型的人工智能技术的使用引发了对决策和行动问责制的担忧,这些决策和行动受到人工智能生成的信息的影响或基于人工智能生成的信息。15,16,17确保问责制涉及透明度、可追溯性以及将决策归因于特定个人或系统的能力。然而,研究人员认为,“人工智能和机器学习系统的内部工作原理很难被人类理解,被认为是黑盒方法,只有输入和输出对用户可见。
这种说法质疑了这种系统的可信度,因为LLM内部运作的不透明性使得在出现错误、偏见或有争议的输出的情况下确定责任具有挑战性。另一方面,我们还应该考虑人类决策过程的有效性和透明度水平,因为人脑的不完美性往往会导致错误或无效的决策,难以解释或受到偏见的影响。人脑有限的处理能力可能会放大这种现象。
另一个值得我们考虑的方面是,那些将运营优势置于道德和伦理考虑之上的对手可能会采用LLM系统,尽管它们存在缺陷和缺点。其他军队,甚至在联盟内部,也可以效仿他们的榜样,采用和利用类似的不完美的人工智能解决方案,因为害怕在战场上失去优势。在这种可能的未来作战环境中,危及任务成功、违反人类价值观和将生命置于危险之中的风险可能超出我们有效管理的能力。
财务成本
LLM的经济负担对一些军队来说可能是一个重大挑战,因为与培训和运行这些系统相关的成本,加上能力建设所需的基本投资,可能非常高。19培训大规模的 LLM 需要大量的财务投资,购买高性能硬件,如服务器、存储和网络设备,以及相当大的能源消耗。20此外,获取和整理不同的数据集以获得最佳性能需要专业技能和大量资源。在实时应用程序中部署 LLM 还需要持续的运营费用,包括维护和运营成本。
在进一步强调这项技术带来的挑战的同时,我们应该考虑到,受国防预算和有限资源限制的国家可能会发现采用和整合这项技术是不可行的,这可能导致联盟内部的技术和能力差距。一个值得研究的解决方案可能是建立机制,为北大西洋公约组织(NATO)盟国之间使用的资金和开发共享人工智能系统提供资金,类似于北约的机载预警和控制系统(AWACS)计划。
熟练劳动力成本
培养熟练的劳动力是能力建设的另一个关键方面,特别是考虑到全球人工智能专家的短缺。军队应投资于培训和教育计划,使其人员具备数据科学、机器学习、自然语言处理和其他相关学科的专业知识。在研发方面的额外投资对于微调军事应用的 LLM 至关重要。研究工作应旨在提高模型性能,解决局限性和偏见,并定制LLM以满足军事特定的使用情况。
连贯战略
人工智能解决方案在组织内的成功集成通常取决于制定连贯的战略和强大的业务案例。22对于LLM来说,这意味着军队不应该在没有深入分析和评估其流程并考虑更广泛的作战环境的情况下匆忙决定采用这项技术。否则,缺少这两个基本要素中的任何一个——连贯的战略和强大的商业案例——都可能危及项目的成功。
遗留系统和数据质量
将 LLM 系统与现有的遗留系统集成是另一个重大挑战,因为很可能需要对系统进行大量修改,从而增加无法达到预期结果的风险。另一个关键问题与用于训练人工智能系统的数据质量有关,因为低质量的数据会严重影响算法的功能,破坏准确结果的潜力并产生后果。
幻觉
在检查 LLM 时也存在幻觉问题。该术语是指 LLM 生成完全捏造或脱离输入或上下文的听起来合理的输出的现象。23,24幻觉的发生是由于各种原因。其中一些包括大量未治愈的训练数据、缺乏上下文理解、罕见和不寻常的输入以及 LLM 训练的语言建模技术。因此,LLM 偶尔会产生超出其预期目的的输出,或者对其响应表现出过度自信。
不幸的是,幻觉和过度自信的反应可能并不明显,并且可能在军事行动中构成风险,导致错误信息、有缺陷的决策和潜在的任务失败。研究人员正在研究几种缓解策略来解决这个问题,包括人工监督和专门设计的算法来持续检查输出。无论如何,我们应该开发并建立有效的机制来检测和减轻幻觉,以确保LLM生成的信息的可靠性和有效性。
该联盟对人工智能、量子技术和自主系统等新兴和颠覆性技术 (EDT) 表现出极大的兴趣。北约已将人工智能确定为其创新活动的九个优先技术领域之一。北约的 2022 年战略概念指出,“创新技术正在为北约军队提供新的机会,帮助他们变得更有效、更有弹性、更具成本效益和可持续性。25,26同一份文件确认,EDT既带来了机遇,也带来了风险,它们正在改变冲突的性质,获得更大的战略重要性,并成为全球竞争的关键舞台。
此外,为了促进人工智能系统的合乎道德的使用,美国国防部 (DoD) 于 2020 年发布了在军队中合乎道德和合法地采用人工智能系统的原则,其中指出,“美国与我们的盟国和伙伴一起,必须加速采用人工智能并在其国家安全应用中发挥领导作用,以保持我们的战略地位, 在未来的战场上取胜,维护基于规则的国际秩序。北约还发布了类似的原则,包括合法性、问责制、可解释性(原文如此)、可追溯性、可靠性和减少偏见,以应对人工智能在军队中带来的挑战。
LLMs在协助人类和加强军事进程方面的潜在用途具有巨大的前景,并可能为实现作战甚至战略目标提供显着优势。LLM 处理、整合和分析来自不同来源的数据的能力,以及以相关性的速度对人类输入生成类似人类的反应的能力,可以支持战略敏捷性、提高态势感知能力、改进决策过程和高效资源分配。此外,这项技术可以帮助识别盲点,提供有价值的见解,并帮助完成复杂的认知任务。
然而,训练数据中的偏差、模型输出的问责制以及潜在的幻觉都凸显了在决策过程中保持人类监督和责任的重要性。承认这些挑战并实施适当的缓解机制对于将LLM适当地纳入军事决策过程至关重要。此外,训练和运行这些系统所需的大量投资必须与它们为军事行动带来的潜在利益相平衡。我们还应该记住,一些军队将难以应对相关的财务成本。相比之下,其他国家将利用这项技术的好处,可能会在联盟内部造成技术差距。
由于目前与该技术相关的挑战和缺点,将 LLM 视为支持性工具而不是自主决策者至关重要。人为因素应保持核心地位,LLM 提供数据驱动的见解和建议,以补充人类专业知识,形成人机交互 (HITL) 系统。29采用这种支持性方法可以利用 LLM 的优势,同时在军事行动中保持人类的能动性、问责制和责任感。
然而,在未来的战争中,军事指挥官可能需要对复杂和快节奏的情况做出快速反应,尤其是在面对近乎对等的竞争对手时。在这种情况下,使用LLM来形成半自主的人机在环(HOTL)甚至自主的人机外(HOOTL)系统,以保持战场上的优势可能是不可避免的。30,31
虽然科学家和研究人员正在努力实现通用人工智能 (AGI),并且 LLM 不断变得更容易实施和更高效,但它们对社会的颠覆性和变革性影响将变得巨大。32,33这项技术对个人和社会的潜在风险也相当大,这凸显了政府和组织优先考虑人工智能监管的必要性。强调这一重点对于保护技术、降低潜在风险和最大化预期收益至关重要。
评论 (0人参与)
最新评论