《Nature》子刊发布!《探索人工智能的风险:重点关注ChatGPT及相关负责任的研究与创新》
在个人层面,ChatGPT可能会引起人们对所提供信息质量的担忧,甚至将生成的看似可信但与事实不符的文本用于传播错误信息或虚假信息。ChatGPT还可能针对弱势人群发布有害或令人不安的内容,使其受到情感和心理伤害并对网络安全和预防网络欺凌产生更广泛的影响。ChatGPT还可能被用来收集用户的个人信息,用于身份盗窃或其他恶意目的,从而引发隐私和安全问题。与此同时,人们的这些担忧可能会导致恐惧,继而产生情感上的不确定性,阻碍未来人类与人工智能互动的体验。此外,当前的人工智能工具可以提供一定程度的娱乐功能,但无法像人类朋友那样理解情感、产生共鸣并提供归属感。然而,随着人工智能聊天机器人越来越接近超级智能,它们可能会取代人际关系,从而贬低人际关系的价值并增强人们的疏离感。
在组织层面,ChatGPT的应用可能会带来负面的经济影响,如劳动力市场结构的变化。例如,劳动力市场的不稳定性可能导致全职工作岗位被兼职工作岗位取代,这些变化还可能减少人与人之间的接触并取代客户服务、人事管理等领域的工作岗位。与此同时,认识到人工智能能够替代人类劳动会给人类的心理造成威胁,并降低人类与人工智能互动过程中的自我效能感。ChatGPT也可能会助长版权问题以及导致不公平竞争的侵权行为。此外,虽然ChatGPT为企业带来了一些好处,但也存在一些与安全、隐私、法律和虚假信息有关的风险。与此同时,与ChatGPT共享敏感信息的组织可能会因为对保护敏感数据的重要性认识不足而造成严重后果。
在社会层面,教育和研究是对ChatGPT的影响争议最大的领域之一,因为ChatGPT能够展示一定的批判性思维能力并生成高度真实的文本,从而可能导致学生的创造力水平下降。同时,类似ChatGPT的工具的快速发展可能会危及考试的公正性。此外,这类工具在研究领域的效果可能会引起学术界对出版伦理和诚信的担忧。ChatGPT已被列为近期学术文章的合著者,导致学术界很大一部分人建议对其使用进行监管。另一个潜在的社会影响与ChatGPT等类似的人工智能工具的可及性有关。虽然这些人工智能工具目前是免费的,但它们成为付费的服务只是时间问题。如果来自不同社会经济地位和文化背景的学习者没有平等的教育机会,潜在的数字教育不平等可能会导致紧张局势。ChatGPT也将对医疗保健行业产生重大影响,固有风险主要来自系统错误,而患者隐私问题则会阻碍数据的可访问性。此外,人工智能工具与医疗保健的结合改变了基于认知概率(epistemic probability)和谨慎性的传统决策,并在做出有关人类生命和医疗状况的关键决策时引发了伦理、法律和医疗困境。
人工智能的概念及其伦理问题的讨论可以追溯到20世纪50年代。然而,在科学研究和技术开发中,审慎参与(deliberative engagement)在商业和科技伦理的相关文献中已经得到了持续的强调和深入的探讨,这种对于构建一个负责任的创新体系至关重要。有关ChatGPT的担忧之声此起彼伏,这强调了开发者必须确保在构建聊天机器人时考虑到伦理因素,而用户和政府则应意识到潜在风险,并以合乎伦理的方式使用聊天机器人和人工智能技术。
然而,伦理准则并不一定会改变个人(开发人员)的决策。例如,在McNamara等人的研究中,向软件工程专业的学生和开发人员展示了11个与软件相关的伦理决策情景,如对报告的责任、知识产权或对客户的诚信。其中一些参与者接触了既定的伦理规范。他们发现,无论参与者是否看过伦理规范,也无论他们是学生还是专业人员,他们的回答在统计学上都没有显著差异。
与此同时,如果缺乏强有力的伦理和社会责任框架,雇用这些人工智能技术开发人员的创新者可能会成为具有前所未有的产生社会影响的权力结构。人们自然会对这些创新者是否有资格、是否应该在很大程度上影响新兴的人工智能技术在社会中的“胜负”产生质疑。然而,根据新古典经济学的基本原则,人工智能的创新者可能会优先考虑利润和效用的最大化,而不是在伦理框架内进行调整。因此,有必要考虑人工智能生态系统中的利益相关者,以负责任的方式发展人工智能技术。
研究结果表明,以ChatGPT为代表的人工智能技术的开发和伦理实施与以往的人工智能伦理研究相一致,伦理框架的工作至关重要。值得注意的是,需要一种多利益相关者的方法,不仅考虑到人工智能的创新者,还需要考虑到其他社会行为者,包括人工智能的监管者和评估者(如政府和国家组织),以及直接和间接利益相关者(如学术界、行业、非政府组织、消费者)和整个社会。这种方法的提出主要基于以下两个论点:
首先,它符合利益相关者理论。这一行之有效的理论提供了对特定公司(即人工智能的创新者)与其互动的利益相关者之间关系的理解。利益相关者理论认为,一个公司不仅要对其股东负责,实质上还要对所有社会利益相关者负责,这些利益相关者可能与特定公司的行为有利害关系,或者受到特定公司的行为的影响。因此,将利益相关者理论应用于负责任的研究与创新原则,有助于确定生态系统中涉及的不同利益相关者及其各自的利益。其次,利益相关者的参与对于在创新过程中实现社会和伦理目标至关重要。重要的是,多利益相关者的合作可以带来更公平的结果,提高透明度和问责制,并促进信任和合法性。
要制定负责任的人工智能发展框架,就必须深入研究负责任的研究与创新原则的概念基础,并从中汲取关键经验。负责任的研究与创新原则确保创新者和社会参与者以透明的方式共同努力,确保创新过程及其产品具有可持续性、伦理可接受性和社会可取性。事实上,许多学者都从负责任的研究与创新原则的视角提出了伦理问题和关切。因此,采用负责任的研究与创新原则的方法来持续开发类似ChatGPT的工具和人工智能技术,应足以鼓励所有利益相关方参与进来,并通过对此类科技进步的集体决策和管理来考虑不同的观点。具体来说,负责任的研究与创新原则包含以下四个维度:
(1)预测性是指在开发的早期阶段主动评估纳入研究和进程的相关创新的潜在影响。因此,预测性与事先认识到人工智能技术的社会、道德和环境影响有关。通过促进对人工智能技术影响的主动识别和评估,这一维度可应用于更广泛的社会,包括直接和间接的利益相关者。例如,预测人工智能技术对就业条件、隐私或社交互动的影响有利于减轻可能产生的负面影响。
(2)包容性是指在创新进程的早期阶段让利益相关方参与进来,例如让公众价值观参与进来,并将这种参与的副产品纳入研究和创新进程。公共价值观影响着对社会(包括用户、监管机构和民间社会组织)具有重要意义的结果。此外,创新者还应该多与专家合作,例如,让专家参与到人机互动中可以提高人工智能系统的可用性。
(3)反思性与反思人工智能技术对社会的影响及其目的、动机和价值观有关。反思人工智能技术的发展所依据的价值观和假设不仅适用于创新者,也适用于直接和间接的利益相关者,实质上也适用于社会。反思性可以促进人工智能开发和部署的透明度和问责制,敦促研究者和开发者公开与人工智能相关的局限性、偏见和不确定性,促进用户和利益相关者之间的信任。
(4)响应性是指公司必须对社会需求和关切做出回应,确保以负责任和合乎伦理的方式设计和部署人工智能,以降低风险并抓住机遇。此外,响应性要求在开发和部署人工智能时考虑利益相关者的反馈和关切。例如,这可能需要与包括用户、客户和公众在内的利益相关者进行对话。
以往有学者认为,负责任的研究与创新原则应该服务于创新的过程和产品,并且需要将价值观概念化为现成的实体,供利益相关者讨论。在人工智能技术和类似ChatGPT的人工智能工具方面,采用负责任的研究与创新原则的方法有助于考虑聊天机器人技术的伦理影响。这种方法可确保人工智能的开发和使用符合多利益相关者生态系统的价值观(即安全、隐私、可持续性、保证生活质量和性别平等)和多方利益相关者系统的需求,并根据上述四个维度(预测性、包容性、反思性、响应性)解决潜在的伦理问题。此外,本文建议在多方利益相关者生态系统中,从创新过程的一开始就考虑指导创新的价值观。
以负责任的研究与创新原则为基础,本文就利益相关者(如人工智能创新者、监管者、评估者、直接和间接利益相关者以及整个社会)应遵循的指导方针进行了论证,以确保ChatGPT和类似的人工智能工具的可持续性、伦理可接受性和社会可取性,具体内容如下:
第一,开发者必须强调通过积极主动地解决安全和安保问题来构建和/或推进强大的人工智能工具。提高透明度和问责制可以使这项技术的开发更加公平和负责任,这也有助于在使用此类工具时建立信任和信心。此外,开发类似ChatGPT的工具的主要目的是改善生活条件和共享繁荣,而全球治理结构应在这一过程中发挥促进作用。具体而言,在人工智能治理方面,应提倡采用多层次模式,让政府、民间社会、私营部门和学术界参与进来,共同讨论和实施治理机制。这对于最大限度地降低与人工智能相关的风险,同时最大限度地发挥其潜在效益至关重要。负责任的人工智能还有助于直接实现联合国的几个可持续发展目标,如性别平等、经济增长、产业创新、减少社会不平等和基础设施建设等。在这一框架内,确保人工智能对不同人口群体公平公正是一个至关重要的问题。最后,公共部门的人工智能伦理变革需要开发者、决策者、部署者、最终用户和公众之间的公开对话。这种对话对于制定有说服力的政府战略,指导负责任地开发和部署人工智能技术至关重要。
第二,需要适当的激励措施,使人工智能的创新者在产品开发和商业化过程中采用负责任的做法和价值观。为此,应激励公司优先投资于负责任的人工智能,这不仅能降低风险,还能推动创新和竞争优势,促进建立一个更强大、更值得信赖的人工智能生态系统,这与负责任的研究与创新原则的方法不谋而合。根据Bartik的政策观点,对人工智能的创新者直接激励的措施可以是经济激励(如税收减免、工业收入债券和贷款),也可以是非经济激励(如监管减免、培训、声望或表扬)。这些激励措施主要涉及监管机构或直接利益相关者(如债权人和供应商)可能对人工智能的创新者施加的权力。不过,作为企业社会责任的一部分,消费者也可以迫使创新者以负责任的方式开展研究和创新,消费者是企业更好地使其产品和服务符合市场预期的重要参考群体。
第三,监管机构、政策制定者必须通力合作,努力协调ChatGPT的功能与人类自主性、代理权和隐私权的核心原则相一致。这一工作需要建立普遍认可的可信赖的人工智能原则。这不仅涉及为符合伦理规范的人工智能系统制定和执行更严格的法规,还涉及建立持续的监督机制。监测和评估类似ChatGPT的人工智能工具的影响至关重要,这可以通过系统性的政策影响评估以及来自教育、医疗保健、高科技、金融和非政府组织等不同领域的广泛利益相关者的反馈来实现。这种全面监督可以受益于联合国教科文组织的“伦理影响评估”(Ethical Impact Assessment)等工具,该工具可以评估人工智能算法是否符合人权和透明度原则。人工智能治理的有效方法应包括制定事前和事后监管框架,确保人工智能系统从开始到部署都是公平有效的。此外,包括民间社会和主题专家在内的不同利益相关者参与决策过程可以增强人工智能治理的民主合法性。人工智能开发者和采购者还应采用联合国教科文组织提出的“准备就绪评估方法”(RAM),该方法可协助各国政府评估其法律、政策和机构框架是否已准备就绪,以应对人工智能带来的风险。这一诊断工具可以指导有针对性的能力建设,从而激发有效驾驭人工智能技术所需的机构和人员的能力。
第四,投资研究ChatGPT等人工智能工具在社会、经济和伦理方面的影响,涉及透明度、公平性、多样性、包容性和预防伤害,这对产业界和学术界的合作伙伴至关重要。在参与式设计过程中,可以根据消费者或最终用户的反馈共同创建人工智能工具,以确保这些工具的安全性、包容性和公平性。以医疗保健为例,应仔细考虑ChatGPT的治疗建议或诊断可能产生的潜在偏见,这将严重影响患者的治疗效果。例如,收集医疗专业人员和患者的反馈有助于设计符合他们需求并遵守隐私法规的医疗领域的人工智能工具。同样,在学术界,对ChatGPT的使用进行批判性评估对于维护学术标准的完整性至关重要。例如,让学生和教育工作者参与人工智能工具的设计,有助于定制学习材料,促进平等地获取教育资源。
综上所述,本文提出“多方利益相关者负责任的研究与创新框架”,该框架可应用于ChatGPT和新兴的人工智能工具,旨在确保创新过程及其产品满足道德可接受性、可持续性和社会可取性的标准。该框架包括:(a)人工智能的创新者,负责人工智能工具的开发和商业化;(b)人工智能的监管机构,监管机构通过政策和激励措施对创新者施加直接影响;以及(c)直接和间接利益相关者。该框架具有说服力,因为其理论依据来源于既有理论,特别是利益相关者理论和负责任的研究与创新原则,同时又适合人工智能发展的独特背景。该框架还与近期有关创新生态系统的文献保持一致,重点关注构成此类生态系统的参与者。该框架系统地纳入了不同的社会维度,在利益相关者之间建立了积极的反馈回路,从而确保其在指导合乎伦理和可持续的人工智能创新方面的整体有效性。
本文从利益相关者理论和负责任的研究与创新原则视角出发,提出了多方利益相关者负责任的研究与创新框架来使用和开发ChatGPT等人工智能工具。具体来说,人工智能创新者、监管者、学者、从业者和公众应进行持续对话,以确保人工智能工具符合社会价值观和伦理标准。该框架确保在开发人工智能工具时,在预测性、包容性、反思性和响应性的基础上,更广泛地了解其伦理意义和社会影响,并与多方利益相关者生态系统的价值观保持一致。人们必须认识到,继续负责任地使用此类人工智能工具不仅是创新者的责任,也是所有受益者的责任。
评论 (0人参与)
最新评论