人工智能的伦理考量:道德困境的例子

Mina
2024-11-26
Share :

人工智能(AI)的快速发展在全球范围内带来了许多机会,从推动医疗诊断到通过社交媒体实现人与人之间的连结,再到通过自动化提高劳动效率。然而,这些迅速的变化也引发了严重的道德担忧。它们担心的是,人工智能系统可能引入偏见、加剧气候问题、威胁人权等。与人工智能相关的这些风险开始加剧现有的不平等,从而进一步伤害已经处于边缘地位的群体。

人工智能中的偏见

当您在常用的搜索引擎中输入“史上最伟大的领导者”时,可能会得到一份世界杰出男性的名单。您是否统计过其中有多少是女性?若搜索“女学生”,很可能看到一页全是穿着性感服装的女性和女孩。相反,输入“男学生”时,结果大多是普通的年轻男性学生,几乎没有穿着性感的男性。这种性别偏见源自社会中的根深蒂固的刻板印象。

搜索引擎的结果并非中立。它们通过处理大数据,并根据用户习惯和地理位置优先呈现点击率最高的结果。因此,这些搜索工具可能会成为回音室,支持和强化现实世界中的偏见和刻板印象。

我们该如何确保结果更加平衡和准确呢?在算法开发、用于机器学习的大型数据集和人工智能决策过程中,应避免或至少减少性别偏见。 image.png

法庭中的人工智能

在全球的司法系统中,人工智能的应用越来越普遍,也引发了诸多需要探讨的伦理问题。AI可能比法官更迅速、更高效地评估案件并伸张正义。人工智能手段可能对多个领域产生重大影响,从法律职业和司法部门到帮助立法和政府机构进行决策。例如,它们可以提高律师在咨询和诉讼中的效率和准确性,使律师、他们的客户及整个社会受益。现有的法官软件系统可以通过AI工具被补充和加强,以支持他们起草新的裁决。采用自主系统的趋势被称为司法自动化。

有人认为,人工智能有助于建立更公正的刑事司法体系,因为机器能利用其速度和大量数据分析的优势,比人类更好地分析和权衡相关因素。因此,人工智能根据知情判断做出的决定不受任何偏见和主观性的影响。

但存在许多伦理挑战:

  • 缺乏透明度:人工智能做出的决定并不总是可供人类理解。
  • 非中立:基于人工智能的决策易受不准确性、歧视性结果和内嵌或外加的偏见影响。
  • 数据收集和法院用户隐私保护的监视实践。
  • 对公平、人权及其他基本价值观风险的新关注。

请问,你会愿意在法庭上接受机器人的审判吗?即便我们不清楚它是如何得出结论的,你愿意吗?image.png

人工智能与艺术创作

AI在文化领域的应用引发了有趣的伦理思考。2016年,名为《下一个伦勃朗》的画作是由计算机设计并通过3D打印机印制而成,距离画家去世已有三百五十多年。为了实现这种技术能力,研究人员对三百余幅伦勃朗的作品进行了逐像素分析,并通过深度学习算法加以扩展,创建了一个独一无二的数据库。伦勃朗艺术身份的每一个细节都被捕捉到,为能够创作非凡杰作的算法奠定基础。

为了使这幅画活灵活现,一台3D打印机在画布上重现了笔触的质地和层次感,其惊人的效果可以瞒过任何艺术专家。

但谁能被指定为作者?项目策划公司、工程师、算法,还是……伦勃朗本人?

2019年,中国科技公司华为宣布其人工智能算法已能完成舒伯特第八交响曲的最后两个乐章,这是197年前开始创作但未完成的作品。那么,当机器有能力自己创作艺术时会发生什么?如果人类作者被机器和算法取代,版权应如何界定?算法能否被认定为作者,并享有与艺术家相同的权利?

人工智能创作的艺术作品需要为“作者”重新定义,从而公正地对待原创创作者的创作工作和创作艺术作品本身的算法及技术。创造力是指能够通过想象或发明产生新内容和原创内容的能力,它在开放、包容和多元的社会中发挥着核心作用。因此,人工智能对人类创造力的影响值得认真思索。

虽然AI是强大的创作工具,但它也提出了关于艺术的未来、艺术家的权利和报酬及创意价值链完整性的重要问题。我们需要制定新的框架来区分盗版、剽窃与原创和创造力,并在与人工智能的互动中认识到人类创造性劳动的价值。这些框架对于避免故意剥削人类劳动和创造力,以及确保艺术家获得足够的报酬和认可、维护文化价值链的完整性及文化部门提供体面工作的能力至关重要。image.png

自动驾驶车辆

自动驾驶汽车是一种能够感知周围环境并在极少或完全无需人干预的情况下行驶的车辆。为了确保车辆安全行驶并理解其驾驶环境,需要通过车辆内部无数不同的传感器随时收集大量数据。之后,这些数据由车辆的自动驾驶计算机系统处理。

自动驾驶汽车还必须经过大量训练,以便理解所收集的数据,并能在任意可想象的交通情形下做出正确决策。人们每天都会做出道德决定。当司机选择急踩刹车以避免撞到过马路的行人时,他们在做出道德抉择,将风险从行人转移到车内乘客。想象一下,一辆自动驾驶汽车刹车失灵,全速冲向一位长者和一位儿童。只需稍微偏离方向即可救一人。这次,决定不是由人类驾驶员做出,而是由汽车的算法。

你会选择谁,祖母还是孩子?你认为只有唯一正确的选择吗? 这是一个典型的伦理困境,突显了伦理在技术发展中的重要地位。

人工智能伦理的建议

联合国教科文组织发布首个AI伦理全球标准

2021年11月,联合国教科文组织发布首个AI伦理全球标准——《人工智能伦理建议书》该标准适用于联合国教科文组织所有成员国。建议书以保护人权和尊严为核心基础,以透明度和公平性等基本原则为基石,同时重视人类对人工智能系统的监督。然而,该建议书的特别之处在于其广泛的政策应用领域,使政策制定者能将核心价值观与原则转化为数据治理、环境与生态系统、性别、教育与研究、健康和社会福祉等领域的行动。

建议将人工智能广义解读为具有智能行为式数据处理能力的系统。因技术变革迅速,任何固定的、狭隘的定义可能很快过时,并使前瞻性政策难以实施。

OpenAI资助的“人工智能道德”研究探秘复杂领域

2024年11月23日消息,OpenAI资助的“人工智能道德”研究进入复杂领域。据TechCrunch报道,美国国税局提交文件披露的举措中,OpenAI的非营利部门向美国杜克大学提供了一笔赠款,用于名为“Research AI Morality(研究AI道德)”的项目。该项研究计划在三年内投入100万美元,研究如何使AI具备道德意识。

该项目由专注于实践伦理学的教授Walter Sinnott-Armstrong和Jana Schaich Borg领导,Sinnott-Armstrong是哲学界的研究人员,深入探讨应用伦理学、道德心理学和神经科学等领域。他在杜克大学的团队致力于解决实际问题,如设计算法决定谁应接受器官移植、权衡公众与专家意见以完善这些系统的公平性。该项目旨在创建算法,以预测医学、法律和商业等领域的人类道德评判。研究难点在于AI的运作方式:机器学习模型根据训练数据预测结果,因此可能反映主流文化意见,可能存在偏见。

以人权为视角看人工智能

十项核心原则以人权为中心的AI伦理方针

  1. 比例和不伤害原则

人工智能系统的使用需在实现合法目的的必要范围之内,应进行风险评估以防止使用可能带来的危害。

  1. 安全与保障

人工智能参与者应避免和解决不必要的危害(安全风险)以及易受攻击的问题(安全风险)。

  1. 隐私和数据保护权

在人工智能整个生命周期内,必须保护和促进隐私,并建立适当的数据保护框架。

  1. 多利益相关方与适应性治理合作

使用数据时需尊重国际法与国家主权。此外,多元化利益相关者的参与对于实现包容性人工智能治理方法至关重要。

  1. 责任与义务

人工智能系统应可被审计、追溯。应建立监督、影响评估、审计和尽职调查机制,以避免与人权标准冲突和对环境福祉的威胁。

  1. 透明度与可解释性

人工智能系统的伦理部署取决于其透明度与可解释性 (T&E)。应根据具体情况调整T&E水平,以解决T&E与隐私、安全保障等其他原则之间的矛盾。

  1. 人类的监督与决策

各国应确保人工智能系统不会替代人类的最终责任和义务。

  1. 可持续性

需根据人工智能对“可持续性”的影响进行评估,理解为一系列不断发展的目标,包括联合国可持续发展目标中的目标。

  1. 意识与素养

通过开放和无障碍教育、公民参与、数字技能与人工智能道德培训、媒体与信息素养来提升公众对人工智能和数据的理解。

  1. 公平与非歧视

人工智能参与者应促进社会正义、公平与非歧视,同时以包容性方式确保所有人都能享受到人工智能的益处。