人工知能の倫理的考慮事項:道徳的ジレンマの例

Mina
2024-11-26
Share :

人工知能(AI)の急速な発展は、医療診断の向上からソーシャルメディアを通じた人と人とのつながりの促進、オートメーションによる労働効率の向上に至るまで、世界中で多くの機会をもたらしました。しかし、これらの急激な変化は重大な倫理的懸念も引き起こしています。AIシステムが偏見を導入したり、気候問題を悪化させたり、人権を脅かす可能性に対する懸念があります。AIに関連するこれらのリスクは既存の不平等を悪化させる可能性があり、すでに周縁にいるグループにさらなる損害を与える可能性があります。

人工知能における偏見

一般的な検索エンジンで「史上最も偉大な指導者」を検索すると、著名な男性のリストが主に表示されるかもしれません。その中で何人の女性が含まれているか、数えたことはありますか?もし「女子学生」を検索すると、セクシーな服装をした女性や少女の画像が多く表示されるかもしれません。反対に、「男子学生」を入力すると、結果には普通の若い男性学生が主に表示され、セクシーな男性はほとんど見かけないでしょう。このような性別に基づく偏見は、社会に根付くステレオタイプに起因します。

検索エンジンの結果は中立ではありません。これらは大規模なデータセットを処理し、ユーザーの行動や地理的位置に基づいて結果を優先します。そのため、これらの検索ツールは現実世界の偏見やステレオタイプを支持し、強化するエコーチェンバーになる可能性があります。

よりバランスの取れた正確な結果を確保するためにはどうすればよいのでしょうか?アルゴリズムの開発、大規模なデータセットの作成、AIの意思決定プロセス中に、性別に基づく偏見を避けるか、少なくとも減少させるための対策が必要です。 image.png

裁判所における人工知能

世界中の司法システムでAIの応用が次第に一般的になり、探求すべき多くの倫理的問題を引き起こしています。AIは、裁判官よりも速く効率的に案件を評価し、正義を実現することが可能です。人工知能は法律職や司法部門だけでなく、立法機関や政府機関の意思決定を支援する形で大きな影響を与える可能性があります。例えば、AIは弁護士のコンサルティングや訴訟における効率性と正確性を向上させ、彼らやその顧客、社会全体に利益をもたらします。既存の裁判官ソフトウェアシステムは、AIツールによって補完強化され、新しい判決を下すのを支援します。このような自主システムの採用傾向は司法のオートメーションと呼ばれます。

一方で、人工知能は刑事司法をより公正なものにする手助けができるという意見がある。なぜなら、機械はそのスピードと大規模データ分析の優位性を活かし、関連する要素をより適切に評価し、考慮することが可能だからです。そのため、AIによって知性的に判断された決定には偏見や主観性がありません。

しかし、多くの倫理的な課題があります:

  • 透明性の欠如:AIの判断は常に人間に理解可能とは限りません。
  • 非中立性:AIに基づく意思決定は、不正確さ、差別的な結果、および内在または外部のバイアスの影響を受けやすいです。
  • データ収集と法廷利用者のプライバシー保護の監視実践。
  • 公平性、人権、その他の基本的価値観に対する新たな懸念。

裁判所でロボットの裁きを受け入れることに同意しますか?たとえその結論に至る過程を理解できなくても、同意しますか? image.png

AIと芸術創造

文化分野におけるAIの応用は、興味深い倫理的考察を引き起こしています。2016年、「ザ・ネクスト・レンブラント」と名付けられた絵画がコンピューターによってデザインされ、3Dプリンターで印刷されました。この絵が画家の死後350年以上経つ今の時代に登場したのです。この技術的成果を実現するために、研究者たちは300点以上のレンブラントの作品をピクセルごとに分析し、深層学習アルゴリズムを使ってそれを拡張し、ユニークなデータベースを作成しました。レンブラントの芸術的アイデンティティの詳細がすべて収められ、非凡な傑作を創作可能なアルゴリズムの基盤となりました。

この絵を生き生きとさせるために、3Dプリンターはカンバス上で筆致の質感と層を再現しており、その驚くべき効果はどんな芸術の専門家さえも騙すかもしれません。

しかし、誰が作者として認められるべきでしょうか?プロジェクトを計画した会社、エンジニア、アルゴリズム、または…本物のレンブラントでしょうか?

2019年、華為技術有限公司(Huawei)は、AIアルゴリズムを使ってシューベルトの第8交響曲の最後の2楽章を完成させたと発表しました。この作品は197年前に着手されましたが、未完成のままでした。こうして機械が独自に芸術を創作する能力を得た場合、何が起こるのでしょうか?人間の作者が機械とアルゴリズムによって置き換えられた場合、著作権はどのように決定されるべきでしょうか?アルゴリズムが作者とみなされ、アーティストと同じ権利を持つべきでしょうか?

AIによって創作された芸術作品は、「作者」の再定義が必要であり、それによってオリジナルクリエイターの創造的な仕事と芸術作品そのものを創作するアルゴリズムおよび技術が公正に扱われるべきです。創造性とは、想像力や発明を通じて新しい内容と独創的な内容を生み出す能力であり、開かれた包括的で多様な社会において重要な役割を果たします。したがって、人工知能が人間の創造性に及ぼす影響は深く考慮されるべきです。

AIは強力な創造ツールですが、芸術の未来、芸術家の権利や報酬、クリエイティブな価値チェーンの完全性についての重要な問いも投げかけています。海賊版、剽窃、オリジナルと創造性の違いを識別するための新しい枠組みを制定し、AIとの相互作用において人間の創造的労働の価値を認識する必要があります。これらの枠組みは、人間の労働と創造性の故意の濫用を避けるため、また芸術家が十分な報酬と認識を受け、文化的価値チェーンの完全性を保ち、文化部門が体面の良い仕事を提供する能力を確保するために極めて重要です。 image.png

自動運転車

自動運転車は、周囲の環境を感知し、最小限または完全に人間の介入なしで動作することができる車両です。これらの車両が安全にナビゲートし、運転環境を理解するために、車両内の多数のセンサーが常に大量のデータを収集します。その後、これらのデータは車両の自動運転コンピューターシステムによって処理されます。

自動運転車は、収集したデータを理解し、あらゆる考えられる交通状況で正しい判断を下すことができるように、徹底的なトレーニングを受けなければなりません。人々は日々道徳的な判断をします。運転手が歩行者を避けるために急ブレーキをかけるとき、それは倫理的な選択をしていることであり、リスクを歩行者から車内の乗客に移しているのです。想像してください。ブレーキが故障した自動運転車が高齢者と子どもに向かって全速力で突進しています。一人を救うためにわずかに方向を変えるだけで済みます。この決定は、人間のドライバーではなく、車のアルゴリズムによって下されます。

あなたは祖母と子供、どちらを選びますか?唯一の正しい選択があると思いますか?これは技術発展における倫理の重要性を浮き彫りにする典型的な倫理的ジレンマです。

人工知能倫理に関する提案

ユネスコ、初のAI倫理グローバル基準を発表

2021年11月、ユネスコは人工知能倫理の初のグローバル基準である「人工知能倫理に関する勧告」を発表しました。この基準はユネスコのすべての加盟国に適用されます。この勧告は人権と尊厳の保護を基盤に、透明性や公正性などの基本原則に基づいて構築されており、AIシステムに対する人間の監視の重要性を強調しています。この勧告の特に重要な点は、その広範な政策応用の範囲にあり、政策立案者がデータガバナンス、環境とエコシステム、ジェンダー、教育と研究、健康、社会福祉などの分野において核心的な価値と原則を行動に転換できるようにしています。

勧告はAIを知性的な行動を示すデータ処理システムとして広く解釈しています。技術の変化が急速であるため、固定の狭い定義はすぐに時代遅れになる可能性があり、将来を見据えた政策の取り組みを無効にする可能性があります。

OpenAI資金提供の「AIの道徳」研究、複雑な領域に参入

2024年11月23日の報告によると、OpenAIは「AIの道徳」という複雑な領域を研究するための資金を提供しています。TechCrunchによれば、OpenAIの非営利部門はデューク大学の研究者に対して「Research AI Morality(研究AI道徳)」というプロジェクトのための助成金を提供しました。この研究プログラムは3年間で100万ドルの投資を受け、AIに道徳的意識を持たせる方法を研究します。

このプロジェクトは、実践倫理学を専門とするウォルター・シノット・アームストロング教授とヤナ・シャイク・ボルグ教授が主導しています。シノット・アームストロングは応用倫理学、道徳心理学、神経科学などの分野を深く探求する哲学界の研究者として知られています。彼のデューク大学のチームは、臓器移植の受け手を決定するアルゴリズムの設計や、これらのシステムの公平性を改善するための公衆の意見と専門家の意見のバランスをとる方法などの現実問題を解決することに注力しています。資金提供されたプロジェクトは、医学、法律、ビジネスなどの分野における人間の道徳的判断を予測するアルゴリズムの作成を目指しています。このプロジェクトの困難さは、AIの操作法にあります。機械学習モデルは、訓練データに基づいて結果を予測します。そのため、一般的な文化的意見を反映している可能性があり、偏見が含まれている可能性があります。

人権の視点から見るAI

人権を中心としたAI倫理の十の核心原則

  1. 比例性と無害の原則
  • AIシステムの使用は正当な目的を達成するために必要な範囲を超えないものでなければならず、その使用による潜在的な危害を防ぐためのリスク評価を行う必要があります。
  1. 安全と保障
  • AI参加者は不要な危害(安全リスク)や脆弱性(安全保障リスク)を回避し、解決するべきです。
  1. プライバシーとデータ保護
  • AIの全ライフサイクルを通じて、プライバシーを保護し、促進する必要があります。適切なデータ保護フレームワークを確立する必要があります。
  1. 多利益関連者と適応的ガバナンスの協力
  • データを使用する際には国際法と国家主権を尊重し、多様な関連者の参加が包括的なAIガバナンスアプローチを実現するために重要です。
  1. 責任と義務
  • AIシステムは監査可能で追跡可能であるべきです。監視、影響評価、監査、デューディリジェンスのメカニズムを確立し、国際人権基準とのコンフリクトと環境福祉への脅威を回避するべきです。
  1. 透明性と説明責任
  • AIシステムの倫理的展開はその透明性と説明責任(T&E)に依存しています。T&Eのレベルは具体的な状況に応じて調整すべきであり、T&Eとプライバシー、安全保障などの他の原則の間の矛盾を解決する必要があります。
  1. 人間による監視と意思決定
  • 各国はAIシステムが人間の最終責任と義務を置き換えることがないようにするべきです。
  1. 持続可能性
  • AI技術が「持続可能性」に及ぼす影響を評価し、国連の持続可能な開発目標(SDGs)に含まれる目標を含む進化する一連の目標として理解すべきです。
  1. 意識とリテラシー
  • オープンでアクセス可能な教育、市民参加、デジタルスキルとAI倫理トレーニング、メディアと情報リテラシーを通じてAIとデータに関する公衆の理解を向上させるべきです。
  1. 公平性と非差別

    • AI参加者は社会正義、公平性、非差別を促進し、すべての個人がAIの利益を包摂的に享受できるようにするべきです。