1. パーソルクロステクノロジーのエンジニア派遣
  2. 求人検索
  3. ITエンジニア
  4. AI倫理とトロッコ問題とは?直面する課題と事例・企業や政府の取り組み

AI倫理とトロッコ問題とは?直面する課題と事例・企業や政府の取り組み

スマートフォンやスマートスピーカーなど、AI(人工知能)技術を用いたデバイスやサービスが広く浸透したいま、世界ではAIに対する、ある懸念が高まっています。それが「AI倫理」と呼ばれる問題です。

AIを健全に活用するために、またAIを開発する企業がより高い信頼を獲得するために、IT技術者が理解しておくべきAI倫理とはなにか? 事例を交えわかりやすく解説します。

 

 

AI倫理とは

そもそもAIとは「Artificial Intelligence(アーティフィシャル・インテリジェンス)」の略で、日本語では「人工知能」と呼ばれる技術です。AIはコンピューターを媒介し、人間の脳が処理している認識、思考、学習などを模倣し再現します。

なお、AIという言葉は、1956年のダートマス会議にて米国の計算機科学研究者のジョン・マッカーシー氏が初めて使用したといわれています。

以来、今日まで研究開発が進められており、近年では一般消費者が利用するデバイスやサービスにも広く活用されるようになりました。スマートフォンやスマートスピーカーをはじめ、検索エンジンの音声検索や小型の掃除ロボットなどにも用いられています。

このようにAIには大きな可能性が秘められている一方で、新たな技術であることからさまざまなリスクをはらんでいることも企業や技術者は理解しておく必要があります。

そのひとつが「AI倫理」と呼ばれる問題です。

AI倫理とは、AIが学習データの偏りや監視といった、人類にマイナスの影響を与えるような行動をしないよう定めた規範のことです。

AI倫理について議論がなされはじめたのは、2000年代以降のことです。AI技術の開発が進み、人間の知的能力を凌駕するようになったとき、AIが人類にとって脅威になるという説が関係者を中心にささやかれるようになりました。結果、AIを人間の制御下に置くための方策としてAI倫理の議論が盛んになったとされています。

また近年では、AI技術のひとつである「ディープラーニング(深層学習)」において、AIが判断に至る過程が不透明であることから、使用者側が気づかぬうちに問題を起こしてしまうのでは、という懸念も高まっています。

AI倫理において議論される課題

AI倫理において、主に議論されている課題には次の4つが挙げられます。

  • 責任の所在
  • バイアス・偏見
  • プライバシー・個人情報
  • AIの権利

AIがなにか問題を起こしたとき、その責任の所在について現状では明確化されていません。たとえば、自動運転システムを搭載した自動車が事故を起こした際の責任は運転者にあるのか、はたまたAIを開発した技術者なのか、あるいは車のメーカーなのかといった部分は曖昧なままになっています。

また、AIが導き出した分析や結果には、学習データの偏りによるバイアスや偏見が影響する可能性が否定できません。AIが取得したデータに個人情報が含まれている場合、プライバシーを侵害されているリスクも懸念されます。

一方で、AIに関する権利についても議論が進められています。実務で使用するアプリケーションにAIが組み込まれている場合、AIの権利はどこに立脚するのかが定まっていないために、将来的にはAI権利にまつわるトラブルが発生するのではと考えられています。

これらAI倫理にある大きな4つの課題について、個別に考察していきます。

責任の所在

AIがなにか問題や事故を起こした際、原因を明確にできないために、事故の責任の所在を明確化できないケースがあります。これは、AIアルゴリズムの複雑化により、AIが出力した結果の理由を説明できず、責任の明確化がより困難になっているためです。

なかでも近年では、自動運転システムの開発・普及にともなうリスクの拡大が懸念されています。世界的に開発が進む自動運転車においても、事故が発生したときの責任の所在は明らかにされていません。

責任の所在がわからなければ、AIを用いた商品やサービスを開発・提供しても、ユーザーからの信頼を得られないこともあるでしょう。この課題を解決するためには、学習データやアルゴリズムに透明性が求められますが、技術面・コスト面から実現が難しい現状があります。

バイアス・偏見

AIの学習モデルに用いるデータが人種や民族、性別などによる偏見の影響下にある場合、AIも偏りのある結果を出力してしまいます。実際に、人材採用に関するAIを開発した企業が、過去のデータをベースにしたことから、女性応募者に対して不当な判断を下していた例もあります。

AIの多くは、学習した内容を理解しているのではなく、学習パターンと合致する結果を出力しています。バイアスや偏見の入ったデータを学習に用いれば、それが結果に反映されてしまうのです。

プライバシー・個人情報

AIの学習データには、個人情報が含まれているケースがあります。一見すると個人情報とわからないデータでも、ほかの情報と照合することで個人を識別できるものもあり、プライバシーや個人情報保護の観点から情報収集の方法やデータの使途について議論がなされています。

Webサイトを定期的に巡回し、情報を取得・保存する「クローリング」や、AIを用いた監視カメラやセンサーはその代表例です。アプリから取得される位置情報やSNSのつながり、趣味などの個人情報によって、おすすめの商品などを提示するアルゴリズムについても同様です。

個人情報の取得を承諾していないのにもかかわらず、Webサイトから個人情報を収集したり、カメラやセンサーから取得されたデータの使途が不明瞭であったりすれば、多くの人はプライバシーや個人情報に不安を覚えるでしょう。

AIの権利

近年では、チャットボットやECサービスなどAI組込型アプリケーションが数多く開発・提供されていますが、AIの権利を守る法律が整備されていないという課題が残されています。

AIは主にAIベンダーをはじめとする企業が有しており、ユーザー企業はAIベンダーに開発を委託するなどして各種アプリケーションの開発を行っています。しかし、ユーザー企業側の法務部や弁護士がAI理論を理解できていないことがあり、権利関係のトラブルの発生が懸念されているのです。

特許権・著作権は人のみが有する権利です。よって、AIが創造したものに権利は発生しません。たとえば、AIが作曲した曲には著作権がありません。

しかし、人が作るものとAIが作るものの判別がつけられないために、AIが作曲したものを人が作曲したと偽ることもできてしまいます。この状態を放置すれば、さまざまな業種に影響を与えてしまうことになるでしょう。

AIによって引き起こされた倫理問題の事例

AI技術の活用が広がるなか、現代社会ではさまざまな倫理問題がすでに発生しています。

  • 自動運転システムに関する事例
  • AIによるクリエイティビティに関する事例
  • 顔認証システムに関する事例
  • 人材採用システムに関する事例

自動運転システムに関する事例

AI技術を用いた自動運転システムの開発が進められている昨今、自動運転車による交通事故の問題は国内外を問わず差し迫った脅威となっています。

過去には、自動運転車が衝突事故を起こし、運転車が死亡する大事故にも発展しています。この例では、システムが運転車にハンドルを握るよう警告を出していたにもかかわらず、ハンドルを握っていた記録がなかったことがわかっています。

自動運転車とはいえ、その自動運転レベルは車種などによって異なるため、運転者による操縦が必要な場面は多々あります。以降、自動運転車を開発・提供しているメーカーは、システムが発する警告に運転者が反応しなかった場合には自動運転機能を使用不可にするなどの仕様変更に取り組んでいます

トロッコ問題とは

自動運転自動車には、「トロッコ問題」という課題もあります。トロッコ問題とは、「ブレーキが壊れたトロッコが暴走したとして、進行方向の先にいる5人の人間と、進行方向を切り替えた場合の先にいる1人の人間、どちらのいる方向を選択するべきか」という問題です。

これは、「自動運転車はどのように事故を回避すべきか」という議論につながります。トロッコ問題には正解がありません。もし複数人がこのような問題に直面したとして、すべての人がまったく同じ回答を出すことは難しいでしょう。

トロッコ問題のように複雑かつ正解のない問題に直面したとき、AIがどのように判断するのかは人が設計することになります。AIを用いた自動運転車の安全性や信頼性を高めるために、企業は正解のない問題と向き合わなければならないこともあるのです。

AIによるクリエイティビティに関する事例

最近では、AIが高クオリティの画像を生成するようになり大きな話題となっています。なかでも注目されたのが、画像生成AI「Midjourney(ミッドジャーニー)」が生成した画像です。

イギリスの雑誌「The Economist」がMidjourneyの生成した画像を表紙に選んだほか、アメリカのコロラド州で開催されたアートコンテストにて、Midjourneyが生成した画像が優勝するなど高い評価を得ています。なお、本記事で使用している画像もすべてMidjourneyが生成したものです。

その一方で、AIの生成した画像には著作権がないことからトラブルに発展しうるとして議論を呼びました。また、「水害」というワードを指定してAIに画像を生成させSNSに投稿したところ、偽の水害画像によって混乱が生じたこともあります。このようにAIが高品質な画像を数多く生成することにより、情報の混乱が起こる可能性も指摘されているのです。

AIによる画像生成サービスが広く利用されつつあるいま、画像などに対する権利の明確化や、利用に関する法整備は急務といえます。サービスを提供する企業側も、ポリシーを策定するなどして対応する必要があるでしょう。

顔認証システムに関する事例

過去、Googleはインドおよびアメリカの眼科専門医と協力して、画像データを解析し糖尿病性網膜症を早期発見するAIモデルの開発に取り組んでいました。

しかし、取得した画像データの濫用や有害な結果を避けるために慎重に取り組む必要があるとして、汎用的な顔認識APIを提供しないことを公式ブログにて2018年に発表しています。

2021年には、国連人権高等弁務官が「人権に深刻な脅威をもたらすAI技術の一時使用停止」を国際社会に要求しました。顔認証技術は人種や性別で精度に差が出るとされており、人権を侵害する可能性があるとして懸念されています。

これらの問題を解決するためには、サービスを提供する企業が人権やプライバシーに配慮するルール作りを有識者とともに行うだけでなく、技術面でも対応できるよう開発を進める必要があります

人材採用システムに関する事例

就職情報サイトが学生の個人情報を利用したAIサービスを企業に提供し、学生の個人情報を不適切に利用したとして大きな問題に発展したケースもあります。

この企業向けのサービスでは、AIが分析した学生の就職活動に関する情報を提供しており、個人情報保護法の観点から問題のあるサービスとしてニュースや各種メディアに取り上げられました。

Webサイトの閲覧履歴を含む個人データは、収集の際に利用目的を示す必要があるにも関わらず、就職情報サイトを利用する学生のすべてから同意を得ているわけではありませんでした。また、職業安定法でも、求人サイトは個人情報を本来の目的以外に使う場合は本人の同意を得なければいけないと定めています。

このようなサービスは、職業差別につながることが懸念されています。AIの分析結果にバイアスや偏見が含まれていれば、合格者の性別や国籍が偏る可能性があるためです。AI技術を用いたサービスを提供する企業は、各種法律と照らし合わせて問題のないサービスかを検証する必要に迫られます。

AI倫理を議論するべき理由

AI技術においては、「シンギュラリティ(技術的特異点)」「2045年問題」と呼ばれる概念が存在しています。これまで人間が開発してきたAIが、ある時点から自ら学ぶ性質を持ち成長し、人間の想像を超える知能を持つことを問題視するものです。

AIが人間の知能を超え自ら学ぶようになったとき、倫理のない状況では悪意なく社会に負の影響をもたらしてしまうことがあります。これを避けるには、開発段階から倫理に基づく設計を行う必要があります。AI倫理について世界的に深く議論し、早急に方針を定めなければなりません。

AI倫理の問題に対する取り組み

AI倫理問題は、国や企業が取り組みを進めている段階に位置します。

  • 国際社会や日本政府におけるAI倫理に対する取り組み
  • 一般企業におけるAI倫理に対する取り組み

具体的にどのような取り組みが行われているのか、各国の状況や企業の取り組み内容を紹介します。

国際社会や日本政府におけるAI倫理に対する取り組み

2019年3月、日本では「人間中心のAI社会原則」を公表し、AIの開発・運用を行う事業者が遵守すべき内容が示されました。

AI社会原則は次の7つの原則から構成されています。

  • 人間中心の原則
  • 教育・リテラシーの原則
  • プライバシー確保の原則
  • セキュリティ確保の原則
  • 公正競争確保の原則
  • 公平性、説明責任及び透明性の原則
  • イノベーションの原則

また、この原則を実践するための企業ガバナンス・ガイドライン(AIガバナンス・ガイドライン)では、AI事業者が実施すべき行動目標を提示するとともに、実務的な対応例も例示しています。ただし、人間中心のAI社会原則とAIガバナンス・ガイドラインには法的拘束力がありません。

その他、諸外国では次のような取り組みが行われています。

アメリカでは、2019年2月に「人工知能における米国のリーダーシップ維持のための大統領命令」に署名がなされ、2020年2月には米国標準技術局が同大統領令に基づいた「AIにおける米国のリーダーシップ~技術規格・関連ツール策定における連邦政府関与に関する計画~」を発表しています。

米国標準技術局が作成した計画書では、AIシステムの信頼性に関する重点的研究の促進や官民パートナーシップの支援・拡大、国際機関との協力などについて提案されています。

欧州委員会は、「信頼できるAIのための倫理ガイドライン」を2018年4月に公表しました。これは52名の専門家グループにより作成されたもので、同ガイドラインでは信頼できるAIは「合法的」「倫理的」「頑健」であるべきとして、基本的人権に基づき尊重すべき4つの倫理原則と7つの要求条件を掲げています。また、それらを評価するためのチェックリストも列挙されています。

一般企業におけるAI倫理に対する取り組み

一般企業においても、AI倫理に対する取り組みが着々と進められています。

OKIグループでは、「OKIグループAI原則」を2019年9月に策定し公表しています。同原則に基づき、OKIグループではガイドラインの策定に加え、AIリテラシー教育やAI利活用時のリスクについて議論するワークショップを開催し、全従業員を対象とした教育を進めています。

Microsoftでは、「AIはすべての人の利益のために、人の信頼のもとに開発・利用されるべき」とし、AIの責任ある開発と利用を行うための6項目からなる基本原則を2018年に定めました。また、基本原則を具体的要件に落とし込んだ「Responsible AIスタンダード」を定め、AIの開発・利用時に基本原則が実践されることを担保しています。

AI技術の発展によって、産業や生活は大きく変わりました。便利な技術である一方、AIがさらに高度な知能を持つに至ったときに人間はどう対応すべきなのか、どのように活用すべきなのかという根幹部分に関しては議論の途中という現状があります

AI倫理については今後さらに深い議論がなされていくでしょう。AIモデルの開発に携わるエンジニアは、AI倫理の動向に注視しつつ、社会にとってよりよいサービスの開発に取り組む必要に迫られます。

まとめ
  • AI倫理とは、AIが学習データの偏りや監視といった、人類にマイナスの影響を与えるような行動をしないよう定めた規範のこと
  • AI技術開発が進み、人間の知的能力を凌駕するようになる「シンギュラリティ」「2045年問題」を前に、AIを人間の制御下に置くための方策としてAI倫理の議論が盛んになっている
  • 「責任の所在の明確化」「学習データに含まれるバイアス・偏見の影響」「個人情報の取り扱い」「AIの権利問題」など、k顕在化しているさまざまな課題が国内外で議論されている
  • 自動運転システムや画像生成AIなど、AIに関連する倫理問題はすでに発生している
  • AIエンジニアは、AI倫理の動向を注視し、サービスの開発に取り組む必要に迫られている

 

 

\ SNSでシェアしよう! /

【はたラボ】派遣のニュース・仕事情報・業界イロハ|派遣会社・人材派遣求人ならパーソルクロステクノロジー |IT・Web・機電の派遣求人ならパーソルクロステクノロジーのエンジニア派遣の 注目記事を受け取ろう

この記事が気に入ったら
いいね!しよう

【はたラボ】派遣のニュース・仕事情報・業界イロハ|派遣会社・人材派遣求人ならパーソルクロステクノロジー |IT・Web・機電の派遣求人ならパーソルクロステクノロジーのエンジニア派遣の人気記事をお届けします。

関連記事

  • Siriの起源となった人工知能(AI)最初の「イライザ」とは

  • Googleが独占禁止法違反で提訴されたのはなぜ?反トラスト法違反の疑いとは

  • 自動運転のレベル分けとは|レベル0~5までの定義と車種一覧

  • パスワードレス認証とは|安全性を担保する仕組みと導入メリット

  • シンギュラリティとは?技術的特異点がもたらす2045年問題を解説

  • AIエンジニアとは|仕事内容やなるために必要なスキル・資格を解説

PAGE TOP