AIと倫理

 近時のAIブームについては言わずもがなですが、それと同時に、「AIが暴走したらどうなる」「AIが人間性を奪うのではないか」という警戒感も人々の中で高まっています。例えば、イーロン・マスク氏は、「AIが人類を滅亡させる」と警告しています。

 その真偽はともかくとして、AIの本格的な実用化に伴い、その悪影響も懸念されるため、各国の政府や団体において、2016年頃から2019年頃にかけて、AIの倫理に関する原則が相次いで作成・公表されています。

 最近は、AIの倫理原則・ガイドラインの作成ブームは落ち着いているようにみえますが、AIの実用化が進むと、AI開発者はサービス提供者は、「AIの倫理」という問題に直面することは避けることはできないでしょう。もっとも、「倫理」は曖昧で難しい側面があります。そのため、現時点からこの問題について少なくとも「考え方のフレームワーク」を準備しておくことが必要と思われます。

AI倫理原則の世界的動向

 AIに関する倫理原則・ガイドラインは、日本を含め世界各国から公表されています。

(1)日本の動向

 日本における主なAI倫理原則・ガイドラインは次のとおりです。

 人工知能学会の「人工知能学会倫理指針」と総務省の「国際的な議論のためのAI開発ガイドライン案」はどちらかというと、開発者向けの倫理原則といえます。

 内閣府の「人間中心のAI社会原則」は社会との関係での倫理原則を示したもので、社会全体を名宛人としており、例えば人材育成について取り上げるなどカバーする範囲も広く、抽象度の高いものになっています。

 総務省の「AI利活用に関する原則」は、開発者・サービス提供者・利用者などを対象としており、原則ごとに対象者を細かく書き分けています。

 政府の原則の関係は次の図のとおりとされています。 

「人間中心のAI社会原則」より

(2)世界の動向

 外国における主なAI倫理原則・ガイドラインは次のとおりです。

 これらの原則の概要については、総務省の「AI利活用に関する原則」と同時に公表されている「AIネットワーク社会推進会議 報告書2019」(7〜20頁)に記載されています。

AIの倫理原則の概要

  各国の倫理原則は、その具体的内容は異なりますが、共通して以下の項目があります。

  1. 人間の尊重
  2. 多様性・包摂性の確保
  3. サステナビリティ
  4. 安全性・セキュリティ
  5. プライバシーの尊重
  6. 公平性
  7. 透明性
  8. アカウンタビリティ

 これらは、ごもっとも、という感じですが、実務への具体的な適用についてまでの指針は示されていません。また、各国の倫理原則でも、具体的事例に応じたケース・バイ・ケースの判断である、といった記載は多く見られるところです。倫理については、価値観が多様化している現代社会においては、広く一般化できる原則を見出すのは困難なので、そのような記載になってしまうのもやむを得ないかもしれません。

 各国の倫理原則は、検討すべき観点についての指針にはなりますが、実際にAIの開発・利用にあたる者としては、製品・サービスが社会に受け入れられる(あるいは批判されない)ために、倫理面について具体的に検討することは必須です。

 特に、基本的人権にかかわるもの(例えば差別)や生命・身体の保護が、まずは重点的に検討すべき事項になるでしょう。

 なお、古川直裕先生の「機械学習システムの法務・コンプライアンスリスク(上)〜(下)」(NBL1146、1149、1150)では、機械学習システムについては、①誤謬問題、②ブラックボックス問題、③バイアス問題、④データ汚染問題、⑤データ保護問題、⑥悪用問題、⑦希薄化問題があると指摘しています。これは、原則から分析するのではなく、AI開発・利用で生じる問題点という観点から分析したものですが、このような問題状況ごとの分析も有益だと思います。

 ちなみに、EU の「Ethics Guidelines For Trustworthy AI」の第3章には詳細なチェックリストがありますので、参考になります。項目数は数えていませんが100以上あると思います。もっとも、ケースバイケースであり、すべての項目がそのまま使えるものではありません。ご参考のために、原文とクロームでの機械翻訳を別ページにアップしておきました。    https://aidatalaw.sakura.ne.jp/wp/?p=468&preview=true をご覧ください。

 

タイトルとURLをコピーしました