AIの開発・利用におけるアカウンタビリティ

アカウンタビリティとは何か

各国のAIの倫理原則を見ると、AIの開発・利用において「アカウンタビリティ」を確保すべし、という原則が入っていることが多いです。例えば、「人間中心のAI社会原則」では、

「AI-Ready な社会」においては、AI の利用によって、人々が、その人の持つ背景によって不当な差別を受けたり、人間の尊厳に照らして不当な扱いを受けたりすることがないように、公平性及び透明性のある意思決定とその結果に対する説明責任(アカウンタビリティ)が適切に確保されると共に、技術に対する信頼性(Trust)が担保される必要がある。

との記載があります。

アカウンタビリティ」という言葉はよく聞きますが、我ながら、本当に分かっているのかと疑問に思っていました。

というのは、「人間中心のAI社会原則」の検討会で、慶應大学の大屋雄裕先生が「アカウンタビリティを説明責任と訳するのは過ちである。アカウンタビリティとは、『説明せよ、説明できなければ償え』という意味である」というようなことを仰ったことが強く記憶に残っているからです。

上記は意訳で、正確には、大屋先生は次のように仰っています。少々長くなりますが引用します。

一つは、アカウンタビリティを「説明責任」と理解する場合には、そこで求められているの
は意味関係に関する描写であり、因果関係に関する描写ではないということです。典型的な区の別の例を挙げますと、「彼は歩道の脇に寄って近寄ってくる車に向けて手を上げた」というのが因果関係の描写であり、「彼はタクシーをとめた」というのが意味関係の描写です。基本的にアカウンタビリティが問題になる局面で我々が求めているのは後者、つまり、理由とか意味をめぐる描写なので、これを例えばAIがいかに提供し得るというところが問題になる。因果関係のプロセスとしては解明可能であるというのは、丸山構成員がご指摘になったことで、そのとおりだと思いますが、それを超えた何かを我々は求めている、というのが1つ目です。
もう一つは、さらに、その理由は、正当なものであることが含意されています。つまり、例えば裁判官のアカウンタビリティといったときに、「何でこの判決出したんですか」と聞いたら「機嫌が悪かったんです」と答えてもアカウンタビリティを果たしたことにはならないわけです。How ではなくて Why の問いに答えること、その Why の内容が正当なものとして認められることがアカウンタビリティの要求であるというのが2つ目の話です。
3つ目は、ところで、そのアカウンタビリティを「説明責任」と訳すのはまずい、と我々の業界では昔からずっと言っているのではありますが、これは日本語が貧困なので仕方がないのです。つまり、ここは本当に致命的なのですが、「責任」という言葉は欧米にはありません。
日本語では欧米にある多様な概念を全て「責任」の一語に落とし込んでしまったので、理解できなくなっているのです。アカウンタビリティについて言うと、説明をするというのは1つ目の局面です。もう一つの局面は、正当な理由であるところの「説明」が与えられなければ償えというのがアカウンタビリティです。ですから、きちんと説明をするか金を払うようにしとけ、というのがアカウンタビリティの典型的な方策である。
もちろん、償えと言ったときに、その償いが何であるのか、償いとして適切なものは何であるのかという問題があり、それをAIが提供することができるのかというのが次の論点になるわけであって、例えば生命損害に関するアカウンタビリティというのはかなり厳しい要求になる。一方で、例えば金銭についてAIが償えるようになるかといえば、それはなるでしょう、恐らく。例えば法人にしてしまえばいい。あるいは、事業会社が十分な基金を積めばいいということになるわけですから、このあたりにゴーサインのありかはあるだろうというようなことが、アカウンタビリティを分析することによって出てきます。

第3回人間中心のAI社会原則検討会議議事録より

これを聞いて、アカウンタビリティとは、我々が通常用いたり、マスコミが使っている「説明責任」とは違うのではないかと思ったのでした。

「説明責任」といえば、最近の例では、河井議員夫妻が、選挙運動員に対し公職選挙法の規定を上回る日当を支払っていた疑いに対して、本人たちが「説明責任を果たす」と述べたが、2人とも国会を欠席し続けた上、2カ月以上も公の場に姿を現さなかったことに対して、マスコミから説明責任を果たしていないといった批判があったことを思い起こします。

この文脈での「説明責任」とは、「説明する責任」というだけであり、それ以外の意味は含意されておらず、アカウンタビリティの重要な概念のもう一つの柱である「「説明」が与えられなければ償え」というコンセプトが抜け落ちているように思われるからです。

しかし、「人間中心のAI社会原則」が奇しくも「説明責任(アカウンタビリティ)」と表現しているように、日本においては、説明責任とアカウンタビリティが明確に区別されずに使われているように思います。Wikipedia 日本語版でも、「説明責任(せつめいせきにん、アカウンタビリティー英語: accountability)」とあり両者は明確に区別されていません。

このように、日本においては、アカウンタビリティの概念について混乱、あるいは正確な理解がされていないようにも思ったのです。

AIの開発・利用に際して、多くの倫理原則が「アカウンタビリティ」を求めていることから、AIの開発者・利用者は「アカウンタビリティ」を果たすために何をすれば良いのか考えることになりますが、その概念に混乱があると、開発者・利用者として何をすべきかわからないということになりかねません。

説明責任とは

説明責任については、井之上喬著「『説明責任』とは何か」(PHP新書)という書籍があります。

そこでは、アカウンタビリティについては、もともと会計用語であり、政府その他の公共機関が納税者である国民に対して、会計上の公金の使用説明をするという思想から生まれた考え方であり、そこから、株主が出資した資金の運用、使途について説明する場合にも使われるようになり、説明を求める主体が次第に拡大されたと解説されています(34 -35頁)。

そして、説明責任については、東大の講義録を引用し、「『説明責任を果たす』とは、その事柄について理解しようとする者に対し十分な情報を提供し、理解してもらうことである」という定義を紹介しています。

もっとも、同書も、アカウンタビリティが、いろいろな変遷をたどって、説明責任という用語になったと述べ、その意味の違いには意識的ではないようです。

なお、説明責任において、「相手が理解すること」まで求めるかは一つの論点と思います。独りよがりの説明であってはならない反面、AIのアルゴリズムなど専門性が高い事項は、一般人に理解することは難しいと思われるからです。「一般人基準で理解してもらうように努力する」くらいが妥当なのではないかと思います。

AI倫理原則におけるアカウンタビリティ

日本の「AI利活用ガイドライン」

日本の AI倫理原則の一つである「AI利活用ガイドライン」では、アカウンタビリティについて、①アカウンタビリティを果たす努力、②AIに関する利用方針の通知・公表を挙げています。

そして、①アカウンタビリティを果たす努力については、利用するAIの性質・目的等に照らして、有する知識や能力の多寡に応じて、AIの特性について、消費者的利用者等に対して情報提供と説明することや、多様なステークホルダとの対話を行なうなどにより、相当のアカウンタビリティを果たすように努めることが期待されるとしています。

②AIに関する利用方針の通知・公表については、消費者的利用者等がAIの利活用について適切に認識できるように、AIに関する利用方針を作成・公表し、問い合わせがあった場合には通知を行い、特に消費者的利用者等の権利・利益に重大な影響を及ぼす可能性がある場合には積極的に通知を行なうことが期待されるとしています。

このように、このガイドラインでは、「責任を取る」という要素は含まれていません。

欧州の「信頼できるAIのための倫理ガイドライン」

欧州委員会から選定されたAIハイレベル専門家グループから「Ethics Guidelines For Trustworthy AI」(2019年4月)(以下「信頼できるAIのための倫理ガイドライン」)では、アカウンタビリティとして、①監査可能性、②悪影響の最小化と報告、③適切なトレードオフ、④適切な是正が挙げられています。

①監査可能性とは、アルゴリズム、データと設計の過程についての評価を可能にすることであり、AIに関するビジネスモデルや知的財産に関する情報開示が必ずしも求められるものではないとされています。

②悪影響の最小化と報告については、AIの出力を導いた行動・判断について報告し、結果に対して対応できなければならず、AIの潜在的な悪影響を特定・評価・文書化・最小化することが重要であり、AIに関してもっともな懸念を報告をする場合には、内部告発者、NGO、労働組合は適切に保護されなければならないとしています。

③トレードオフについては、アカウンタビリティを果たす際にトレードオフがある場合には、トレードオフに関する判断は、根拠を有し、適切に文書化されなければならないとされています。

④是正については、悪影響が発生した場合には、適切な是正がされることができるアクセス可能なメカニズムが想定されなければならないとされています。

このように、欧州のAI倫理原則の一つにおけるアカウンタビリティでも、「責任を取る」という要素は見当たりません。これを見ると、欧州でも「アカウンタビリティ」という概念から責任を取るという要素は無くなってきているのかもしれません。

もっとも、日本と異なる点として、
・記録化(文書化)が強調されている
・内部告発が枠組みに取り込まれている
・是正措置についても言及されている
が挙げられており、アカウンタビリティが、単に「説明する」というだけに止まらないことを示唆しています。

最近、政府の記録の改竄や破棄などが話題にもなっていますが、説明責任と文書化・記録化が一体のコンセプトであることは、今後、日本でも理解が進むのではないかと思います。

どこまで説明すればよいのか

AI開発者として気になる「どこまで説明すればアカウンタビリティを果たしたことになるのか」については、上記の2つの原則とも、画一的な基準を設けておらず、例えば、「AI利活用ガイドライン」では、「利用するAIの性質・目的等に照らして、有する知識や能力の多寡に応じて」とあるように、状況に応じた柔軟な対応を許容しています。

まとめ

以上、AIに関連して、アカウンタビリティと説明責任という概念について考えてみましたが、日本では説明責任という用語が定着してるので、「アカウンタビリティ」という用語を、相手にその意味内容を正確に理解してもらった上で利用するのは難しいように思います。「アカウンタビリティ」という用語を使うときにはかなり気をつけないといけないなのではないでしょうか。

タイトルとURLをコピーしました