見出し画像

AIをとりまく問題 

【AIをめぐっては多くの論点が存在する。たとえば企業等の採用人事にAIを用いた場合、どのような問題点が考えられるだろうか】

平野 晋(中央大学国際情報学部教授)

はじめに ―AIによる差別的な予測・勧告・判断のおそれ―

 AIのアルゴリズムと、これに用いるデータの利用については、様々な問題が指摘されてきた。近年特に指摘されている問題が、差別的予測・勧告recommendation・判断のおそれである。たとえばアフリカ系アメリカ人の女性の顔を、画像認識AIが「ゴリラ」であると誤認・分類した事例は悪名高い。

 更に、刑事被告人の量刑判断の際にAIを利用すると、アフリカ系アメリカ人の方が白人よりも再犯率が高いと予測する。これは差別的であるとして、アメリカの人権団体が問題視している。人事採用活動にAIを利用することについても、某IT系超大手通販会社が、AIを用いた採用活動をしたところ男性優位な判断をすることが判明し、同社はAIの使用を中止したというニュースも有名である。

採用人事とAI利用の問題

 AI利用のメリットの一つは、効率性である。たとえば収穫したキュウリが、市場に出荷するのに適切な形と大きさであるか否かを選別する作業は、ヒトが行うよりも深層学習を用いたAIの方がずっと効率的である。

 ヒトは疲れるから休み休み選別作業を行わねばならないし、休みをとっても誤謬をおかす。他方AIは疲れを知らないし、機械的な選別作業に於いては誤謬も[ほぼ]おかさないであろう。だからキュウリの選別作業は、ヒトが行うよりもAIに任せるべきである。

 しかし企業等の採用人事については、AI任せにすることが社会的に受け入れられないのではないか。例えば、AIがこれほど社会に広まる前の、採用人事をヒトが行っていた時代には、たとえ応募者が不採用になっても、なぜ不採用なのかの理由を尋ねるようなことはめったに生じなかったであろう。

 しかし、例えばもし、AIが不採用であると判断したからという理由で不採用になったとしたら、なぜAIは不採用であると判断したのかと、その理由を問いたくなるのが心情ではないか。しかし、ヒトが不採用を判断したにせよ、AIが判断したにせよ、とにかく結果は不採用なのだから、理由を尋ねても所詮はせんないことである。

 それにも拘わらず、やはりAIに判断された場合には理由を問いたくなるというのも不思議な話である。しかしAIが不採用だと判断したから不採用なのです、という説明だけでは、応募者は納得できないであろう。それは不条理又は理不尽という、カフカの小説『審判』のような体験である ———なぜ自分が裁かれなければならないのかの説明なしに訴追され、有罪になり、かつ死刑を執行される主人公「K(ケイ)」のような気持ちにさえなってしまうのではあるまいか――― 。

AI面接と、非人間的な「ベースライン・テスト」

 就活に於いて、AIが不採用と判断した理由については尋ねたくなると、なぜ応募者は思うのであろうか。その理由の一つはおそらく、応募者の人生を左右する判断を人間が下したのではなく、機械によって下されたという事実が、腑に落ちない感情を応募者に抱かせるのかもしれない。機械が人生を決めるという行為は、文字通り〈非人間的〉 ―――人間が決めていないから〈非〉人間的なのである――― から、納得できないのではあるまいか。

 ところで最近、日本では、応募者との面接を採用企業側のヒトが行うのではなく、AIが代行する「AI面接」を使う会社が複数存在するという。質問事項への応募者の回答内容や、面接時の表情・返答等から、応募者の資質をAIが評価するのである。

 機械がヒトを評価するという、文字通り非人間的な活動が、もはやSF的な物語ではなく、〈応募者〉という生身の人間の、実際の人生を左右する時代が現実のものとなったのである。その在り様から映画「ブレードランナー2049」に於いてライアン・ゴズリン演じるレプリカントの主人公「K」の悲劇を思い起こさずにはいられない。

 作品中Kは「ネクサス9型」と呼ばれる、遺伝子工学によって造られた人造人間(これを「レプリカント」という)として登場する。彼の職業はロサンゼルス市警察の職員であり、人間に対して反抗的な旧型のレプリカントを「解任させる」(”retired”)こと ――「抹殺する」という意味―― を仕事にしている。

 Kが捜査から署に帰還すると、人間に対して反抗的になるレプリカントの兆候を発見する為の「ベースライン・テスト」と呼ばれる機械との面接を受けなければならない。その面接に於いて機械は、ウラジミール・ナボコフ作の『青白い炎』に載っている難解な詩を挑発的に読み上げた上で、その一節を何度も繰り返す。それをKは、遺漏なく復唱せねばならないのである。”within cells interlinked”(部屋の中で連結した), “within cells interlinked,” “within cells interlinked”と繰り返すのだ。その復唱する際のKの感情から、機械が異変を感じ取ると、人間に対する反抗のおそれがあると評価されて、その結果「解任させ」られることになっている。

 面接室は狭く艶消しの白一色で統一され、S.キューブリック監督作品のような無機質な感じを観る者に与える。人間のぬくもりも温かさも一切排除されていて、ナボコフの詩を読み上げる機械の発声も(挑発的ではあるものの)やはり無機質である。筆者にはその無機質さが、非人間性の象徴に思えてならない。そういえば主人公の名前「K」は、理不尽な刑罰を受けるカフカの『審判』の主人公と同一であり、不条理の象徴でもある。

 ところで現代のAI面接は、応募者の質問に対する応答・表情等から、その資質を評価する。機械が下すその評価は、血の通った応募者の人生にとって非常に重大な進路を左右する。不採用になった場合、果たしてその理由が、応募者の納得のゆくように説明されるであろうか。

 そもそも数多くあるAIの諸問題の一つには、「ブラックボックス問題」と呼ばれる不透明性が挙げられている。ある予測・勧告・判断をAIが下した理由が、説明できず透明性に欠けるという問題が、AIの不透明性である。そのような、理由を上手く説明できない不透明な予測・勧告・判断によって応募者の人生が左右されるという事態は、どうみても理不尽であり、Kが経験する不条理で非人間的な体験ではあるまいか。

ELSI(エルシー)の必要性

 AIによって不採用という判断が下されると、なぜ不採用なのかと尋ねたくさせる理由をもう一つ挙げるならば、AIがヒトと同程度の〈信頼〉を勝ち得ていないことにあると思われる。

 欧米では、AIが社会に受け入れられる為には、「信頼に値するAI」(trustworthy AI)でなければならない、としばしば指摘されている。〈裸のAI〉では社会に受容されないのである。

 日本でも、例えば筆者が参加している内閣府の有識者会議の名称が「人間中心のAI社会原則会議」となっている点も、欧米とほぼ同じ価値観の現れである ―――人間がAIに使われたり、AIの為に不幸になってはいけない。AIはあくまでも人間の為の〈道具〉なのである――― そのような価値観が、「人間中心の」という修飾語句に現れているのである。

 そしてAIが、「信頼に値する」や「人間中心の」という条件を満たす為には、「ELSI」と呼ばれる、AIの「倫理的・法的・社会的な影響:Ethical, Legal, and Social Implications」を配慮しなければならない、と世界的にいわれている。人事採用活動にAIを利用する際にも、その倫理的影響、法的影響、及び社会的影響も考慮に入れることが求められているのである。

ヒトによるチェックは単なる最低条件

 総務省で筆者が座長を務める有識者会議がまとめた報告書に於いても、ヒトの判断を介入させるべき場合の候補としては、ヒトの人生に影響を与えるような判断や、権利にかかわる事柄の判断等が挙げられている。

 それゆえであろうか、最近、企業の採用人事に於いて実装されはじめたAIの利用に於いても、AI任せにせずに、ヒトが[最終的には]判断するという手続をとったり、AIの判断は参考情報に過ぎず最後はヒトが判断するという姿勢をとる例が多いように見受けられる。

 これは、不採用になった応募者に対しては、機械が決めたのではないというエクスキューズになる。尤も、AI任せにしてはいないという〈言い訳〉(pretext)だけの為に表見上ヒトの判断を加えているように見える形式をとっているだけならば、やはり問題であろう。

 そして、ヒトによる判断は最低条件であっても、それだけでは十分ではない。そもそもアルゴリズムが公正・適正であること、及び使用されるデータも公正・適正であることも、要求されるのである。なぜならアルゴリズム又はデータが公正・適正でなければ、そのAIが下す予測・勧告・判断も不公正・不適切になってしまうからである。

 たとえヒトが最終判断を下すにしても、不公正・不適切なAIの予測・勧告・判断を参考情報として利用すれば、ヒトの最終判断も悪影響を受けてしまう。だからヒトによる判断を加えるだけでは十分ではなく、アルゴリズム及びデータの公正・適正も求められるのである。

 前掲の、アメリカにおける再犯率予測AIの事例も、最終判断は裁判官が下していて、AIの予測は参考情報にすぎない。それでも差別や人権上の問題が指摘されている。なぜならたとえ参考情報であっても、裁判官の判断への影響が皆無ではないからである。同じように、人事採用判断の際に参考情報として参照されるAIの予測・勧告・判断も、ヒトが下す最終判断に影響がないとはいえないはずである。

 したがって、人事採用に於いてAIを利用する際には、ヒトの判断を介在させることは当然として、そのヒトによる判断の参考情報とされるAIの予測・勧告・判断も偏見や差別がないように、アルゴリズムとデータの双方において公正・適正な手続が実施されなければならない。

 そのように、アルゴリズムとデータの双方においても公正・適正な手続がとられている事実が公表され、説明されてこそ、AIの利用は信頼され、非人間的ではない〈人間中心のAI〉という価値観が国民にも共有されて、その利用も受容されることとなろう。

「透明性と説明可能性」 ―OECD AI原則―

 日本も加盟国である〈経済協力開発機構〉(OECD)は、その理事会勧告として、「OECD AI原則」を2019年5月に公表している。その採用を主導したのは、実は日本であったので、AIを利用する日本の企業や諸機関がこれに不適合なAIの利用を行えば、世界に恥をさらす行為となる。

 そしてOECD AI原則の1.3条は、AIシステムによって不利益を被った人が、予測・勧告・判断の基礎となった要素(データ)と論理(アルゴリズム)に関する平易で分かり易い情報に基づいて異議を唱えることが出来るように、AIシステムのライフサイクルに於いて能動的な役割を果たす者が意味のある情報を提供すべきである、と規定している。

 ここで疑問なのは、人事採用活動に於いてAIを利用する日本企業は、上のルールを順守しているであろうかという疑問である。AI面接等々の採用活動に於いてAIを利用する以上は、OECD AI原則が求める応募者への情報提供も同時に行わなければ、国民の信頼のみならず世界の支持をも失うおそれがある。

<執筆者略歴>
平野 晋(ひらの・すすむ)
中央大学国際情報学部教授、学部長
1984年、中央大学法学部卒業
1990年、コーネル大学(法科)大学院修了(法学修士)
2004年、中央大学総合政策学部教授
2016年10月より総務省「AIネットワーク社会推進会議・開発原則分科会」分科会長、2018年11月より同「AIガバナンス検討会」座長
2018年4月より内閣府「人間中心のAI社会原則検討会議」(2019年2月から「人間中心のAI社会原則会議」に名称変更)
2019年4月より現職
2021年より中央大学ELSIセンター運営委員

この記事に関するご意見等は下記にお寄せ下さい。
chousa@tbs-mri.co.jp