見出し画像

AIと個人情報保護―イタリアの教訓「デジタル・ルネサンス」から何を学ぶかー

【イタリアが行ったChatGPT利用の暫定禁止。その理由には学ぶべきことが多い。禁止の背景にはデジタルをめぐる「ヒューマニズム」と「キャピタリズム」の対立がある】

宮下 紘(中央大学教授)

1.ChatGPTの暫定禁止が意味するもの―イタリアの教訓「デジタル・ルネサンス」

(1)ChatGPTの暫定禁止の理由

 2023年3月30日、イタリアデータ保護監督機関は、大規模言語モデルChatGPTの利用の暫定禁止を命じた。

 その理由は、生成AI(一定の条件の入力に対し機械学習に基づき文章等を生成できるソフトウェア)の個人データ処理の目的がEUの厳格な個人データ保護の一般データ保護規則(GDPR)に違反するというものである。

 報道では、大量の個人データ収集が認められないというものが散見されるが、その報道だけからはイタリアデータ保護監督機関の真意を伝達しているかは定かではない。AIと個人情報保護の主題は、単に個人データ処理の規模や方法の規制に閉ざされているわけではない。むしろイタリアのChatGPTの暫定禁止は、人間はデジタルにどう向かい合うべきかという問いを発しているとみるべきであろう。

 実際、イタリアのデータ保護監督機関は、①子どもの利用制限、②不正確な個人データ処理のほか、③ChatGPTの個人データ処理の法的根拠の三点を問題とした。

 子どもの学習環境の在り方を議論せずに生成AIを野放しにはできないこと、また不正確な個人データの出力は個人に誤った光を当てて不利益をもたらすことがある。これらの二つの理由は、EUの厳格な個人データ保護法制からすれば予想されえたことであるが、ChatGPTの暫定禁止の最大の理由はほかにあると考えられる。

(2)人間とデジタルの主従関係

 暫定禁止を導いた最大の理由となったのは、個人データ処理の法的根拠であり、その根拠とは AIのアルゴリズムの訓練目的である。この目的こそが繰り返し非難されてきた。すなわち、イタリアのデータ保護監督機関は、自社のアルゴリズムを改善させるために大量の個人データを出入力させる世界規模の実験を止めさせることに主眼があるようにみえる。

 だからこそ、暫定禁止を解除した2023年4月30日の決定には、「アルゴリズムの操練目的からオプトアウトする権利」の保障を条件付けている点に注目するべきである。

 利用者の入力データを実験台としてデジタルの改善を主目的とすることは、デジタルという目的のために人間を手段として用いていることとなり、ヨーロッパの個人情報保護における「人間の尊厳」という崇高な目的を傷つけることになるのである。

 したがって、イタリアにおいてChatGPTが暫定禁止された意味とは、人間をデジタルの道具とする、人間とデジタルとの主従関係の逆転こそが真の問題の所在であることを明るみに出したことである。

(3)「デジタル・ルネサンス」

 ChatGPTの回答を新たな「神」の声として受け入れることは、世界の中心を人間ではなく「神」とするルネサンス前に逆戻りすることになりかねない。とりわけルネサンスの系譜にあるイタリアにおいては、人間の精神と身体に肉迫し、人間の理性と意思の力によってデジタルの文化を築こうとする力学が働いているようにみられる。

 また、デジタル時代の憲法統制を企図する「デジタル立憲主義」という学術勢力がイタリアの研究者を中心にグローバルな展開を見せている(Giovanni De Gregorio, Digital Constitutionalism in Europe)。

 GDPRというEUの27か国の統一ルールが存在する中、他のデータ保護で従来必ずしも積極的ではなかったイタリアがその先陣を切って生成AIの規制に手を挙げたのは、デジタルをめぐる人間力の再興にその意図があったと読むべきであろう。

 ChatGPTが21世紀のグーテンベルクとなるかどうかは、ルネサンス期の発明のように人間の理性と知性に寄与できる道具・手段としての機能を備えることができるかにかかっている。

 かくして、イタリアは、ChatGPTの暫定禁止という試みを通じて、デジタルの核心に人間を据え置く「デジタル・ルネサンス」を唱道しているとみることができる。

2.デジタルをめぐる哲学―ヒューマニズムVSキャピタリズム

(1)デジタルをめぐるヒューマニズムとキャピタリズム

 このように理解すれば、イタリアにおいてChatGPTが暫定禁止された背景として、デジタルをめぐる「ヒューマニズム」と「キャピタリズム」の対立が存在することを認識する必要がある。

 すなわち、デジタルが普及する中にあっても人間の精神と身体に価値を置く「デジタル・ヒューマニズム」と、デジタルを経済的利益を生み出す機会と捉え個人データをマネタイズすることを至上命題とする「デジタル・キャピタリズム」が鋭く対立している。

 デジタルの操練を主たる目的として人間の知性や経験に係る情報を大量収集することは、「ヒューマニズム」よりも「キャピタリズム」を優先させることを意味する。

(2)キャピタリズムの見えざる手

 デジタル・キャピタリズムは、「見えざる手」を用いて個人データをマネタイズするビジネスを確立した。デジタル技術は、ひそかに強制力を用いることなく心地よく人間の精神に入り込み、操作できるようになった。

 ケンブリッジ・アナリティカ事件で明らかになったように、SNSの「いいね!」の履歴からイギリスのEU離脱やアメリカの大統領選挙における個人の投票行動への干渉が示された。デジタルの時代には、 AIが人の心理への訴えかけを通じて行動を操作しうるようになった。

 ソーシャルメディアでは、日常の中に埋もれる真実は退屈なストーリーとなり、過激で扇動的な非日常的言論である「フェイクニュース」のほうが人の注目を集める。人の注目をひくことで情報は拡散しやすい。

 オーウェルが比喩に用いた「真理省」のように、デジタルの世界における真実らしい存在の管理はアルゴリズムの設定しだいである。アルゴリズムが、クリック数と広告収入の増加というインセンティブに基づき設計されれば、真実よりも誤報が拡散するのは当然の帰結であろう。フェイクニュースは、真実のニュースよりも約6倍速く拡散されるというマサチューセッツ工科大学研究者による研究結果はその証左である(Soroush Vosoughi, Deb Roy & Sinan Aral ‘The Spread of True and False News Online’)。

 真実のストーリーにも変容はもたらされた。あるニュース記事をオンラインで読めば、おすすめのニュース記事が提示されるが、アルゴリズムは、自分の興味関心を引くおすすめニュース記事ばかりを目に映るようにさせる仕組みをより補強してしまっている。

 個人の価値観を固定化してしまうのみならず、このような読者が同種の記事のみを目にするという経験の再生産をさせることは、自らと共鳴できる意見や見解を持つ人々をバブルで包み込む、いわゆる「フィルター・バブル」に閉じ込めてしまうおそれがある。

 バブルに包み込まれている限りは心地よいが、バブルの外にいる人々との対話の可能性が狭められ、ときには意見の極性化、さらに分断や衝突を招きかねない。2021年のアメリカ連邦議会議事堂襲撃事件はその象徴であろう。

 また、人の経済状況を超えた社会生活における交友関係や生き方を点数化するソーシャル・スコアリングというサービスも一部の国ではみられる。デジタル社会における人間の生のスコアリングは人間疎外を招くことがある。

 AIがヒューマニズム思想に基づく人間を主演とする社会の構造にもたらすリスクはそれだけではない。デジタルへの帰依が人間の経験を再生産させることになり、人類の多様性が損なわれるおそれがあることを悟る必要がある。デジタルを通じた経済的利益のための心理搾取は、気づけば人間の精神と身体を静かに侵食し、ルネサンス期に発達したヒューマニズムを犠牲としてきた。

(3)GDPRとヒューマニズム

 そのような中、AI時代に個人情報をどのように保護するべきかの手掛かりとなる重要な一節がGDPRにはある。

 「個人データの処理は人類に寄与するよう設計されなければならない」(前文4項)。

 このようにGDPRには、デジタルは一つの手段や道具であって、各人の人格を発展させるために奉仕しなければならないとする、デジタル・ヒューマニズムの思想が埋め込まれている。

 もちろんヒューマニズムとキャピタリズムは常に二律背反の関係にあるわけではなく、両立可能な関係にある。デジタルに対して必要以上に警戒や狼狽するのではなく、人間として失ってはならない価値を今こそ確実に守ることが肝要である。

 デジタルの利便性をうまく利用すれば、効率性や生産性とともに人間性を追究していくことも可能である。大きな経済的利益をもたらしうるデジタルの中に、ヒューマニズムの思想をいかに埋め込んでいくかが問われている。

3.人間とAIの共生―日本への示唆

 2023年4月に開催されたG7デジタル大臣会合は、①法の支配、②適正手続、③民主主義、④人権尊重という基本原則を掲げ、AI 政策と規制が人間中心であることを確認した。

 すでに①~④の基本原則は、G7各国の間で共通認識であることから、責任あるAIの実現に向けて重要なのはこれらの基本原則に基づく「人間中心」の具体的規制を展開することである。

 では、ここでいう人間中心のAI規制とはどのようなものなのか。EUにおいてはすでにAI法案が2021年に公表され、新たに設置される欧州AI評議会が審査を行い、AIのリスクに応じ禁止・利用制限・透明性の確保という段階的な対応が示された(2023年5月に法案の最終合意に至った)。

 アメリカではバイデン政権が「AI権利章典の青写真」を公表し、アルゴリズムによる差別からの保護やデータプライバシーのほか、AI利用について知る権利・説明を求める権利が記載された。また、アメリカ連邦議会ではすでに複数のAI規制法案が提出されてきた。中国ではAIのセキュリティの事前審査制を義務付ける法案が準備されてきた。

 日本では、価値観を共有する米欧の法案内容と多くが重なり合う「人間中心のAI 社会原則」等の指針が示されているが、立法化はこれからの課題である。

 新たな技術に対する規制は、一見するとビジネスの足かせになるとみられがちであるが、健全な規制があるからこそ新たな技術への信頼が生まれ、経済成長につながる。むしろ規制の不存在はグレーゾーンを生み出し、革新への萎縮効果を生み出してしまう。

 日本は技術大国であり、その技術力を最大限に引き出すためにも、AIが人間の多様な生き方に寄与できるような規制の設計が必要である。イタリアの教訓から学び、産学官の共通基盤となるデジタル・ヒューマニズムの思想、より日本流に表現するならば、デジタルの世界における人間へのエチケットをいかに言語化し、デジタルへの信頼を醸成しうるか、そしてそれを法制化できるかが鍵となる。

 好むと好まざるとにかかわらず、私たちはAIと向き合っていかなければならない。AIの健全な利活用を促すためにも、保護するべき価値観を明確化しておけば、新たな技術が登場しても過剰・過小な規制を招くことはない。問題は、新たな技術ではなく、その技術を使う人間にあることを忘れてはならない。

<執筆者略歴>
宮下 紘(みやした・ひろし)
2007年一橋大学大学院法学研究科博士課程修了。
2007年内閣府事務官(個人情報保護推進室政策企画専門職)、2008年駿河大学法学部専任講師、2012年ハーバード大学ロースクール客員研究員、2013年中央大学総合政策学部准教授、2016年ブリュッセル自由大学ブリュッセルプライバシーハブ研究所と2018年にゲッティング大学法学部にて客員研究員を経て、2021年より中央大学総合政策学部教授、現在に至る。
著書に「ビッグデータの支配とプライバシー危機」(集英社新書・2017)、「プライバシーという権利―個人情報はなぜ守られるべきか」(岩波新書・2021)など。

(2023年5月15日脱稿)

この記事に関するご意見等は下記にお寄せ下さい。
chousa@tbs-mri.co.jp