見出し画像

対話型AIに対する脅威:AI社会におけるメディアの社会的役割

【生成AIの「悪用」にはどのようなものと危険性があり、どのような対策、ルールを考えていくべきか、さらにメディアとしてこの問題をどう捉え、伝えるべきか】

高橋 利枝(早稲田大学教授)


生成AIがもたらす新たなチャンスとリスク

 ChatGPT をはじめとする「生成AI」が私たちの社会に今、大きな変革を引き起こしている。ChatGPTはまるで忠実な秘書か家庭教師のように、丁寧な言葉遣いで質問に答えてくれる。OpenAIによって2022年11月30日に公開されてから2ヶ月後の2023年1月、ChatGPTは1億ユーザーに到達した。これは最速の記録であり、世界中に大きな衝撃を与えた。このような対話型AIの出現は、産業革命以降、インターネットの出現にも匹敵するほどの大きな社会変容をもたらすと言われている。

 しかしながら、いかなる科学技術も諸刃の剣であるように、生成AIもまた新たなチャンスとともにリスクをもたらす。生成AIがもたらす新たなチャンスとしては、仕事の効率化や労働力不足の解消、新薬や治療法の開発によるイノベーションの創出、自己実現などがあげられる。

 その一方で、機密情報や個人情報の漏洩、誤情報や偽情報による社会不安、著作権侵害、失業問題、大衆操作、過度の依存、アイデンティティの喪失など、新たなリスクをもたらすことも考えられる。

 本稿ではまず、ChatGPTを例にとって、特にメディアの送り手が気をつけるべきリスクとその対策について述べる。次に、西欧と日本におけるAIナラティブの差異と、規制やルールづくりに関する国際的な動向について簡単に触れる。さらにAIがもたらす最大のリスクの一つである失業問題について、次世代を担うZ世代に行った国際プロジェクトから知見を紹介する。最後に人を幸せにするAI社会を創造するために、メディアの果たすべき重要な社会的役割について述べる。

生成AIがもたらすリスクと対策

 生成AIがもたらすリスクの中でも、特にメディアの送り手が気をつけなければならないリスクは、情報のアクセスと正確性に関するものであろう。

 生成AIの技術的な特性がもたらすリスクとしては、ChatGPTが提示する結果が誤情報となる可能性があげられる。ChatGPTが用いている大規模言語モデル(LLM)では、同じ質問を用いても結果が毎回同じにならないような設計になっており、またディープラーニングでは判断の根拠や過程がわからないため、AIが提示した情報の真偽を確かめることはできない。

 そのため、人間によるファクトチェックを必ず行う必要がある。ただ、ChatGPTは人間の心象を害さないように設計されているため、たとえChatGPTの答えが正しくても、人間が間違っていると言えば、あっさりと間違いを認めてしまうから要注意である。

 人間がもたらすリスクには、無意図的なものと意図的なものがある。

 無意図的なリスクとしては、リテラシーの不足による機密情報や個人情報の漏洩および著作権侵害があげられる。質問項目に入力した情報は、OpenAI社によってAIの学習に利用される。そのため名前や住所など個人情報を入力する場合は、事前に本人の同意が必要となる。また機密情報に関しては、特許申請などができなくなる危険性がある。そのため、機密情報や個人情報の入力は避けるべきであろう。

 一方、著作権侵害に関する対策としては、生成AIが作成した創作物を利用する際には、既存の文章や画像などとの類似点について調査を行い確認する必要がある。さらに創作物をそのまま提示するのではなく、自分自身の手で加工や修正を行ったり、新たな作品を創造するためのヒントとして活用したりすべきであろう。

 OpenAI社の利用ポリシーには、「医療、金融、法律業界における消費者向けのモデルの使用、ニュースの生成や要約、その他正当な理由がある場合は、AIが使用されていること、およびその潜在的な限界を知らせる免責事項を利用者に提供しなければならない。」¹とある。社会的影響力が大きいメディアの送り手が生成AIを利用する際には、上記の対策が必要である。

 生成AIの意図的な悪用としては、偽情報やディープフェイク、敵対的な情報キャンペーンなどがあげられる。これらの悪用に対しては、特に公共性の高いメディアの送り手は最善の注意を払う必要がある。

 技術的な解決策としてこれらを判定できる高度なAIが開発されてはいるが、技術の進歩によりイタチごっことなる可能性がある。そのため、繰り返しになるが、人間による判断が求められているのである。

 さらに今後進んでいく生成AIのパーソナライゼーションや、パーソナライズされたニュースなど限られた情報へのアクセスによるフィルターバブル、²ニュースや情報に対する信頼の低下によって、社会不安が引き起こされる可能性もある。その結果、メディアの重要な社会的役割である「公共圏」の創造に対して深刻なリスクがもたらされ、民主主義社会の存続を危うくするかもしれない。

¹ https://openai.com/policies/usage-policies
² 「フィルターバブル」とは、アルゴリズムがネット利用者個人の検索履歴やクリック履歴を分析し学習することで、個々のユーザーにとっては望むと望まざるとにかかわらず見たい情報が優先的に表示され、利用者の観点に合わない情報からは隔離され、自身の考え方や価値観の「バブル(泡)」の中に孤立するという情報環境を指す。
総務省情報通信白書令和元年版https://www.soumu.go.jp/johotsusintokei/whitepaper/r01.html

西欧と日本のAIナラティブの差異:規制やルール作りに向けた国際的な動向

 これまでAIに対するイメージはユートピアとディストピアの2項対立で語られてきた。日本では、鉄腕アトムやドラえもんに代表されるような、ポジティブなイメージが持たれることが多い。また、私たちが今後直面する超高齢化や人口減少に対して、AIやロボットがもたらす新たなチャンスに、大きな期待が寄せられている。

 しかしながら、英国や欧州では、ターミネーターの映画に代表されるような、人間を支配し、社会を破壊するネガティヴなイメージが持たれることが多い。そして、失業や格差など、AIがもたらす新たなリスクに対する不安がより多く語られている。

 いかに優れた科学技術が開発されたとしても、人々の信頼が得られなければ、社会的なインパクトを与えることは出来ない。そのため,英国議会の人工知能委員会の委員長であり、自由民主党上院答弁担当者のクレメント・ジョンズ卿(Lord Clement Jones)は、 AI技術に対して人々の信頼が得られるようなナラティブを構築する必要があるという。³

 例えば、遺伝子組み換え作物は米国では成功しているにも関わらず、英国では人々の信頼を得ることができずに失敗に終わったという歴史がある。AIに対する信頼を築くため、クレメント・ジョンズ卿は「『AIは奴隷であり、私たちの主人ではない』という事を確実にするために、国際的に政府間で共通の合意を得る必要がある」と述べている。

 AIがもたらすリスクに対処するために、現在各国で規制やルール作りが進んでいる。世界に先駆けてAIの規制に取り組んできた欧州連合では、2023年12月9日、EU理事会(閣僚理事会)と欧州議会がAI法案に対して暫定的な合意に達した。⁴

 このAI法案では、リスクに応じてAIを規制しており、リスクが高いほど規制が厳しくなる。例えばチャットボットやディープフェイクを使用したサービスは限定的なリスクとされているが、これらのサービスを提供する場合は、AIが生成したコンテンツであることがわかるラベル付けを行う必要がある。また、生成型AIなどの「汎用目的型AI(general purpose AI、GPAI)」を用いたサービスに対しても、「透明性」を課すことなどが提示されている。

³ 2019年1月17日,英国ロンドンの貴族院で行なった筆者のインタビューに応えて。肩書はインタビュー当時のもの。
⁴ https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/

仕事の未来:AIとZ世代の国際プロジェクトから

 AIがもたらす最大のリスクの一つとして、失業問題がある。歴史学者のユヴァル・ノア・ハラリ氏(Yuval Noah Harari)は、膨大な「無用者階級」の創出の危険性を指摘し、 AI時代において「人間が取り残されないためには、一生を通して学び続け、繰り返し自分を作り変えるしかなくなるだろう。」と述べている。

 それでは、ChatGPTのメインユーザーであり、次世代を担うZ世代(1996年から2010年生まれ)はリスクに対してどのように考えているだろうか?筆者が行なっている Z世代とAIに関する2つの国際的なプロジェクトー国連「AIのある未来」⁵とスタンフォード大学など9カ国との国際比較調査「Project GenZAI」⁶―から、知見を簡単に紹介したいと思う。

 仕事の未来に対して若者たちは、失業よりむしろ新しい仕事の創出に期待を抱いている。AIの導入によって増えた自分の時間を、プログラミングなどの技術的なスキルよりも、AIに置き換えられることのない人間ならではのスキルを身につけることを希望している。そして医師や教師など人間同士のコミュニケーションが重要となる分野では、あくまでもサポート的な導入を望んでいる。

 個人情報の収集や情報の信頼性に関しては、小さい時から多くのネット情報に触れ、SNSで自分の情報を開示してきたZ世代にとっては、匿名性が守られ、AIの発展に寄与できるならば、特に問題がないと言う。

 但し現段階では、情報の正確性から、医療や健康など命に関わる分野で使用されることに不安を覚えている。また、低年齢の子供のChatGPTの利用に関して懸念を抱いており、年齢制限を設けるべきだと考えている。

 ただし、最も重要なのは、サービス提供者側に対する規制ばかりでなく、リスクに自分で対処するリテラシーを身につけることだと言う。

⁵ 高橋利枝『国連「AI のある未来」: 人を幸せにする持続可能な社会の創造に向けて』人間生活工学 Vol .24 No .1 (2023.3)
⁶ https://gen-zai.org

AI時代におけるメディアの社会的な役割

 AIが将来的に人間の仕事を全て奪うことはないとしても、求められる仕事を変えることはあるだろうから、これに適応し、これをいかにチャンスとして活用できるかが、総じて課題となるだろう。

 人を幸せにするAI社会は、人々に自己を創造し続けるための様々な支援や機会を与えなければならない。そして、人々もまたAIがもたらす新たなチャンスを最大に享受して、リスクを最小限にし、これまで以上に自己をクリエイティブに創造し続けるための力が必要になる。

 最後に「自己創造(self-creation)」の概念を紹介したいと思う。筆者は、20年以上にわたり、テレビやインターネット、スマートフォン、SNSなどのデジタルメディアの社会的な役割を明らかにするために、日本や米国、英国などで若者とメディアに関するフィールドワークを行ってきた。

 「自己創造」という概念は、このフィールドワークで出会った人たちの独創的な自己形成の特性に対して発展させてきた概念である。⁷そして現在のAI社会において「自己創造」は「グローバルなAI環境の中で、直接的(non-mediated)経験と媒介された(mediated)経験を通じて、再帰的に自己や社会を創造、再創造するプロセス」と暫定的に定義づけられよう。⁸

 AI社会がカオスに陥ることなく持続可能となるためには、ユートピアとディストピアの2項対立を超えたAIナラティブを創造することが必要である。生成AIがもたらす新たなチャンスを最大に享受して、多様性と社会的包摂の社会を創造するためには、メディアはどのようなAIナラティブを構築すべきなのだろうか?人を幸せにするAI社会を創造するために、メディアに課せられた社会的な役割はこれまでにないほど重要なものなのである。

⁷ 高橋利枝, “デジタルウィズダムの時代へー若者とデジタルメディアのエンゲージメント,” 新曜社, 2016.
⁸ 高橋利枝「人工知能(AI)とロボットがもたらす社会的インパクト:「ヒューマン・ファースト・イノベーション」に向けて」, 『情報システム学会誌「AI時代における人間中心の情報システム」特集号』, Vol.14, No.2, pp.7-17, 2019。

<執筆者略歴>
高橋 利枝(たかはし・としえ)

早稲田大学文学学術院文化構想学部教授。ケンブリッジ大学「知の未来」研究所アソシエイト・フェロー。

専門はメディア・コミュニケーション研究。人工知能やロボット、スマートフォン、SNSなどを人文・社会科学の立場から分析。

お茶の水女子大学理学部数学科卒業(理学士:数学)。東京大学大学院社会学研究科修士課程修了(社会学修士:社会情報学)。東京大学大学院人文社会系研究科博士課程単位取得満期退学。英国ロンドン・スクール・オブ・エコノミクス(LSE)大学院博士課程修了Ph.D.取得 (社会科学博士:メディア・コミュニケーション学)。

2018-19年ケンブリッジ大学、コロンビア大学客員研究員。2018-19年ハーバード大学バークマンクライン研究所ファカルティ・アソシエイトとして招聘され、「人工知能(AI)の社会的インパクト」に関する国際共同研究を行う。

主な著書は単著書として『デジタル・ウィズダムの時代へ :若者とデジタルメディアのエンゲージメント』(新曜社, 2016, テレコム社会科学賞入賞), “Audience Studies”(Routledge, 2009)。

この記事に関するご意見等は下記にお寄せ下さい。
chousa@tbs-mri.co.jp