おすすめ検索キーワード
【最前線】止まらぬAI進化、日本企業はガバナンスにいかに向き合うべきか?(後編)
TECHNOLOGY

【最前線】止まらぬAI進化、日本企業はガバナンスにいかに向き合うべきか?(後編)

博報堂DYホールディングスは2024年4月、AI(人工知能)に関する先端研究機関「Human-Centered AI Institute」(HCAI Institute)を立ち上げた。

HCAI Institute は、生活者と社会を支える基盤となる「人間中心のAI」の実現をビジョンとし、AI に関する先端技術研究に加え、国内外のAI 専門家や研究者、テクノロジー企業やAI スタートアップなどと連携しながら、博報堂DYグループにおけるAI 活用の推進役も担う。

本格的なスタートを切ったHCAI Institute を管掌する、グループのCAIO(Chief AI Officer)である森正弥が、AI 業界をリードするトップ人材と語り合うシリーズ対談を「Human-Centered AI Insights」と題してお届けする。

後編では、信頼できるAIとは何か、「人間中心のAI」の実現とAIのあるべき姿などについて語られた。

STORIA 法律事務所
柿沼 太一弁護士
専門分野はスタートアップ法務及びデータ・AI法務。現在、様々なジャンル(医療・製造業・プラットフォーム型等)のAIスタートアップを、顧問弁護士として多数サポートしている。経済産業省「AI・データ契約ガイドライン」検討会検討委員(~2018.3)。日本ディープラーニング協会(JDLA)理事(2023.7~)。「第2回 IP BASE AWARD」知財専門家部門グランプリを受賞(2021)。「オープンイノベーションを促進するための技術分野別契約ガイドラインに関する調査研究」委員会事務局(2021~2024)。

※前編はこちら

信頼できるAIとは何か?

── 昨今、AIを活用する上でキーワードとなるのが「信頼できるAI(頑健性や説明可能性、公平性、プライバシーなどに取り組んでいるAIのこと)」を実現できるか、という点です。AIが企業に浸透していくフェーズにおいて、信頼あるAIを実現するために、ガバナンスが果たす役割とは何でしょうか。

柿沼
まず、「誰に対する信頼なのか」を定義することが重要だと思います。

例えば、ある企業が提供する生活者向けのサービスを私たちが使ったときに、その企業自体が信頼に足る存在である場合、私たちはそこに対して「変なことはしないよね」と信頼しているわけです。そのような状態になるためには、日頃から企業側から情報開示をしっかり行い、AIならばその技術をどのように使っているか、をいかに伝えるかで捉え方は変わってくるのかなと。

よくAIの話題では「信頼できる」とか「責任ある」というキーワードが出てきますが、誰による、誰に対する信頼なのか、という点はもっと議論されていっても良いのではないかと思います。

信頼は、いわば、信頼の大元をスタートにして広まっていくものですよね。例えば、LLM(Large Language Models:大規模言語モデル。生成AIの基盤となるモデル)を開発している大規模AI開発者、当該LLMを活用してサービス提供するベンダー、当該サービスを利用する生活者(AI利用者)という関係性があるとします。この場合、サービス提供者は生活者に信頼される存在である必要があり、大規模AI開発者はサービス提供者に信頼される存在である必要があるという構造なのではないかと思います。

西村
おっしゃるように、例えば、LLMの信頼性に関しても、Googleの検索サービスにおいて積み重ねてきた信頼が援用されることで、OpenAIよりもGoogleのGeminiの方が信頼される可能性はあるかもしれません。信頼の大元と生活者との間で、サービスを通じたやり取りから信頼の基盤が出来上がっている印象です。

ニクラス・ルーマンの信頼論では「信頼とは複雑性の縮約である」という言葉があります。ルーマンは、「技術的に生み出される将来の複雑性に耐えうるためにこそ、一層多くの信頼が要求されてくる」と論じていて、まさにAIによって生み出される新しい複雑性に対して、社会や生活者が混乱しないためにも、社会を構成する企業や生活者同士のこれまでの信頼の蓄積、相互の関係性を頼って、簡単に判断できることが必要になってくるでしょう。サービス利用者は詳細を知らなくても、信頼できる企業や専門家が関わっていることで安心して使える状況を担保する必要があると思います。

ただ、この時にAIならではの非常に重要な論点は、技術的限界として絶対にどこかにハルシネーション(誤り)が発生するという点です。

たしかに。一方で、創造的な面を重視して、誤りのないAIはつまらない、という意見もあったりします。アイデアを発想する装置としての優秀さと、同時に事実にきちんと基づき、合理性があるべきという信頼の問題が必ず内在している。
柿沼
私は、そのような信頼が求められる領域と、そうでない領域があると考えています。

例えば、画像生成などはランダム性があったほうが面白いですよね。逆に、法律や金融の領域というのは絶対に誤りがあってはいけない領域です。大事なことは、AIの回答をそのまま取って出しをするのではなく、専門家や正確な情報に通じている人がしっかりアウトプットに関与することです。

ガバナンスという面では、やはり人間が最終的に判断することが現時点では必須ですし、その情報を誤りかどうか見抜ける人材を据えることではないでしょうか。

── AIを使う人が、どう適切に使うのかが重要ですね。

柿沼
そうですね。ただ、適切に使うべきなのは、サービスを利用する側も、サービスを提供する側も同じです。最終的にサービスを利用する人だけに責任を負わせてはいけないと思います。
AIを提供する企業側の工夫として、AI利用で実害が出た場合に保証しますよというサービスも見られています。いろんな形で信頼のあり方を構築していく方法が模索されていますね。

西村
確かに、AIを活用した画像生成ツールの中には、自社のツールを使って著作権侵害があった場合は保証するといっていうサービスもあります。なぜそんなことが出来るのかといえば、AIに学習させた画像データの権利についてちゃんと許諾を得ているからです。しかし、そうした対応が出来る企業はごく一部ですし、公開されているLLM全てについて学習データが権利処理済みかどうかは外部からは判別が難しいのが実状ではないでしょうか。

開発者、提供者と利用者間での相互コミュニケーションが重要

── AIのあるべき姿も日進月歩で変わり続けている現在ですが、ガバナンスの観点で日本企業は今後どのようなスタンスでいるべきなのでしょうか。

柿沼
AIの特徴やリスクをしっかりと認識しつつ、他で成功しているユースケースを真似てやってみる、というスタンスが良いのではと思います。

私の印象として、日本企業はとても真面目です。AI分野に限らず、ガイドラインがあればしっかり守りますし、ルールから外れたくない意識がある。これはリスクを避けたいという意識の表れでもありますが、このような日本企業の特質は、日本が現在指向している「ミニマムな法規制とガイドラインの組み合わせ」にマッチしていると思います。

先ほどの議論でもありましたが、AI規制としてどのような内容が最適解なのか最終決着は各国で全くついていない段階です。信頼できるガバナンスを社会全体で維持し、開発者、サービス提供者、生活者の間で責任の所在を分散させることが重要だと考えます。

今のお話は車の運転に対する捉え方に例えることができると感じました。車は便利ですが、運転技能がいるし、危険性もある。だからライセンスが必要です。ですが、危険をゼロにすることは難しい。AIの場合は、ライセンスは不要ですが、車の運転者や販売業者や同乗者、生活する人も含めて交通ルールや留意点を知っておく必要があるのと同様に、AIにも関わる企業・組織や利用者が知っておくべき点があります。

ゆえに、AIの活用においても、利用者が正しく情報を確認することが重要だし、開発者や提供者側も利用者に正確な情報を提供する必要があります。つまり、開発者・提供者と利用者の間のコミュニケーションが不可欠だと理解しました。

 ── 双方のコミュニケーションが活発になると、どのようなメリットがあるのでしょうか。

開発者・提供者側と利用者側のコミュニケーションの距離が近くなれば、お互いの考えていることや実態がより明らかになっていくわけです。例えば、開発者が利用者に対してこの機能は必要ないだろうと思っていたことが、実際は必要なものだったり、利用者も開発側・提供側の意図を知って新しい使い方や注意点が思いつくかもしれない。

つまり、業界や社会全体のリテラシーの底上げに繋がっていくということですね。ですので、AIの使い方に関するルールやガバナンスに対する考え方は、ステークホルダーがみんなで一緒に作り上げ、運営していく方向に向かっていくのではないかなと思っています。

柿沼
たしかにリテラシーの醸成は、新しい技術の普及には非常に重要ですね。そのための即効薬はありませんが、地道に話し合ったり、教育をしていくことが第一歩ですね。

「人間中心のAI」の実現とAIのあるべき姿

── 森さんと西村さんは、博報堂DYホールディングスが2024年4月に立ち上げた組織で、「人間中心のAI」の実現をビジョンとした活動をされているとのことですが、人間中心のAIとはどのような概念なのでしょうか?

人間中心のAI(HCAI:Human-Centered Artificial Intelligence)とは、今までのAI観をシフトさせる考え方です。AIに人間のやっていることの代わりをさせるという使い方ではなく、あくまでも人間のやりたいことがまずあり、それを助けるためにAIを使っていこうというものです。そして、単なる支援にとどまるのではなく、人間の能力を拡張させる手段としてもAIを機能させていきます。

私たちの活動の目的としては、人間の可能性を拡大するようなAIサービスを作っていくことです。それは創造性を拡張して、人間同士のコラボレーションを広げていくことにもつながります。これまでのプロセスにおける正確さが求められる領域だけでなく、不確実性も含んだエクスペリエンスが中心となる領域においてもAIが人を支援できるようにしていこうと考えています。

人間とAIの関係性が変わる中で、そのガードレールとしての役割であるガバナンスの重要性も高まっていると感じますね。

柿沼
まさに、ガバナンスで大事なことは、有害事象が起こらないためにどうしたらいいか、という視点です。新しいテクノロジーのいろいろな使い方が広がっていった際に、人間の尊厳が損なわれるような事象は防がなくてはならない。

その意味で、人間がAIで壁打ちしているに過ぎない段階では有害事象は生じる確率は低いですし、人間が人間の監視をしっかり行うことができれば、人間中心のAIの世界観においては、ガバナンスそのものの重要性が相対的に低くなるということかもしれません。

ではなぜ、世界でAIの規制が議論されているのかといえば、悪い人に便利なツールを与えると悪いことが起こるだろう、そのような悪いことが生じないためにはどうしたらよいだろうか、ということだと思っています。その意味ではガバナンスは病理現象に対するアプローチという側面があるのですが、病理現象ありきで考えてしまうと、結局何も出来なくなってしまう。だから、まずあるべき社会と人間とAIの関係性があって、そこに適したガバナンスが存在する、という順番なのではないでしょうか。

西村
ビッグテックやデジタルプラットフォーマーなど開発者側での、自主規制の問題やガバナンスの議論がどう展開されていくのか注目ですね。

企業に求められる説明責任

── AI利用とガバナンスの関係性において企業は今後、どのようなことに気をつけなければならないのでしょうか。

柿沼
今、EUで議論されているAI規制のガバナンスは、少なくとも現時点で日本企業が深く捉える必然性はないように思います。日本ディープラーニング協会(JDLA)から出されている「生成AIの利用ガイドライン」をしっかり守っていればまずは十分ではないかという立場です。なぜなら、多くのケースがすでに想定済みで、その対応方法がJDLAのガイドラインに示されているからです。

直近で企業が気にしなければならないことは、サービスの提供者側になったときに、しっかりとクライアントに「何(どのようなモデル)を、どのように使っているのか」といった説明を果たす責任がある、ということです。

私の趣味は料理なのですがそれに例えると、いつもどんな野菜か丁寧に説明してくれる八百屋さんから買うからこそ、作り手である私、最後に食べる家族も「信頼」の輪が成り立っているとも言えますね。

人間中心のAIとも重なる話で、そのサービスが世の中に出た時に悪い影響を出さず、人間同士がポジティブになれるようなAIと人間が共存する世界を作っていくべきだと思います。

西村
まさに「信頼」をつくっていくことが大事、ということですね。AI開発者、提供者、利用者というそれぞれの立場がある中で、私たちはサービスの提供者となることが多いです。そのため、クライアントや生活者に対して説明責任を果たし、信頼を築く必要があります。
私たちも生活者が豊かになっていくような、博報堂DYグループとして信頼される人間中心のAIサービスを世に出していきたいと思います。本日はありがとうございました。

 

sending

この記事はいかがでしたか?

送信
  • 柿沼 太一 弁護士
    柿沼 太一 弁護士
    STORIA 法律事務所
    専門分野はスタートアップ法務及びデータ・AI法務。現在、様々なジャンル(医療・製造業・プラットフォーム型等)のAIスタートアップを、顧問弁護士として多数サポートしている。経済産業省「AI・データ契約ガイドライン」検討会検討委員(~2018.3)。日本ディープラーニング協会(JDLA)理事(2023.7~)。「第2回 IP BASE AWARD」知財専門家部門グランプリを受賞(2021)。「オープンイノベーションを促進するための技術分野別契約ガイドラインに関する調査研究」委員会事務局(2021~2024)。
  • 博報堂DYホールディングス執行役員Chief AI Officer、
    Human-Centered AI Institute代表
    1998年、慶應義塾大学経済学部卒業。外資系コンサルティング会社、グローバルインターネット企業を経て、監査法人グループにてAIおよび先端技術を活用した企業支援、産業支援に従事。東北大学 特任教授、東京大学 協創プラットフォーム開発 顧問、日本ディープラーニング協会 顧問。著訳書に、『ウェブ大変化 パワーシフトの始まり』(近代セールス社)、『グローバルAI活用企業動向調査 第5版』(共訳、デロイト トーマツ社)、『信頼できるAIへのアプローチ』(監訳、共立出版)など多数。
  • 博報堂DYホールディングス
    マーケティング・テクノロジー・センター 室長代理
    The University of York, M.Sc. in Environmental Economics and Environmental Management修了、およびCentral Saint Martins College of Art & Design, M.A. in Design Studies修了。
    株式会社博報堂コンサルティングにてブランド戦略および事業戦略に関するコンサルティングに従事。株式会社博報堂ネットプリズムの設立、エグゼクティブ・マネージャーを経て、2018年より博報堂DYホールディングスにて研究開発および事業開発に従事。
    2020年より一般社団法人日本インタラクティブ広告協会(JIAA)にて、データポリシー委員会、Consent Management Platform W.G.リーダーを務める。