おすすめ検索キーワード
生成AIは「おいしい毒リンゴ」―ほどよい距離を保ち、「AIのウソも嗤える」カルチャーを 【慶應義塾大学大学院法務研究科 山本 龍彦教授】
TECHNOLOGY

生成AIは「おいしい毒リンゴ」―ほどよい距離を保ち、「AIのウソも嗤える」カルチャーを 【慶應義塾大学大学院法務研究科 山本 龍彦教授】

Chat GPT の登場をはじめ、日進月歩で進化を遂げる「生成AI」。
インターネットやスマートフォンが社会を変革したように、生成AIも過去に匹敵するパラダイムシフトを起こし、広告やマーケティングにも大きな影響を与えると言われています。生成AIはビジネスをどのように変革し、新たな社会を切り拓いていくのか。

博報堂DYホールディングスは生成AIがもたらす変化の見立てを、「人間・社会の変化」、「産業・経済の変化」、「AI の変化」の 3つのテーマに分類。各専門分野に精通した有識者との対談を通して、生成AIの可能性や未来を探求していく連載企画をお送りします。

第4回は、憲法学の立場からAIを研究する慶應義塾大学大学院法務研究科の山本 龍彦教授に登場いただきます。「人間・社会の変化」をテーマに、生成AIがもたらす人間の価値観の変化や社会的に与える影響、課題との向き合い方について、生成AIも含めた先進技術普及における社会的枠組みの整備・事業活用に多くの知見を持つクロサカ タツヤ氏とともに、博報堂DYホールディングスのマーケティング・テクノロジー・センター室長代理の西村が話を伺いました。

連載一覧はこちら

山本 龍彦氏
慶應義塾大学大学院法務研究科 教授

クロサカ タツヤ氏
慶應義塾大学大学院政策・メディア研究科 特任准教授
株式会社 企(くわだて) 代表取締役

西村 啓太
博報堂DYホールディングス
マーケティング・テクノロジー・センター 室長代理
株式会社Data EX Platform 取締役COO

生成AIは“おいしい毒リンゴ”。人間の主体的かつ自律的な意思決定を歪める可能性も

西村
生成AIが社会に大きな変革をもたらしているなか、まずは生成AIが個人の価値観や生活に与える影響についてお聞きできればと思います。
山本
私の専門は憲法学で、とりわけ憲法13条のプライバシー権や個人の尊重を中心に研究を行ってきました。
日本における個人データ保護やプライバシーは、主に「個人情報の“漏洩”に関する問題」という認識が強いですが、ヨーロッパでは個人の情報や閲覧、購買データが分析され、人の“選別”に使われること自体も「人間の尊厳に関わる重大な問題」という捉え方をしています。
生成AIの登場以前からAI全般の技術発展がめざましいですが、AIを使って個人の属性や能力をプロファイリングし、予測や分析を行うことで人を自動的に選別していくことに対しては、尊厳にかかわる問題として、ヨーロッパ諸国は非常に警戒心を強めているのが現状です。

またAIによる情報や商品・サービスのパーソナライズやレコメンデーションは、そのアルゴリズムによって自分が興味ある情報だけしか見えなくなる「フィルターバブル」という現象や、ソーシャルメディアなどで、自分と似た政治的傾向を持つユーザーとばかりコミュニケーションをとるようになり、自分の意見が極端に増幅・強化される「エコーチェンバー」といった現象の引き金となっており、社会的な問題につながっています。こうした「フィルターバブル」「エコーチェンバー」といった現象は、生活者の「注目=アテンション」を得ることが広告やインフルエンサーのビジネスにつながり、「注目=アテンション」そのものがあたかも金銭そのものであるかのように取り引きされる経済環境「アテンションエコノミー」を背景としています。アテンションエコノミーは、偽情報の増幅の構造的な要因にもなっています。偽情報は、インプレッションを稼ぎやすいからです。

こうした経済環境では、ユーザーの認知システムを刺激するようなコンテンツを、ピンポイントでAIがレコメンドしていくことが決定的に重要になります。バズを狙うショート動画や、釣り見出しをつけるWebの記事など、ユーザーの認知システムを刺激し、アテンションを取るためのコンテンツに大きくシフトしているため、現在の言論空間は非常に混沌としてきていると感じています。

西村
山本先生は、憲法13条にある「個人の尊重」の観点から、AIの社会的リスクについて提言されています。生成AIの登場によって、どのような局面へと変わっていくのでしょうか。
山本
今までの憲法学では、思想の説得力や言論の質、信頼性を自由に競い合う「思想の自由市場」が成立すると考えられてきました。それが現在、コンテンツの中身よりも、いかにユーザーの興味・関心を引いて反射を得るかという「刺激の競争」に変わってきていると考えられます。AI×アテンションエコノミーが作ってきた“混沌”は、生成AIによってさらに深刻化していく恐れがあると捉えています。

私は生成AIのことを“おいしい毒リンゴ”と表現することがあります。生成AIにおいては学習データの偏りや、“調律”(アラインメント)段階で含まれる人間の偏見のために出力が歪んだり、ハルシネーション(幻覚による虚偽の回答)が生じたりします。そういう意味では、生成AIの回答には必然的に“毒”が含まれるのだけれど、もっともらしい味がするといいますか、のどごしが非常にスムーズであるために、すっと飲み込めてしまう。このように、毒を含んだ“おいしい”リンゴを抵抗感なく食べ続けると、個人の「認知プロセス」が次第に侵されていく危険があると思います。生成AIを活用するのが当たり前になるにつれ、人間の主体的かつ自律的な意思決定を歪めてしまうかもしれません。

生成AIのグッドシナリオ・バッドシナリオの分岐点はファクトチェック

西村
生成AIを“おいしい毒リンゴ”と例えているのは、まさに言い得て妙だなと思います。
山本
AI×アテンションエコノミーの広まりはエコーチェンバー現象を生み出し、その人個人が求める偏った情報に触れ続けることは、事実や社会の実像に関する認知の歪みにつながる。似たような情報に触れ続けることで、それを真実だと錯覚してしまう「真実錯覚効果」も心理学では既に実証されています。そこに生成AIが入ってくれば、真実の共有はさらに難しくなる可能性もあります。
民主主義は、政治的な見解を異にする者でも、ファクトを前提として政治的なコミュニケーションを重ねることで一定の合意が形成されることを期待しているわけですが、そのファクト自体が共有できないという事態が生じうる。議論の土俵自体が形成されず、皆それぞれの土俵で“ひとり相撲”をとっている。要するに、ファクトが個人的な問題になる。「真実の個人化」ですね。ファクトが社会的に共有されなかったり、生成AIのハルシネーションを前提に社会的なコミュニケーションが行われたりすれば、私たち全員が「幻覚」をみるような状況にすらなってしまう。こうした「集団的幻覚(コレクティブ・ハルシネーション)」が生まれれば、民主主義そのものが消失していくというのが、現時点での生成AIに対して考えられるバッドシナリオだと思っています。
西村
生成AIの普及がグッドシナリオになるのか、あるいはバッドシナリオになるのかの分岐点が「ファクトチェックの機能をどう入れるのか」ということだと思います。生成AIの出した答えを鵜呑みにして行動することが、まさにバッドシナリオへとつながっていくと思いますが、山本先生はどのような意見をお持ちでしょうか。

山本
生成AIは、アテンションエコノミーを悪化させる方向性と、その救世主となる部分の両面があると考えています。現状では、生成AIは比較的リテラシーが高いビジネスエリート層や、レポートや就活で触れることになる大学生などが特に使っているような印象を持っていますが、そうでない人たちは、ほとんど触れていない可能性がある。今後、エリート層と「そうでない人たち」との間で、生成AIをうまく使える、使えないということでの「分断」が生じ、後者は生成AI利活用層から疎外され、さらにアテンションエコノミーの世界にどっぷり浸かるという事態も考えられます。他方で、生成AIをカスタマイズして使いやすくしたうえで、サービスやプロダクトにしっかりとしたファクトチェック機能を入れていけば、利用層も広がり、場合によっては生活者が接する情報からフェイクが除かれたり、個人の文脈に閉じた偏った情報が是正されたりする可能性もあるでしょう。それがアテンションエコノミーの弊害を克服する鍵になるかもしれません。


「責任あるAI」で生成AIを個人や民主主義にとってポジティブな存在に

西村
現時点では生成AIのユーザー層はリテラシーが高く、限定的というお話がありましたが、今後より幅広い層に使われるような生成AIというのは、どのようなものが考えられるのでしょうか。
山本
生成AIの回答を動画で生成するといったようなユースケースは出てくるでしょう。しっかりと監査が入って、「責任あるAI」という形でそのような生成AIが作られていけば、その行く末は変わってくると思っています。ただ、現在はアテンションエコノミーのカルチャーが出来上がってしまっているため、そこに生成AIをのせていくと、自分の好きな偏った情報だけを取得するような状態になってしまう。例えば、生成AIに広告がつくようになれば、エンゲージメントをとるために生成AI自体がパーソナライズされ、フィルターバブルやエコーチェンバーがさらに深刻化する可能性もあります。

生活者は本来、さまざまな情報を主体的かつ自律的に摂取していく自由があるはずです。情報を「偏食」してしまえば、自分の殻に閉じこもって偶然的な出会いを失い、人生の重要な機会を喪失することになりますし、虚偽ばかり聞いて真実だと錯覚してしまえば、判断を誤り、暴力的な行動に出てしまうことにもなる。私は、さまざまな情報をバランスよく摂取するなど、偽情報などへの「免疫」を獲得している状態を「情報的健康」と呼び、何人かのメンバーと領域横断研究を進めています。この概念は、アテンションエコノミーの弊害を是正する上で重要だと考えています。

話を先のご質問に戻しますと、生成AIに「トランスレーション」という役割を持たせることで、フィルターバブルによる分断をつなぎとめることができるのではとも考えています。
どういうことかと言うと、例えば年金の記事であれば、ある程度の年代の層は読むかもしれませんが、若い人はまだピンとこないので、あまり読まないかもしれません。そうした記事を生成AIが若い人向けにわかりやすい文体や内容に「翻訳」することで、若い人にもリーチできるようになる。逆に、若い人に向けた記事を、高齢者に読んでもらうように「翻訳」することも可能なわけです。
このような使い方がされると、フィルターバブルを壊し、分断した人たちを「つなぐ」ものとして、生成AIが機能するかもしれない。ビジネスのための利用だけでなく、個人の尊重や民主主義にとって、生成AIがプラスになるような活用の仕方を考えていくことが、とにかく重要なのです。

西村
生成AIは要約と相性がいいとも言われていて、そこはまさにトランスレーションだなと。「社会参加を促すための生成AI」「公共につなぐための、公共として機能するAI」というのは生成AIの発展の形としてあり得るのかなと思います。一方で、要約においても、山本先生が言われていたように「情報的健康を害する」ことがないように、「栄養バランスを考えて情報を取得する」というのは結構難しい気もします。「情報的健康」はどうすれば担保できるものなのでしょうか。
山本
複数のアプローチが必要だと思います。食べ物に対しては、食育のようなリテラシー教育もあって、「栄養バランスを考えて食べましょう」という価値観が浸透してきました。いまでは、食品表示を見たり産地を確認したりと、信頼性や安全性を確かめてから食品を買うことが当たり前になってきた。
それと似たような意識を「情報」についても持つということが重要です。アテンションエコノミーやフィルターバブルは、短期的には「心地よい」ので、こうした意識がひろがるには一定の時間が必要になると思います。なにせ、情報の「偏食」が個人に具体的な害悪をもたらすまでにタイムラグがある。バランスよく情報を摂取していてよかった、と思えるには時間がかかるわけです。

ただ、これは食事にもいえると思います。短期的には、好きな食べ物ばかりを食べ続けるのは「幸福」「快楽」で、その弊害が出るには時間がかかります。個人の体質によっては、弊害がでない可能性もある。バランスのよい食事の効用は、時間がたたないとわからないわけです。しかし、エビデンスを踏まえた食育で、私たちの意識は少しずつ変わりました。今後は、情報の「偏食」がいかなる害悪を生じさせるかを具体的に研究し、エビデンスに基づく情報リテラシーを行う必要があるでしょう。また制度的にも、生成AIを多用したコンテンツについては、ユーザーの目に触れやすいところにそのことを示す情報を掲出するなど、食の安全性同様に情報の安全性を担保するような情報開示の仕組みを整備することも重要です。

好きな情報を得ること自体がアイデンティティになっている

西村
情報的健康も社会的に深刻な問題が発生するような行き着くところまで行かないと、変わっていかないのかもしれませんね。食の安全性が厳しく問われはじめたのには、食品偽装問題なども背景にありました。
山本
おっしゃるとおりです。食の不健康は下手すれば死をもたらすわけですが、情報的不健康は死ぬわけではありません。先ほどもお話ししたとおり、刺激的な情報ばかりを摂取するというのは、ドーパミンがたくさん出るので、むしろ心地よい状態に感じてしまう。これはかなり厄介です。エコーチェンバー現象によって情報的不健康に陥った場合に、人間の脳がどういう変化を起こすのか。アテンションエコノミーの世界観が、我々の思考や精神に対してどういう影響を与えるのかを実証的に研究していくことが重要だと考えています。また、生成AIでつくった虚偽の画像が、あたかもカメラマンが撮影した真実の画像であるかのように掲載された、という「情報偽装問題」のような「事件」があると、いったいどんな情報を自分が摂取しているのかを気にするようになる大きなきっかけになるかもしれません。
西村
「なぜ人間は自分の見たい情報だけを得るのか」という根源的なところを探っていくと、1980年代にマーケティング学者のラッセル・ベルクが「所有はなぜ大事か」という問いに対して「自分自身の定義=自己概念の確認/拡張である」からだと述べたことにまで遡ると考えています。かつての「所有」だけではなく「情報の接触・体験」によって自己概念を確認・拡張しているのだとすれば、人間の根源的な欲求に関わる問題だと言えるかもしれません。食のように「栄養バランスを考えて食べなさい」と言われても、特定の情報に触れることはある種、自分にとっての「アイデンティティ」だと言われてしまうため、情報的健康の実現はハードルが高いのかもしれない。
山本
ハードルは低くないでしょうね。しかし、現在は、アテンションエコノミー下の商業的アルゴリズムによって他律的に情報を「食べさせられている」状況だと思います。アメリカの著名な情報法学者ティム・ウー(コロンビア大学)も、現在の私たちは、情報を強制的に聞かされている、「囚われの聴衆」なのだと指摘しています。情報的健康という概念で、誤解していただきたくないのは、重要なのは、あくまでも多様な情報に触れることで偽情報等に対する「免疫」が獲得されている「状態」だ、ということです。この「状態」から、自分がどのような情報を摂取するかは、本人の“自己決定”の問題ですので、究極的には、自分はK-POPだけを聞くんだ、それが自分なんだ、という選択は尊重されるべきです。情報的健康は、各人が自らの考える幸福を追求するための前提だと考えます。

いま何が問題なのかといえば、ある種の「偏食」が、アルゴリズムによって他律的に起こっているということです。そこで特定の情報に触れているというのは、本当に「アイデンティティ」といえるのでしょうか。私は、押し付けられたアイデンティティという側面があると思いますね。他方で、さまざまな情報に触れ、アテンションエコノミーの罠にも気づいたうえで、「私はこの情報をとことん摂取することに決めたんだ!」という選択は、確かに「アイデンティティ」としてとらえるべきです。こういう“自律的な”フィルターバブルは、情報的健康のうえに成り立つのだと思います。ですので、ハードルは高いけど、決して実現不可能なものではありません。

AI時代には「ウェルビーイング」をどう定義するかが肝になる

西村
生成AIの制御について、誰がどう対応すればいいのかという議論も重要になってきそうです。例えば生成AIのチャットツールを利用する際、ガイドラインを定める政府、プラットフォームを提供する企業、APIを利用してサービスを提供する企業そしてそれを享受する生活者がいるという構図になっています。一体誰がどう制御すべきなのでしょうか。
山本
もっとも重要なのは、「マーケット」であり、「ユーザー」だと考えています。食で言えば、安全でない食べ物をマーケットに供給した企業はユーザーに徹底的に批判されますよね。それと同じで、我々の認知過程を意図的にハックするような、邪悪なアルゴリズムを使用しているプラットフォーム企業は、マーケットにおいて適切に批判されていくことが重要です。市場の抑止力が効いてくれば、プラットフォーム企業も、「生活者のアテンションを得ること」と「生活者の情報的健康を守ること」のバランスをとるようになるはずです。そのためには、情報の透明性を確保することが必要不可欠です。このような透明性確保の義務付けは、国が責任をもってやっていくところでしょう。

食べ物については、食品表示法によって誰がどういう素材を使い、どこで作ったのかを明記することが義務付けられています。こうしたことが情報にも必要なのではないかと思います。例えば、生成AIがどのようなデータを学習したのか、人間がどんなチューニング、“調律”をしたのか、どういう“思想”が反映されたアルゴリズムなのかがわかるように透明性を確保しなければ、生活者は合理的な選択ができないというわけです。

西村
透明性を担保する法整備を国が進め、その上で善悪の判断を持って悪いものは適切に批判される風潮を作っていく。それに加え、生成されたコンテンツが生成AIによるものなのか、人間が作ったものかを可視化していき、最後は利用する企業や生活者が、より良い生成AIはどれかと選んでいくことで、邪悪なアルゴリズムは淘汰されていく。基本的には、このような考えになりそうですね。
山本
そうですね。同時に個人のリテラシーの向上も重要になってきますので、複合的なアプローチを採用し、構造自体を揺さぶっていく必要があると思います。
西村
リテラシーを高める教育が肝になってくるということでしょうか。
山本
リテラシー教育は重要だと考えています。ですが、例えばプラットフォーム企業の作成するリテラシー教材では、アテンションエコノミーに大々的に触れるのが難しいと思います。彼らのビジネスモデルそのものなので・・・。ですから、「メディアリテラシー教材をどういう基準で作っていくのか」をしっかり定めるのもポイントになるでしょう。ともすると、リテラシー教育は、「ほら、ちゃんとリスクを教えたからね。あとはあなたたちの責任よ」ということで、ユーザーに責任を押し付ける免罪符にもなりえます。そうならないように、効果的なメディアリテラシーの教材を作ることが重要です。
西村
2023年12月には、日本政府からAI事業者ガイドラインが示されました。AIによる差別や偏見の防止、高齢者にも見やすいような包摂性などに加え、AIを開発・提供する企業以外の利用企業にも責任を問うことが明示されていて、踏み込んだガイドラインになっていると感じています。責任や公平性、包摂性を担保しようとした際に、今のマーケットに資するような流れになるのか。あるいは時期尚早なのかについて、山本先生の所感をお聞きしたいです。
山本
AIの利用というのは、もちろんメリットもありますが、自由や民主主義にとって重要な影響を与えるものです。その基本的な「あり方」をガイドラインで決める、ということでよいのかはもっと真剣に議論されてよいでしょう。憲法は、私たちの代表機関である国会を「唯一の立法機関」としています。諸外国でも、枠組み立法については少なくとも議会がつくる、という流れになっていくと思います。私は、原則的な考え方、それから、ハイリスク領域については法律を規定し、規制に実効性をもたせるべきだと考えています。透明性の確保も、ガイドラインで本当に実効性をもって運用できるかは疑問です。先ほどもお話ししましたが、透明性の確保は、それによって責任を果たさない企業がマーケットにおいて批判の対象になるという点でも重要です。
西村
博報堂DYグループとしても、徹底して生活者に寄り添い、生活者の視点を価値創造の起点とするという考え方がありますので、生活者にとって害となるようなアルゴリズムが市場から淘汰されていくことはポジティブに捉えています。
山本
生成AIが発展した社会において、生活者にとってのウェルビーイングをどう定義していくかが根本的に問題になると思うんですよね。「刺激的なものを見つづける快楽」をウェルビーイングと捉えるのか。または、アディクティブ(中毒性、依存性)的なものとして否定的に捉えるのかは真剣に検討すべきでしょう。この問題は、快楽計算を重視する功利主義をとるのか、多様性を重視する規範的な正義論をとるのかという哲学的な問いにも帰着します。

生成AIとほどよい距離感を保ち、「アイロニカルに嗤える」意識づけが重要

西村
最後に、これからAIがさらに進化していったときの、生活者や暮らしの変化に対する期待についてお伺いできればと思います。
山本
アテンションエコノミーを批判的に論じると、「山本は道徳主義者か」などと突っ込まれたりするのですが、私も怪しいコンテンツが好きなので、そういうものが情報空間から消えてなくなればよいとは思いません。バランスよくさまざま情報を摂取する、という考え方には、怪しいものも「食べる」という考え方も含まれています。「水清ければ魚棲まず」で、お行儀のよい、きれいな言説だけではかえって不健全です。重要なのは「免疫」をつけるということ。そうすれば、怪しいコンテンツも安全に面白がれます。怪しいフェイクニュースも、盲信するのではなく、笑い飛ばせばいいですし、生成AIが出力したものも、適切な距離をとって面白がればいい。怪しいものは削除する、というのではなく、透明性によってそれが「怪しいもの」として認識でき、エンターテインメントのひとつとして消化されていくのが理想だと思いますね。「アイロニカルに嗤える」ようなカルチャーができればいいなと感じています。
クロサカ
生成AIに限らず、デジタル空間におけるリテラシー問題は、昔から指摘されていることでした。しかし、個々のリテラシーを向上させるのには限界があり、一方で産業に対して厳しめに見ると、今度は消費者保護の話が出てきます。消費者保護には、顧客の知識や経験、目的に照らして不適当な取引を行なってはならないという適合性原則と、その上で責任能力があると認められた消費者であればサービスに係る一定のリスクを引き受けられるという自己責任原則を対で考えるという基本原則があるわけですが、生成AIとアテンションエコノミーによる悪循環が発生するとなると、消費者保護の観点で規制を強めたりする必要性は出てくるのでしょうか。

山本
私のバックグラウンドは憲法学なので、基本線としては個人の自己決定を重視したいと考えています。ですから、パターナリズムに全面的に依拠したかたちで「保護」するというのは警戒的にみています。ただ、現状は、自律的な意思決定を行う前提が崩壊している。「どんなロジックで、どんな情報を食べさせられているのか」がそもそもわからない。一流料理人がつくったオーガニックなスープですよ、と出されたものが、本当は人工添加物が多用されたレトルトのスープかもしれない。ですので、自律的な意思決定を支援するための制度は必要だと思っています。「オリジネーター・プロファイル」(ネット上のニュース記事や広告などの情報コンテンツに、それらのコンテンツ作成者やサイト運営者、広告主などの発信者(オリジネーター)の実在性と信頼性を確認できる情報を紐づける技術)など、「食品表示」と同様の思考に基づいた「情報表示」は重要になるのではないでしょうか。自律的な情報摂取をサポートするための仕組みです。事業者側が生成AIのシステムやサービスを利用する際に、ユーザーに、例えば「このコンテンツは生成AIが作成しています」といった表示を明記させることも重要でしょう。ただ、どこまで「情報的健康」を取り入れるかは経営判断になるので、アーキテクチャとしてふんだんに取り入れる企業とそこそこの企業が存在し、市場的選択の余地を残すことも鍵になるでしょう。
sending

この記事はいかがでしたか?

送信
  • 山本 龍彦氏
    山本 龍彦氏
    慶應義塾大学大学院法務研究科 教授
    1976年生まれ。慶應義塾大学法学部卒業。慶應義塾大学法学研究科博士課程単位取得退学。慶應義塾大学博士(法学)。慶應義塾大学グローバルリサーチインスティテュート(KGRI) 副所長。総務省「プラットフォームサービスに関する検討会」委員、経済産業省「データの越境移転に関する研究会」座長、総務省「ICT活用のためのリテラシー向上に関する検討会」座長、総務省「デジタル時代における放送制度の在り方に関する検討会」委員、内閣府「消費者委員会」委員なども務める。主な著書に『デジタル空間とどう向き合うか』(日経BP、共著)、『憲法学のゆくえ』(日本評論社、共編著)、『おそろしいビッグデータ』(朝日新聞出版)、『AI と憲法』(日本経済新聞出版社)、『憲法学の現在地』(日本評論社、共編著)など。
  • クロサカ タツヤ氏
    クロサカ タツヤ氏
    慶應義塾大学大学院政策・メディア研究科 特任准教授
    株式会社 企(くわだて) 代表取締役
    慶應義塾大学大学院政策・メディア研究科修了。
    三菱総合研究所を経て、2008年に株式会社企(くわだて)を設立。
    通信・放送セクターの経営戦略や事業開発などのコンサルティングを行うほか、総務省、経済産業省、内閣官房デジタル市場競争本部、OECD(経済協力開発機構)などの政府委員を務め、5G、AI、IoT、データエコノミー等の政策立案を支援。
    公正取引委員会デジタルスペシャルアドバイザー。
    Trusted Web推進協議会タスクフォース座長。
    オリジネーター・プロファイル技術研究組合事務局長。
    近著『5Gでビジネスはどう変わるのか』(日経BP刊)、『AIがつなげる社会』(弘文堂・共著)他。
  • 博報堂DYホールディングス
    マーケティング・テクノロジー・センター 室長代理
    株式会社Data EX Platform 取締役COO
    The University of York, M.Sc. in Environmental Economics and Environmental Management修了、およびCentral Saint Martins College of Art & Design, M.A. in Design Studies修了。
    株式会社博報堂コンサルティングにてブランド戦略および事業戦略に関するコンサルティングに従事。株式会社博報堂ネットプリズムの設立、エグゼクティブ・マネージャーを経て、2018年より博報堂DYホールディングスにて研究開発および事業開発に従事。
    2019年より株式会社Data EX Platform 取締役COOを務める。2020年より一般社団法人日本インタラクティブ広告協会(JIAA)にて、データポリシー委員会、Consent Management Platform W.G.リーダーを務める。