おすすめ検索キーワード
データ・クリエイティブ対談【第6弾】  AIで人を騙す、信頼を得るには。(後編) ゲスト:東京大学 鳥海不二夫准教授
TECHNOLOGY

データ・クリエイティブ対談【第6弾】 AIで人を騙す、信頼を得るには。(後編) ゲスト:東京大学 鳥海不二夫准教授

データ・クリエイティブの進化の在り方について、博報堂DYグループ社員と識者が語り合う『データ・クリエイティブ対談』。ゲストは東京大学 鳥海不二夫准教授です。前編では「人狼」ゲームへのAI技術の適用を通じて、人を騙すAIの可能性について、後編ではAIの現状や今後果たすべき役割などについてうかがいました。聞き手は博報堂DYメディアパートナーズの篠田裕之です。

★前編はこちら

技術は進化するが、人間は変わっていない

篠田
少し話が変わるんですが、私は観光案件を手がけることが多く、集団の合意形成を取るためのレコメンドシステムが作れないかと思うことがあります。複数人で旅行をしている人たちに対して、1人の興味に基づいたレコメンドよりもみんなの興味をみたすレコメンドができないかと。観光案件以外にも、自動車や家などの購入は家族で合意を取りますよね。
人狼は、まさに集団での合意形成をとるゲームかと思います。人狼知能から、何かヒントが得られないかと思っているのですがいかがでしょうか。
鳥海
人狼知能では、AI同士の関係をネットワークとして見ているものも結構います。関係性をネットワーク構造として見て、自分の味方と敵を見つけ出すエージェントですね。
ネットワーク分析の分野では、人間関係のネットワークをノードとリンクだけで表します。ただ、2人の人がいてリッチなプロフィールがあった場合でも、関係性についてはほとんど情報がないという場合が多いですね。Facebookなら「家族関係である」という情報があったりするかもしれませんが、基本的にはどんな関係なのかということを明らかにするのは非常に難しいんですよ。だからこのリンクの意味付けをするのは研究テーマとして面白いかなと思っています。
人狼とは違いますが、私の研究室では名刺管理ツールを出しているメーカーと共同でリンクの意味付けを研究しています。ビジネスの付き合いにはいろいろありますよね。単に名刺交換をしただけならその後はあまり付き合いはないでしょうし、顧問をやっている会社の人と名刺交換をした場合は1年後も密接にやり取りをしている可能性が高い。こういったことをリンクで表せれば有用です。
篠田
人狼の場合、同じ部署のメンバーでやると「上司を追放し辛い」ということを聞くことがあるんです。新人だったら追放しやすい、とか(笑)。これはスタティックな上司、部下という関係が、人狼のゲーム内の関係に影響を及ぼすということだと思うんです。鳥海先生は学生と人狼をやる時、追放されにくかったりしませんか。
鳥海
私はむしろされやすいですね(笑)。つい先日も2回連続で最初に追放されて、「またかよ!」と一人で怒ってました(笑)。
それはさておき、私はスタティックなネットワークを主に研究していますが、人狼で築くような一時的な関係は「テンポラリーネットワーク」と呼ばれ研究が盛んにおこなわれている分野の一つです。人狼の場合は規模が小さいので、ネットワークとしてもそれほど複雑なものではないですね。実社会だと規模が多くなるので、分析もその分大変になってきます。
篠田
実社会を考慮した人狼の研究というのは、テーマとしてどうでしょうか。上司と部下でやるとどうなるとか、怪しくないのに追放したくなるのは何故なのか、とか。
鳥海
信頼と一言で言っても、短期信頼と長期信頼というものがあって、人狼の時に信頼する短期信頼は、長期的な信頼とは全然別であるというように考えています。ただAIが信頼を獲得する場合、その場だけでいいのか、長期的に信頼を得ている方がいいのかは、研究すべきかもしれません。
篠田
信頼を得るためには、短期信頼、長期信頼を得るためのものなど、いろいろなエージェントを個別に使い分けていくことが必要でしょうか。
鳥海
実際にはエージェントが複数あっても、インターフェースは一つにしたほうが効率はいいでしょう。裏の仕組みが気になる人はあまりいないと思いますし。同じエージェントだと思っていても実は内部的には切り替わっているというのが現実的なところだと思います。
篠田
確かに人間でも、「この人に聞けばいろいろ教えてくれる。自分が分からない場合でも、詳しい人を紹介してくれる」といった信頼の仕方がありますよね。その人が全ての情報のインターフェースになっているような。
ブランドで考えると、信頼が熟成していって「この会社の商品なら良い」というような形になるのが一番いい。そうなれば、一つの企業がいろいろなサービスのインターフェースになることのメリットを発揮しやすいと思います。
鳥海
今の時代は技術の進化が凄く早いですが、一方で人間の本質は原始時代からあまり変わっていない部分もたくさんあります。例えば、人間は一つのものを複数の視点から多次元に評価するっていうのが苦手です。何かに対して「この部分は好きで、この部分は嫌い」といった形にはなりにくくて、そういう場合は「好き」「嫌い」のどちらかとなってしまいます。「良い人」はあらゆる点で良い人でないと気持ち悪く感じますし、「悪い人」にちょっと良いところがあると評価が逆転してしまったりします。あるいは「この人が好きだから自分も好きになろう」という判断を行うこともよくあります。こういった人の傾向は、マーケティングでは扱いやすいでしょうね。

個人の利得を最大化するためにAIを使えるようにしたい

篠田
「嘘を付く」いうことでいうと、「いい嘘」みたいなこともありますよね。個人的には、「その気にさせる」ことは大事だと思っているんです。ある服があって、今はその人には似合っていないけれども、着ているうちにセンスがバージョンアップされて似合うようになるはずだから勧める、といったような。このような、後から信頼を得たりする嘘もあるように思うんですが、いかがでしょうか。
鳥海
そうですね。レコメンデーションの場合、正解は一つではないことも多いですよね。ベスト10くらいに入っているものだったらだいだいどれを選んでも外さないだろう、とか。だとすると、ベスト10の中から選ぶ場合、一番いいものは1位のものだけど、その人のセンスを磨くために敢えて5番を選ぶ、といったことも考えられるかもしれません。
篠田
最近興味深かったのが、あるサイトに表示されていた「何人見てます」という数字が嘘だった、というものです。
もちろん正しい同時閲覧数を表示しているサイトがほとんどだと思いますが、信頼をどう得るか、を考えるきっかけになりました。「こういう言い方をすること自体が怪しい」といったケースはあるんでしょうか。
鳥海
そのサイトの例は明らかな不正でしたが、儲けるための有効なシステムではあるんですよね。
そもそも誠実さの観点からいくと、「AI」という言葉の使い方にも問題はいろいろありますからね。私は「AIを使った商品です」という場合は大体怪しいかなと思っています。だからといって「AI搭載」といったキャッチコピーが多用される現状を変えるのは難しいと思います。
ではどうするかというと、大事なのはコンシューマーのリテラシーであり、「本当にAIなのかな」と自分で考えられることではないでしょうか。例えば新しいレコメンデーションの形として、ユーザが情報を多角的に見ることができるようにする推薦の形があるんじゃないかと思っています。ITの進化はとても早いので、人間が独力でその情報を正しく処理するのは今後ますます難しくなるはずです。そういう状況でも、人間が自分自身で正しい判断をするために必要な情報をAIを使って提供することができないかと考えています。
篠田
昔はメディアごとに色があって、この新聞はこういう論調、こういうスタンスだ、といったことが理解しやすかったと思います。
今は、例えばSNSのトップ画面に流れる情報も人によって違いますし、検索サイトでの検索結果ですら最適化されている。
そのようなフィルターバブルの中で、知らず知らず考えが偏っていったり、フェイクニュースに騙されやすくなったりすると思いますので、情報を正しく判断するための多角的な視点を与える、ということは非常に重要だと思います。
また、コミュニケーションインフラも、以前であれば慎重に検討された上で設計されていたと思いますが、今は一部のギークが作ったメディアが一気に広まって、何か問題が起きてから検討する、規制するということも多いと思います。
鳥海
そうですね。いろいろなサイトができては消えていくため、問題を捉えきれない部分はあるかもしれません。私の研究テーマの一つに「未成年者のネットリスク」があります。誘い出しとかポルノなどの危険を検知してアラートを出すようなシステムを作っています。こういったことを防ぐために、企業側でも自助努力はしていると思います。ただ、こういった仕組みはうまく作ることができても利益に繋がりません。そのため、どうしても売り上げの何%までは投資できる、という上限が決まってしまうんです。企業は頑張っている姿勢を強調しますが、どこまで頑張れるかは自ずと決まってしまいます。
篠田
政府がインセンティブを出すようなことが必要でしょうか。
鳥海
そういったことが必要でしょう。政府に限らないかもしれませんが、経済学的な視点とは別のロジックで動かないと、リスク対策のシステムは広まらないと思います。単に利益を追求するだけではなく、社会から信頼を得られる仕組みにするというのはこれから重要になってくると思います。
少し前に、ある飲食店の評価サイトの評価点が「操作されている」ということが話題になったじゃないですか。こういうことが起こるのは、企業がどう信頼を得るかということと、どうインセンティブを得るかということが矛盾するようなシステムに世の中がなっているからですよね。例えばAIが算出した最適解があったとしても、それが社会的に受け入れられるものかどうかについてはちゃんと人間が判断しないと、信頼性の構築には至らないでしょうね。
こういった問題は、個人や企業の利得の最大化と、社会にとっての利得の最大化に違いがあるから生まれているので、そこで生じるジレンマをどう解決するかは社会的にも意義のある重要なテーマですね。
篠田
今日は人狼をきっかけにいろいろな話題についてお話いただきました。人狼を考えることは、社会のバランスを考えることになる、ということを感じました。ありがとうございました。
sending

この記事はいかがでしたか?

送信
  • 鳥海 不二夫(とりうみ ふじお)
    鳥海 不二夫(とりうみ ふじお)
    1976年5月生まれ。2004年、東京工業大学大学院理工学研究科機械制御システム工学専攻博士課程修了(博士(工学))、同年名古屋大学情報科学研究科助手、2007年同助教、2012年東京大学大学院工学系研究科准教授。計算社会科学、人工知能技術の社会応用などの研究に従事。
    情報法制研究所理事。人狼知能プロジェクト代表。人工知能学会、電子情報通信学会、情報処理学会、日本社会情報学会、AAAI各会員。
    「科学技術への顕著な貢献2018(ナイスステップな研究者)」
    主な著書に『強いAI・弱いAI 研究者に聞く人工知能の実像』『人狼知能 だます・見破る・説得する人工知能』。
  • 博報堂DYメディアパートナーズ
    データビジネス開発局 
    データサイエンティスト。自動車、通信、教育、など様々な業界のビッグデータを活用したマーケティングを手掛ける一方、観光、スポーツに関するデータビジュアライズを行う。近年は人間の味の好みに基づいたソリューション開発や、脳波を活用したマーケティングのリサーチに携わる。