おすすめ検索キーワード
迫りくるAGI時代 人と言葉の「進化と可能性」を問う
TECHNOLOGY

迫りくるAGI時代 人と言葉の「進化と可能性」を問う

今、勢いのあるAIスタートアップを紹介し、そのトップランナーと語り合うシリーズ対談「Human-Centered AI Challengers」の第1回は、ストックマーク株式会社代表取締役CEO 林 達氏をゲストに迎え、Human-Centered AI Institute代表・博報堂DYホールディングス執行役員Chief AI Officerの森正弥と同R&Dグループマネージャー熊谷雄介が鼎談を行った。日本発のビジネス特化型LLMの可能性を中心に、AIがもたらす未来について、各分野のスペシャリストたちが語り合った。

AIでより正しい意思決定を促したい

林さん、まずはストックマーク創立に至るまでの経緯、そしてご自身のキャリアにおける転換点についてお聞かせください。
私のキャリアの転換点には、3つの大きな出来事があります。まず、起業家である両親の影響で、私も自然と起業を志向するようになりました。

2つ目は、伊藤忠商事での経験です。大企業でのビジネスを学ぶ中で、50億円、100億円規模の意思決定が、膨大な情報収集とテキストワークに基づいているにも関わらず、必ずしも最適な結果に繋がっていないという現実を目の当たりにしました。AIとデータを駆使してより良い意思決定を支援するサービスが必要だと痛感したのです。

そして3つ目が、大学時代の友人との再会です。東大情報理工出身で機械学習・ディープラーニングを研究していた有馬と、ビジネス経験を積んだ私。互いの強みを活かし、私がビジネスサイド、彼がCTOとして技術サイドを担う形でストックマークを創業しました。

熊谷さんは現在どのような領域に注力されているのですか?

熊谷
私は2015年に博報堂DYグループに中途入社し、2024年4月からHuman-Centered AI InstituteのR&Dグループでグループマネージャーを務めています。前職は通信系の研究所で、機械学習による購買・需要予測、ユーザ行動理解の研究に携わっていました。

現在はLLMやVLM(画像とテキストを同時に扱う基盤モデル)の研究開発に取り組んでいます。例えば、LLMに「あなたは幼稚園児です」と指示を与え、幼稚園児の知識レベルで問題を解かせるという実験などを通して、AIの能力の限界や特性を探っています。面白いことに、英日翻訳タスクを与えると、本来なら幼稚園児は英文を理解できないはずなのに、LLMは口調だけ幼稚園児風でありながら、内容は完璧に翻訳してしまうのです。口調と能力の区別がついていないという興味深い現象が見られます。

LLMの限界を如実に示す研究だと思っています。LLMはある立場を演じる際に、表面的な言葉の選択だけで振る舞っており、どのような知識や理解がその立場ならありうるかと推察できているわけではない。人間は相手の立場にたった模倣ができますが、LLMは表面的な模倣しかできない。この違いには大きな意味が隠されていると感じます。

効率化より価値創造にフォーカス

ストックマーク社のミッション「価値創造の仕組みを再発明し、人類を前進させる」に込められた想いをお聞かせください。
IT業界では、効率化ばかりが重視されがちで業務プロセスを導入して人件費や時間を削減することが価値と見なされますが、それだけでは真の成長、GDPの向上には繋がりません。私たちは、AIによって売上向上や新規事業創出といった「価値創造」にこそフォーカスを当て、社会を前進させたいと考えています。

最初のサービス「Anews」は、「ビジネス版のGoogle」を目指し、膨大な上に日々増加し続けるビジネスに必要な情報を効率的に収集できるツールとして開発しました。従来型の新聞や業界誌ではカバーしきれないWeb情報に着目し、単なる情報収集だけでなく、そこから価値を生み出す仕組みを提供しています。

情報検索をやっていて面白いと感じるのは、ユーザーの検索クエリの意図と完全に一致する結果だけを出すと、かえって効果が低いケースがあることです。あるインターネット企業におけるECの検索エンジンの研究の際、検索クエリの意図を読んだうえでそれにマッチする商品を提示するようにしていたのですが結果として売上が下がるということが起こった。むしろ検索クエリの意図とは異なるような間違った結果も表示した方がコンバージョンはよかった。検索結果に対して、ある程度の「揺らぎ」や「セレンディピティ」が大切なんですね。

まさにその通りです。情報の選別を柔軟に調整する工夫をしています。キーワードで厳密に情報を抽出するだけでなく、あえて少し範囲を広げて関連性の高い情報も提示することで、ユーザーに新たな視点を提供しています。また、組織内の他のメンバーが閲覧した情報も参照できるため、自分と近い思考を持ちつつも異なる視点の情報にも触れることができるのです。
ユーザーとのインタラクションについては、どのような工夫をされていますか?
例えばチャットのような対話形式を採用し、ユーザーが思いつかない関連質問を提示することで、思考を深めるよう後押しをしています。また、積極的に聞き返しをする機能も実装し、人間の思考を助けるようなインタラクションを実装しています。さらに使い込むほどにシステムがユーザーにパーソナライズされ、自分や組織内に蓄積された情報の中から最適な情報が提示されるようになります。
パーソナライズは検索の利便性や発展性を進化させている肝となる機能の代表格であり、今現在のインターネットサービスの核であるともいえます。一方で、情報接触におけるパーソナライズがエコーチェンバー問題(情報が偏る現象)も引き起こしているという指摘も強いです。その対策はどのようにされていますか?
私たちは「絞り込みすぎず、広げすぎず」をモットーにバランスを重視しています。ユーザーが直接求めている情報はキーワード検索で提供し、パーソナライズを行う際も特定のクラスターに偏らないよう、統計的に複数のクラスターを作成・分散させています。組織を超えた情報も積極的に取り込むロジックを組み込み、データサイエンスチームが常に分析・改良を続けています。

日本初ビジネス特化型LLMへの挑戦

熊谷
LLM開発についても伺いたいです。当初から自社で言語モデルを開発する計画だったのでしょうか?
最初はBERT(Bidirectional Encoder Representations from Transformersを略した自然言語処理モデル)を作りました。ニュースデータを使った学習は、データのカテゴリによって精度が変わるため、独自モデルが必要でした。 ChatGPT登場後も、計算資源の制約で即時開発は難しく、経産省のGENIACの支援とAWSの協力を得て、本格的な開発に着手することができました。

私たちの強みは、7~8年かけてビジネスに特化したWeb情報を収集・構造化してきたことです。このデータを学習させることで質の高いビジネス特化型LLMを作れるという仮説のもと開発を進めました。

熊谷
LLM開発の手法としては、ゼロからモデルを構築する方法と既存のモデルに継続事前学習を行う方法がありますが、どちらが有効でしょうか?
私たちは両方試していますが、継続事前学習だと元のモデルの性格が残り、知識や振る舞いを完全にコントロールできないという課題があります。特化したユースケースを目指すなら、コストはかかりますが、ゼロから構築する方が最終的な精度は高くなると考えています。学習データについても、不要なデータが多すぎると回答の精度が低下するため、特化領域の知識のみを学習させる方が効果的です。
スタンフォード大学が「s1」が、データ選定の重要性を示しましたね。大量データ学習から、質の高いデータを選別し、最適化型・特化型モデルを開発していくという方向にAI開発のトレンドも広がりを見せていると感じます。

AIのハルシネーションも課題です。これはAIの嘘をではなく、人間の質問の仕方に起因する場合もあります。「米国の有人月面探査計画」ではアルテミス計画を正しく回答しますが、「各国の有人月面探査計画」だとハルシネーションを起こす。「各国が計画している」という前提が質問に含まれているためです。
その通りです。人間が気づかない前提をAIが受け入れてしまうと、ハルシネーションが発生します。私たちが独自モデルを作った際も、ファクトがないことは答えないというインストラクションチューニングに力を入れました。

一方で、あえてハルシネーションを活用するケースもあります。製造業のニーズとシーズのマッチングにおいて、一見無関係な要素同士の接点をAIに生成させると、専門家から「これは現実的ではないが、可能性としてはあり得る」といった新たなアイデアが生まれることがあるのです。

熊谷
LLMの開発において、特に国という単位で考えた時には、各社がノウハウを共有することが求められる一方で自社のノウハウも守りたいというジレンマがありますね。企業を超えた開発者コミュニティはありますか?
LLMJPやGENIACでは共通のSlackやコミュニティがあり、定期的にイベントも開催されています。経産省が主導し、支援企業も協力して業界全体での知見共有が進んでいます。

RAGのビジネスシーンでの活用とデータの重要性

RAG(検索拡張生成)のビジネスシーンでの活用について、展望をお聞かせください。
Anewsでは、ニュースだけでなく社内情報をSharePointやBoxと連携する機能も提供しています。この1年半、RAGの開発に注力してきましたが、精度の向上を阻む要因はLLMではなく、データの質にあるケースが多いと感じています。

特に日本企業では、紙資料やExcelなど複雑なフォーマットのデータが多く、LLMに適切な形で渡すパイプライン構築が課題です。現在、私たちは文書の構造を認識し、テキスト、画像、表などを適切に処理する「レイアウトモデル」の開発に注力しています。

ビジネス文書はテンプレート化されていることが多いので、定型的文章は使いまわされているだけでそこに意味がなく、例外的に記述されている部分こそが注目すべき点になりますよね。
まさにその通りです。保険契約でいえば特約部分が最も重要なのに、それを見落としがちです。私たちは、文書を意味の塊ごとに分割するチャンキング技術や、複雑な表をマークダウン形式に変換する技術などを開発しています。
熊谷
RAGが注目されている一方で、そもそも企業文化として過去のドキュメントを検索・活用するという習慣が根付いていないケースも多いのではないでしょうか。明文化されずに「これくらい知っているだろう」という暗黙の了解のみで回っている場合や、そもそも過去の資料が検索可能な状態にないために毎回はじめから作り直したりする場面もありますよね。

本当にその通りです。RAGによって企業は既存のドキュメントやデータを活用し、忘れられた強みや知見を再発見できるようになります。特に博報堂DYグループのような多様なグループ会社を持つ企業では、共通のアプローチや知見が埋もれていることが多いのではないでしょうか。
おっしゃる通りだと思います。そしてそれはまさに私たちが提唱する「人間中心のAI」でも重視することです。AIを駆使することによって、自分たちのデータや知見を再発見し、暗黙知を形式知に変え、私たち自身の潜在力を最大限活用できるように目指すことが大切です。

AIエージェントの未来像と人間中心のAI

RAGの次のステップとして、もはや人間が能動的に検索する必要のない世界が来ると思います。それがエージェントです。現状では、AIを活用できる人とそうでない人の差が広がりつつあります。エージェントによって全員が恩恵を受けられる環境を整えることが大切です。
熊谷
AIエージェントについて社内でも議論がありますが、人によって考え方が違います。「ランプの魔人」のような万能な存在を期待する人もいますが、林さんはどのようにお考えですか?
基本的には業務を完結させてくれる存在と考えています。私たちは「検索しないUX」の構築に注力しています。例えば、申請書の内容を自動チェックする機能などです。ただし、エージェントの実現にはデータの質と連携が欠かせません。複雑なワークフローへの対応も今後の課題です。

データと遊びがAIの可能性を広げる

AIの未来に向けて、どのようなことが鍵を握ると考えていますか?
データの価値ですね。派手なLLMに注目が集まりがちですが、特にBtoBではデータとLLMは切り離せません。データの構造化が資産になり、AI生成データの活用でさらにビジネスを加速させていく循環を作りたいと思っています。
熊谷
LLMの影響によりインターネット上のデータが「汚染」されているという懸念があります。例えばこれまでは英語表現の中であまり使われてこなかった「delve into(掘り下げる)」のような熟語が突然流行するなど、言語の均質化が進んでいる印象を受けます。これについてはどうお考えですか?
LLMの欠点の一つは、全てが平均値に収束し個性が失われていくことです。それを食い止めるには人間が独自性を意識的に維持することが求められます。独自の問いを立てる力や、自分なりの視点を持ち続けることが、AIと共存する未来では一層重要になるでしょう。
熊谷
それが日本語圏でモデルを開発する意義にもつながりますね。
データを蓄積し、厳選してAIを進化させていく。そして人間は独自性を持ち、それを活かす。日本語のデータを持ったAI、日本の独自性をもった活用ということの意義も大切にしていきたいです。最後に、林さんの個人的な興味や趣味についてもお聞かせください。
最近は教育に興味があります。AIの時代に、人間は何を学ぶべきかという問いです。知識のチップ化が進む中で、愛嬌や他者への共感能力がより重要になると考えています。特に小説を読むことで他者への共感力や想像力が養われ、AIとの付き合いのみならず人間関係においても役立つと考えています。
おっしゃる通り、共感する能力、他社の視点に立てる能力というのは、人間が持つ能力の中でも特にクリティカルなものだと思います。共感する能力が養われるというところで、教育と真逆かもしれませんが、遊びもあるかなと。慶應義塾大学 X Dignity センターで研究されているテーマの一つなのですが、ホモ・サピエンス(考える人)に対して、ホモ・ルーデンス(遊ぶ人)という概念があります。これは1910年代にホイジンガが提唱したもので、遊びこそが社会の仕組みを作る土台になっているという考え方です。例えば、ロールプレイによって人を理解する力や共感する力が育まれます。様々な立場を経験することで共感力が高められるように、学ぶこと、そして遊ぶことは人間らしさの核心部分なのかもしれません。
週休3日制もいいかもしれませんね(笑)。人間がAIと共存する世界では、人間にしかできない創造性や共感、遊びの価値がより高まるでしょう。
本日は三者三様の視点から、AIの未来について貴重なお話を伺うことができました。ありがとうございました。
sending

この記事はいかがでしたか?

送信
  • 林 達
    林 達
    ストックマーク株式会社
    代表取締役 CEO
    東京大学文学部宗教学科卒業。伊藤忠商事にて投資戦略策定及び事業投資、事業会社管理業務に従事。台湾出身で貿易業を営む両親の下に生まれ、幼少期を台湾、日本の往復で過ごす。学生時代には、東京大学・北京大学・ソウル大学の学生交流ネットワークにて、300名規模のフォーラムを主催。その後、東アジアの富裕層向けインバウンドサービスを提供するスタートアップを設立、大手旅行代理店との提携、行政との共同事業を成功させる。2016年、ストックマークをスタートさせ、AI✕テキストマイニングを強みとするSaaSであるAnews、Astrategy、Asalesを開発・運営中。AIによって日本企業のビジネス・プロセスを再定義し、グローバルでの競争力を高めるべく奔走中。
  • 博報堂DYホールディングス 執行役員/CAIO
    Human-Centered AI Institute代表
    外資系コンサルティング会社、インターネット企業を経て、グローバルプロフェッショナルファームにてAIおよび先端技術を活用したDX、企業支援、産業支援に従事。東北大学 特任教授、東京大学 協創プラットフォーム開発 顧問、日本ディープラーニング協会 顧問。著訳書に、『ウェブ大変化 パワーシフトの始まり』(近代セールス社)、『グローバルAI活用企業動向調査 第5版』(共訳、デロイト トーマツ社)、『信頼できるAIへのアプローチ』(監訳、共立出版)など多数。
  • 博報堂DYホールディングス
    Human-CenteredAIInstitute R&D グループマネージャー
    2015年中途入社。機械学習を用いたさまざまな研究開発に従事。