フォーム読み込み中
生成AI(大規模言語モデル:LLM)の普及に伴い、コストや応答遅延といった課題が浮上しています。
チャットボットや文書の要約、会議録の自動生成などで膨大なデータを取り扱うため、この問題は避けられません。これを解決する技術として注目されているのが「コンテキストキャッシング」です。
本記事では、「コンテキストキャッシング」の基本概念やGoogle Cloud Vertex AI (Gemini)とAnthropic (Claude)の機能比較、そして、代表的なユースケースについて解説します。業務の効率化とコスト削減を目指す企業必見の内容です。
次回【後編】では、より詳しい 具体的なコスト比較 や サンプルコードを用いた実装ポイントの解説および導入時のノウハウ を掘り下げます。
チャットボットを通じたカスタマーサポートの自動化、大量の契約書や技術文書の一括要約、会議音声からの議事録自動生成など、多種多様なシーンで LLM が価値を発揮するようになりました。
しかし、これだけ普及した生成AIですが、常にコストやレイテンシの問題がつきまといます。一般的に、LLM はプロンプトとして大量のテキスト、および、マルチモーダル(画像・音声・動画・PDFなどのファイル)を送るほど料金が増え、応答までの時間も延びやすい構造になっています。
このような負担を軽減するための技術として注目されているのが「コンテキストキャッシング (Context Caching)」 です。
コンテキストキャッシングとは、一度処理した大きな文脈(コンテキスト)をLLMベンダーのシステム上に保存し、2回目以降はキャッシュを参照することです。コンテキストキャッシングを活用すると、インプットトークン課金を削減しながらレスポンス時間も短縮できるとして活用され始めています。
本記事(前編)は、コンテキストキャッシングの基本的な概要と、Google Cloud Vertex AI (Gemini) と Anthropic (Claude) という 主要LLMプロバイダー 2 社 の機能・料金・得意分野を比較することを目的としています。
どういった仕組みでコストやレイテンシが下がるのか
なぜマルチモーダル(画像・動画・音声)が注目されるのか
LLMプロバイダーごとの価格差・機能の違いは?
などを整理します。
次回【後編】では、より詳しい 具体的なユースケース や 実装方法、導入時のノウハウ を掘り下げます。
自社の業務で LLM を活用してみたい方、すでに運用しているが課題を感じている方にとって、少しでも役立つ情報となれば幸いです。
LLM は、通常の Web サービスとは異なり、「プロンプト」と呼ばれる入力全体を毎回まるごとモデルに送信することで応答を得ます。例えば、製品カタログ情報や過去問い合わせの履歴を、チャットボットに都度与えるようなケースを想像してみてください。製品カタログが膨大だったり、PDF 文書が数百ページあったりすると、それをトークン化して全部送るだけでもかなりの費用がかかります。
さらに、映像や音声といったマルチモーダル情報を取り扱おうとすると、プロンプトサイズが爆発的に膨れあがり、レイテンシの増大や月々の請求額高騰につながります。
コンテキストキャッシング は、何度も使う文脈データをまとめてクラウド上のキャッシュ領域に保存し、再度同じインプットデータを送信する必要があるときに、 キャッシュ ID を指定して model を呼び出すことで、2回目以降のインプットトークンコストを削減することができます。
たとえば、以下のようなイメージです:
初回
プロンプトに含まれる大容量テキスト(製品マニュアル、法令文書)や、画像が大量に含まれた容量が大きいPDFファイル・画像・動画・音声データなどをキャッシュ化
固有のキャッシュ ID が発行される(例: 契約しているGoogle Cloud のプロジェクト内でのみ機能するunique keyのようなもの)
2回目以降
同じ情報を再送する代わりに、モデルのAPI呼び出し時に「このキャッシュ ID を使って」とモデルに伝えるだけで済む(技術的には model を初期化(init)する際に、cachedContent のオブジェクトを作成し、それを modelにわたすイメージ)
モデル側(厳密にはモデルと連携するコンテキストキャッシュエンジン)が事前に保存した文脈データを自動で参照する
こうすると、大量データを毎回送らなくてよい分、トークン課金 が削減でき、レイテンシ も改善される可能性が高いのです。
続いて、コンテキストキャッシングに類似する機能を提供するベンダー(Google Cloud / Anthoropic)の機能差分を比較してみます。以下表では具備している基本機能を同列で比較していますが、定義が完全に一致しているわけではない点にご留意ください。
項目 | Vertex AI Gemini コンテキストキャッシング | Claude Prompt Caching | 補足 |
|---|---|---|---|
提供元 | Google Cloud | Anthropic | |
マルチモーダル対応 | テキスト/画像/動画/音声をサポート 最大200万トークンの大規模コンテキストを扱える | 画像は対応可だが、動画・音声は未対応または限定的。テキスト中心ユースケースに特化 | |
キャッシュ書き込みコスト | 通常の入力トークンの1/4のコスト。つまり、キャッシュに書き込まれたデータを用いて分析を行うと、入力時のインプットトークンが1/4の価格になり割安で利用できる。Vertex AI Geminiではモーダル毎に単価が設定されており、かつ12.8万トークン以上かそれ未満か、モデルがGemini 1.5 proか 1.5 Flashかによって単価テーブルが異なるため詳細な金額計算は後編にて解説 | Claude 3.5 Sonnet なら $3.00 → キャッシュ作成 $3.75/1Mトークン など |
|
キャッシュ読み取りコスト | - | キャッシュからの読み取り:基本入力単価の 10% | *1
|
ストレージ保管料 | 例:Gemini 1.5 Proのテキストキャッシュのケース: 1k charactersあたり 1時間 $0.001125 (数時間~数日保持するなら、それなりに費用が積もる可能性あり) | TTL は標準 5 分 (アクセスがあると延長)。長時間の保管を想定していないため、明示的なストレージ課金は設定されていない | *2
|
TTL (Time To Live) | 60分~7日間といった分単位で調整可能 (自由度が高い) | 固定 5分。アクセスが継続すれば延長される仕組み | |
対象モデル | Gemini 1.5 Pro / Flash など、Google Cloud Vertex AI が提供するモデル全般 | Claude 3.5 (Sonnet/Opus/Haiku) 系列 | |
セキュリティ・管理機能 | IAM, VPC Service Controls との統合、Audit Logs などエンタープライズ向けセキュリティが充実 | Anthropic 独自APIでの制御が中心。大企業導入例は増加しているものの、Google Cloud のような成熟度には若干届かない印象 | |
ユースケース適合性 | 動画・音声含む大規模コンテキストを扱いたい企業に好適。エンタープライズレベルの管理/監査や長期間のキャッシュ保持にも対応しやすい。 | 短いTTLを活かしたチャット形式や法律/コードレビューなど、テキスト中心の反復利用に大きな強み。大量アクセス時のコストを抑えやすい |
*1 キャッシュ読み取りコスト
読み取りコストが安いため、高頻度再利用に強い
*2 ストレージ保管料
Gemini 1.5 Flashの場合は、1k charactersあたり 1時間 $0.00025
上の表を見るだけでも、両者の設計思想や得意領域がハッキリ違うことがお分かりいただけると思います。動画や音声まで丸ごとキャッシュしたいなら Gemini が有力ですし、逆に 短時間に大量のテキスト問い合わせ が発生するチャットボット運用なら Claude のほうがコスパが良いかもしれません。
さて、こうした理論面の話を聞いて「自社には関係なさそうだな...」と感じられる方もいらっしゃると思います。ここでは、実際にコンテキストキャッシングが効果を発揮しそうなユースケースを 4 つ取り上げ、少し具体的にイメージできるようにしたいと思います。ご自身の会社の業務に似たシチュエーションがないか、自社のユースケースを想起しながら確認いただければと思います。
製造業、特に自動車部品や精密機器を取り扱う業界では、技術仕様書や組立手順書が膨大 になりがちです。1 つの製品に対して数百ページもの PDF が存在し、不具合解析や検査工程で同じ情報を AI に繰り返し送ってしまっていることで、無駄なコストが発生するケースは珍しくありません。そこでコンテキストキャッシングを利用することで、不必要に重複した仕様書や手順書でトークンを消費しなくて済みます。
製品マニュアル、組立手順、検査基準をキャッシュ化
同じ内容を 2 回目以降に参照するときはプロンプトを大幅に短縮
画像や動画(検査工程を撮影したもの)も一緒にキャッシュしておけば、1 度解析したデータを何度も活用可能
このように再送信が多いユースケースがあるならば、うまく機能を活用することで、簡単にコスト圧縮ができるでしょう。また、動画や音声が多いなら Gemini、文字主体の工程表や PDF に特化するなら Claude も選択肢という形になります。
銀行や証券会社、保険会社などの金融機関では、契約書や法令文書 を何度も解析・要約・比較する機会が多いのではないでしょうか。特に、同じ条文や同じ雛形ドキュメントを日常的に参照することが多いため、キャッシュの再利用回数が自然と増える という特徴があると推測できます。
長大な PDF (欧州金融規制など 500 ページ超) をキャッシュ化
行内で複数部門が同じ文書を参照する際に、キャッシュオブジェクトを利用
初回のキャッシュ作成コストはかかるが、そのあとの「キャッシュ読み取り」が非常に安くなる (Claude なら入力単価の 10%)
法務部門やコンプライアンス部門が同じ文書を何度も読み込むような環境では、LLMと繰り返しのやり取りが繰り返されるたびに課金が膨らみがちです。その点、Anthropic (Claude) は書き込み時こそやや高いものの、読み取り時が非常に安いのとストレージコストがGeminiほどかからないため、このようなユースケースでは大幅なコスト削減が見込めるかもしれません。
コンテキストキャッシングが最も効果を発揮しやすい業種業態と言っても過言ではないでしょう。テレビ局やネットメディアが 動画コンテンツ を分析・調査・要約するようなケースでは、やはり同じ映像を何度もLLMに送信するケースがあります。
ある 1 時間番組の素材を複数メンバーで編集するとき、毎回同じ動画ファイルを 生成AI に送るのは非効率的なので、コンテキストキャッシングで動画のキャッシュオブジェクトを作成し、所定期間保管
編集期間(例えば、5日間)が終わるタイミングでTTLが終了するように設定することで、動画ファイルの膨大なインプットトークンを大幅にコストカット
上記のユースケース例では、Google Cloud (Gemini) のマルチモーダルコンテキストキャッシュ機能が活きるはずです。動画ファイルそのものをキャッシュしておけば、複数スタッフが同じ番組を繰り返し生成AIで分析するコストの無駄が省けます。もちろんストレージ費用との兼ね合いは要検討ですが、そこはTTLの期間設定機能をうまく活用し、5日間の編集期間をTTLとして設定しておけば、編集が完了するタイミングには自動的にストレージからキャッシュが削除されるので、不必要にコストがかかることもなくなります。よって、「短期間の間で集中的に動画や音声などの複数モーダルを活用して編集を行うような作業」にはGeminiが最適であると言えるでしょう。
多くの企業のケースではPDFなどの文書全文を送るのではなく、コスト・速度面を重視し、社内ファイル検索をRAGで実現しているケースもあると思いますが、思ったよりも回答精度が悪いという声も耳にします。そこで、PDFファイルをキャッシュし、キャッシュオブジェクトを全従業員間で利用することで、社内文書からの回答(RAG)に対して、異なるアプローチから一定の精度改善効果が見込めるかもしれません。
社内の FAQ やマニュアル、規約文書が大量にあって、RAG機能で参照している。しかし、思ったより回答精度が良くないため、PDFファイル自体をキャッシュ化
従業員から類似した問い合わせがあるうちは、キャッシュオブジェクトから回答を生成する
チャットボットが同じベース情報を日々使うなら、その部分を丸ごとキャッシュに置き、ユーザーの質問に応じてキャッシュ ID を活用すれば、トークン課金を一気に抑えられるでしょう。Anthropic (Claude) の場合は、キャッシュの TTL が 5 分と短いですが、複数従業員からのチャットで連続アクセスが続くなら十分活用できる設計です。
コンテキストキャッシング は、LLM における「繰り返し使う文脈」をまとめて保存し、2回目以降の再送を省略し、コストとレイテンシを削減できる
Google Cloud (Gemini) と Anthropic (Claude) はいずれもキャッシング機能を提供するが、マルチモーダル対応 や 料金体系、TTL の設計、名称に大きな違いがある。
製造業・金融業・メディア業・社内ポータルなど、多数の領域でコスト削減とレスポンス向上が見込まれる。また、あくまでも一例であり、あらゆるケースでLLMへ送信するユースケースで活用が見いだせる
もし「うちの会社の業務にも活かせそう」という感触が少しでもあれば、後編記事をぜひご覧になり、導入の第一歩 として検討してみてください。短時間かつ大規模に問い合わせが発生する業務であればあるほど、コンテキストキャッシングによるメリットが顕著に表れるかもしれません。
次回の【後編】では、もう一歩進んだ コスト比較 や 実際のサンプルコード をご紹介していきます。
後編を読めば、より 具体的な運用像 が頭の中に描きやすくなるはずです。ぜひお楽しみ!
Vertex AI Search を使って社内文書検索環境(RAG)を構築してみませんか?ソフトバンクのエンジニアが構築をサポートします。
Vertex AI DIY プランでは、以下の3つのことをご体験いただけます。詳細は、関連サービスにある「Vertex AI DIYプラン」をご確認ください。
条件に該当するページがございません