Gemini Embedding 2 — マルチモーダル埋め込みがRAGパイプラインを変える
GoogleのネイティブマルチモーダルエンベディングモデルGemini Embedding 2の核心機能と、既存テキスト専用モデル対比のアーキテクチャ変化、RAGパイプラインへの実践的な適用方法をEM視点でまとめます。
なぜマルチモーダルエンベディングなのか
2026年3月10日、GoogleがGemini Embedding 2を発表しました。「私たちの初のネイティブマルチモーダルエンベディングモデル」という説明が添えられています。テキスト、画像、動画、音声、ドキュメントを一つのベクトル空間にマッピングするモデルです。
既存のRAGパイプラインの最大の制約は、テキストしか扱えない点でした。社内Wikiにダイアグラムがあっても、製品マニュアルにスクリーンショットが含まれていても、エンベディング段階ですべて無視されていました。結果として、ユーザーの質問のコンテキストに合った情報があるにもかかわらず検索されない状況が繰り返されていました。
Gemini Embedding 2はこの問題を根本的に解決します。
Gemini Embedding 2 コアスペック
入力モダリティ
| モダリティ | サポート範囲 | 制限事項 |
|---|---|---|
| テキスト | 最大8,192トークン | 100以上の言語サポート |
| 画像 | リクエストあたり最大6枚 | PNG、JPEG |
| 動画 | 最大120秒 | MP4、MOV |
| 音声 | ネイティブ処理 | 中間テキスト変換不要 |
| ドキュメント | PDFなど複合ドキュメント | テキスト+画像混合処理 |
出力次元
デフォルト出力は3,072次元のベクトルです。ここでの核心はMatryoshka Representation Learning(MRL)を適用している点です。マトリョーシカ人形のように情報が入れ子構造で配置されており、次元を削減しても上位次元に核心情報が保持されます。
3072次元(最高精度)
└── 1536次元(高精度)
└── 768次元(汎用)
└── 256次元(軽量、モバイル/エッジ)
これが実務において重要な理由は、コストと精度のトレードオフを柔軟に調整できるためです。数百万のドキュメントをインデックスする際は256次元で一次フィルタリングを行い、上位候補に対して3,072次元でリランキングする2段階戦略が可能です。
APIアクセス経路
2つのゲートウェイを提供しています。
- Gemini API(AI Studio):プロトタイピングと個人開発者向け。無料ティアを含む。
- Vertex AI(Google Cloud):エンタープライズスケール。VPC-SC、CMEK、IAM統合。
既存エンベディングモデルとの比較
シングルモーダル vs マルチモーダル
graph TD
subgraph 既存["既存パイプライン"]
T1["テキストエンベディング<br/>(text-embedding-3)"] --> VS1["ベクトルストア"]
I1["画像エンベディング<br/>(CLIP)"] --> VS2["別途ベクトルストア"]
A1["音声<br/>(Whisper→テキスト)"] --> T1
end
subgraph 新規["Gemini Embedding 2"]
T2["テキスト"] --> GE["統合エンベディングモデル"]
I2["画像"] --> GE
V2["動画"] --> GE
A2["音声"] --> GE
GE --> VS3["単一ベクトルストア"]
end
既存アプローチの3つの問題点:
- パイプラインの複雑度:モダリティごとに別々のモデル、別々のストア、別々の検索ロジックが必要でした
- クロスモーダル検索の不可:「このダイアグラムに関連するコードを探して」という問い合わせが不可能でした
- 中間変換によるロス:音声→テキスト変換時にニュアンスとコンテキストが失われていました
主要エンベディングモデルスペック比較
| モデル | モダリティ | 最大次元 | MRL | 価格(100万トークン) |
|---|---|---|---|---|
| OpenAI text-embedding-3-large | テキストのみ | 3,072 | O | $0.13 |
| Cohere embed-v4 | テキスト+画像 | 1,024 | O | $0.10 |
| Gemini Embedding 2 | テキスト+画像+動画+音声 | 3,072 | O | 無料(プレビュー中) |
| Voyage AI voyage-3 | テキストのみ | 1,024 | X | $0.06 |
Gemini Embedding 2の差別化点は明確です。唯一4種類のモダリティをネイティブでサポートしながら、出力次元も最上位クラスで、現在プレビュー期間中は無料です。
実践適用:マルチモーダルRAGパイプライン構築
アーキテクチャ設計
graph TD
subgraph 収集["データ収集"]
DOC["社内ドキュメント<br/>(PDF、Wiki)"]
IMG["画像<br/>(ダイアグラム、スクリーンショット)"]
VID["会議録画<br/>(MP4)"]
AUD["顧客通話<br/>(音声)"]
end
subgraph エンベディング["エンベディング処理"]
DOC --> GE2["Gemini Embedding 2<br/>API"]
IMG --> GE2
VID --> GE2
AUD --> GE2
end
subgraph 保存["ベクトル保存"]
GE2 --> PG["pgvector /<br/>Pinecone /<br/>Weaviate"]
end
subgraph 検索["検索および生成"]
Q["ユーザー問い合わせ"] --> QE["問い合わせエンベディング"]
QE --> PG
PG --> RR["リランキング"]
RR --> LLM["Gemini Pro /<br/>Claude"]
LLM --> ANS["レスポンス"]
end
コード例:Python SDKの活用
from google import genai
# クライアントの初期化
client = genai.Client(api_key="YOUR_API_KEY")
# テキストエンベディング
text_result = client.models.embed_content(
model="gemini-embedding-exp-03-07",
contents=["社内セキュリティポリシー文書の核心条項"],
config={
"output_dimensionality": 768, # MRLで次元を削減
"task_type": "RETRIEVAL_DOCUMENT"
}
)
print(f"テキストベクトル次元: {len(text_result.embeddings[0].values)}")
# 出力: テキストベクトル次元: 768
# 画像エンベディング(同一ベクトル空間)
from google.genai import types
image = types.Part.from_uri(
file_uri="gs://my-bucket/architecture-diagram.png",
mime_type="image/png"
)
image_result = client.models.embed_content(
model="gemini-embedding-exp-03-07",
contents=[image]
)
# テキストと画像ベクトル間のコサイン類似度計算が可能
import numpy as np
def cosine_similarity(a, b):
return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b))
similarity = cosine_similarity(
text_result.embeddings[0].values,
image_result.embeddings[0].values
)
print(f"テキスト-画像類似度: {similarity:.4f}")
Task Type活用戦略
Gemini Embedding 2はtask_typeパラメータでエンベディングの目的を指定できます。
| Task Type | 用途 | 適用シナリオ |
|---|---|---|
RETRIEVAL_DOCUMENT | ドキュメントのインデックス化 | RAGドキュメント保存時 |
RETRIEVAL_QUERY | 問い合わせのエンコード | ユーザー検索クエリ処理時 |
SEMANTIC_SIMILARITY | 類似度比較 | 重複ドキュメント検出、クラスタリング |
CLASSIFICATION | 分類 | ドキュメント自動分類、ラベリング |
CLUSTERING | クラスタリング | トピックモデリング、グループ化 |
実務のヒント:インデックス化と検索時には必ず異なるtask_typeを使用する必要があります。ドキュメント保存時にRETRIEVAL_DOCUMENT、問い合わせ時にRETRIEVAL_QUERYを使用すると、非対称検索のパフォーマンスが大きく向上します。
EM/CTO視点:導入時の考慮事項
1. パイプラインの単純化 = 運用コスト削減
マルチモーダルエンベディング導入の最も直接的な効果はパイプラインの複雑度の低下です。
既存でモダリティごとに分離されたエンベディングパイプラインを運用していた場合:
- モデル3〜4個 → 1個
- ベクトルストア2〜3個 → 1個
- 同期ロジックの削除
- 監視対象の縮小
Google公式ブログによると、一部の顧客はレイテンシ70%削減を達成しています。
2. ベンダー依存性の評価
現在Gemini Embedding 2はGoogle専用です。マルチクラウド戦略を運用している企業であれば:
- エンベディングレイヤーの抽象化:エンベディングモデルを交換可能なインターフェースとして設計
- ベクトルフォーマットの互換性:3,072次元ベクトルは大部分のベクトルDBで互換
- MRLの活用:次元削減を通じて他のモデルとの次元マッチングが可能
3. データガバナンス
マルチモーダルデータを外部APIに送信することはガバナンス上の問題を伴います。
- Vertex AIではVPC Service Controlsでデータ境界の設定が可能
- CMEK(Customer-Managed Encryption Keys)サポート
- 会議録画や顧客通話音声はPIIマスキング後にエンベディング処理することを推奨
- Data Residency要件がある場合はリージョン選択の確認が必須
4. コストモデルの予測
現在はプレビュー期間中のため無料ですが、GA(正式リリース)後は課金が予想されます。コスト最適化戦略:
インデックス化時: 256次元(MRL)→ 保存コスト87%削減(3072比)
一次検索: 256次元ANN検索 → 高速で低コスト
二次リランキング: 3072次元精密比較 → 上位50件のみ
この2段階戦略は数百万ドキュメント規模でコストと精度を同時に最適化できます。
実践マイグレーションチェックリスト
既存のテキスト専用RAGからマルチモーダルRAGへ移行する際:
- データインベントリ:組織内の非テキストデータ(画像、動画、音声)の現状把握
- 優先順位の設定:検索失敗率の高いドキュメントタイプからマルチモーダルインデックスを適用
- ベクトルDBの互換性:既存ベクトルストアが3,072次元をサポートしているか確認(pgvector、Pinecone、Weaviateはすべてサポート)
- A/Bテスト:既存テキスト専用エンベディングとマルチモーダルエンベディングの検索精度を定量的に比較
- モニタリング:クロスモーダル検索比率、レイテンシ、エンベディングAPI呼び出し数の追跡
- セキュリティレビュー:マルチモーダルデータの外部送信に関するセキュリティ/コンプライアンス承認
まとめ
Gemini Embedding 2は単なる「新しいエンベディングモデル」ではありません。RAGパイプラインのアーキテクチャパラダイムを変える転換点です。
これまでテキストしか扱えなかった検索システムが、画像、動画、音声まで同じベクトル空間で統合検索できるようになりました。これは技術的な進歩であるだけでなく、企業の非構造化データの活用方法を根本的に変えうる変化です。
Engineering Manager視点でのコアアクションアイテム:
- 今すぐ:プレビュー期間中にGemini APIでPoC実施(無料)
- 1〜2週間以内:社内の非テキストデータインベントリを作成
- 1ヶ月以内:既存RAGパイプライン対比マルチモーダルRAGのA/Bテスト設計
参考資料
他の言語で読む
- 🇰🇷 한국어
- 🇯🇵 日本語(現在のページ)
- 🇺🇸 English
- 🇨🇳 中文
この記事は役に立ちましたか?
より良いコンテンツを作成するための力になります。コーヒー一杯で応援してください!☕