KaniTTS2 — 3GB VRAMでボイスクローニング可能なオープンソースTTSモデル

KaniTTS2 — 3GB VRAMでボイスクローニング可能なオープンソースTTSモデル

4億パラメータの軽量TTSモデルKaniTTS2がオープンソースで公開されました。3GB VRAMでボイスクローニングが可能で、 事前学習コードも完全公開。音声AI民主化の新たなマイルストーンです。

概要

音声合成(TTS)技術はこれまで大規模モデルと高性能GPUを必要としてきました。しかしKaniTTS2の登場により、この参入障壁が大幅に下がりました。わずか4億個(400M)のパラメータ3GB VRAMだけでリアルタイムボイスクローニングが可能なこのモデルは、音声AI民主化の最新事例として注目されています。

nineninesix-aiチームがApache 2.0ライセンスで公開したこのプロジェクトは、事前学習(pretrain)コードまで完全に公開しており、誰でも独自のTTSモデルをゼロから学習できる環境を提供します。

KaniTTS2の主要スペック

項目仕様
パラメータ数400M(BF16)
サンプルレート22kHz
GPU VRAM3GB
RTF(Real-Time Factor)~0.2(RTX 5090基準)
学習データ約10,000時間の音声データ
学習時間8x H100で6時間
対応言語英語、スペイン語(追加言語対応予定)
ライセンスApache 2.0

RTF(Real-Time Factor)0.2とは、1秒の音声生成に0.2秒しかかからないことを意味し、リアルタイム会話型ユースケースに十分な性能です。

なぜKaniTTS2が重要なのか

1. 極限の軽量化

従来の高品質TTSモデルは数十億パラメータと10GB以上のVRAMを要求することが多かったです。KaniTTS2は400Mパラメータでこれを実現し、コンシューマー向けGPU(RTX 3060レベル)でも動作可能です。

2. 完全なオープンソース事前学習フレームワーク

モデルの重みだけでなく、事前学習コード全体が公開されています。これにより以下が可能になります:

  • 少数言語のためのTTSモデル学習
  • 特定ドメイン(医療、法律など)に特化した音声モデル構築
  • 特定のアクセントや方言に合わせたカスタマイズ

3. ボイスクローニング内蔵

別途のファインチューニングなしでもボイスクローニング機能が内蔵されており、参照音声サンプルさえあれば、その話者の声でテキストを音声に変換できます。

アーキテクチャと学習プロセス

graph LR
    A[テキスト入力] --> B[テキストエンコーダ]
    B --> C[KaniTTS2 Core<br/>400M params]
    D[参照音声] --> C
    C --> E[音声デコーダ]
    E --> F[22kHz 音声出力]

学習は約10,000時間の音声データを使用し、8台のH100 GPUでわずか6時間で完了します。これは大規模TTSモデルの学習が数日から数週間かかることと比較すると非常に効率的です。

はじめ方

HuggingFaceからモデルをダウンロード

KaniTTS2は2種類のモデルを提供しています:

  • 多言語モデル(Pretrained):英語、スペイン語対応
  • 英語専用モデル:ローカルアクセントまで対応する英語特化モデル
# HuggingFaceからモデルをダウンロード
# 多言語モデル
git clone https://huggingface.co/nineninesix/kani-tts-2-pt

# 英語専用モデル
git clone https://huggingface.co/nineninesix/kani-tts-2-en

HuggingFace Spacesでデモ体験

インストールなしでブラウザから直接体験できます:

独自モデルの学習

事前学習コードを活用すれば、独自のTTSモデルをゼロから学習できます:

# 事前学習コードをクローン
git clone https://github.com/nineninesix-ai/kani-tts-2-pretrain
cd kani-tts-2-pretrain

# 環境設定と学習開始
# 詳細はリポジトリのREADMEを参照してください

軽量TTSモデル比較

最近、ローカルで実行可能なTTSモデルが続々と登場しています:

モデルパラメータVRAMボイスクローニングオープンソース学習コード
KaniTTS2400M3GB
Bark~1B6GB+
XTTS v2~500M4GB+部分的
Piper~60M<1GB

KaniTTS2の差別化ポイントは、ボイスクローニングと完全な事前学習コードを同時に提供しながらも軽量モデルを維持している点です。

音声AI民主化の意義

KaniTTS2の公開は単なるモデルリリースを超え、音声AI民主化の重要なマイルストーンです:

  1. 少数言語のサポート:事前学習コードの公開により、少数言語コミュニティが独自のTTSモデルを構築できます
  2. コスト障壁の除去:3GB VRAMで十分なため、高価なGPUなしでもボイスクローニングが可能です
  3. 研究の加速:完全な学習パイプラインの公開はTTS研究の再現性と発展速度を高めます
  4. 個人のプライバシー:クラウドAPIの代わりにローカルで実行できるため、音声データのプライバシーが保証されます

結論

KaniTTS2は「小さくても強い」モデルの典型を示しています。400Mパラメータでボイスクローニングまで可能なこのモデルは、大型モデルだけが高品質音声合成を提供できるという通念に挑戦します。

特に事前学習コードの完全公開は、音声AIエコシステム全体にポジティブな影響を与えると予想されます。少数言語のサポート、特定ドメインの最適化、そしてパーソナライズされた音声アシスタントの構築など、多様なユースケースが期待されます。

ローカルAIがますます強力になる今、KaniTTS2は音声AI分野でも「ローカルファースト」が現実になりつつあることを証明しています。

参考資料

他の言語で読む

この記事は役に立ちましたか?

より良いコンテンツを作成するための力になります。コーヒー一杯で応援してください!☕

著者について

JK

Kim Jangwook

AI/LLM専門フルスタック開発者

10年以上のWeb開発経験を活かし、AIエージェントシステム、LLMアプリケーション、自動化ソリューションを構築しています。Claude Code、MCP、RAGシステムの実践的な知見を共有します。