ローカルLLMでプライベートMCPサーバーを構築する — Gemma 4 + FastMCP 完全オフラインAIツールガイド
Ollama + Gemma 4 + FastMCPで、インターネットなしで動作するオフラインAIツールパイプラインの構築方法。 医療・法律・金融環境でデータを外部に送らずMCPツールを使う実践実装ガイド。
Ollama + Gemma 4 + FastMCPで、インターネットなしで動作するオフラインAIツールパイプラインの構築方法。 医療・法律・金融環境でデータを外部に送らずMCPツールを使う実践実装ガイド。
Git WorktreeとClaude Codeを組み合わせて複数機能を同時開発する方法。Plan Mode活用、セッション分離、競合なし並列作業パターンを実際に試した経験をもとに解説します。
Python FastMCPでMCPサーバーをゼロから構築する実践チュートリアル。Streamable HTTPトランスポートの設定、ツール実装、Claude Code連携まで実際に試した経験をまとめました。
NousResearchのHermes Agent v0.7.0をインストールしてみた。タスク完了ごとにスキルドキュメントを自動生成し、 次回実行時にそれを参照する自己進化ループが実際に機能するか確認した記録。
AnthropicがSWE-bench 93.9%を達成したClaude Mythos Previewを一般公開しないと決めた。 27年前のOpenBSD脆弱性まで発見したこのモデルは、Project Glasswingを通じて12社にのみ提供される。 これは本当の責任感か、それとも巧みなマーケティングか。
GoogleがApache 2.0で公開したGemma 4をOllamaで実際にインストールし、日本語・構造化出力・関数呼び出しまでテストした。 9.6GBのローカルモデルがエージェントパイプラインのビルディングブロックになり得るのか?