로컬 LLM으로 프라이빗 MCP 서버 구축하기 — Gemma 4 + FastMCP 완전 오프라인 AI 도구 가이드
Ollama + Gemma 4 + FastMCP로 인터넷 없이 동작하는 오프라인 AI 도구 파이프라인 구축법. 의료·법률·금융 환경에서 데이터를 외부로 보내지 않고 MCP 도구를 사용하는 실전 구현 가이드.
Ollama + Gemma 4 + FastMCP로 인터넷 없이 동작하는 오프라인 AI 도구 파이프라인 구축법. 의료·법률·금융 환경에서 데이터를 외부로 보내지 않고 MCP 도구를 사용하는 실전 구현 가이드.
Git Worktree와 Claude Code를 조합해 여러 기능을 병렬로 개발하는 실전 가이드. Plan Mode 활용법, 독립 세션 격리 전략, Worktree 간 충돌 없는 브랜치 관리, 멀티에이전트 병렬 패턴까지, 직접 경험을 기반으로 단계별로 구체적으로 정리했습니다.
Python FastMCP로 MCP 서버를 처음부터 구축하는 실전 튜토리얼. Streamable HTTP 트랜스포트 설정, 커스텀 AI 도구 구현, Claude Code 클라이언트 연동, FastAPI 기반 배포까지 직접 구현한 경험을 단계별 코드 예제와 함께 공유합니다.
NousResearch의 Hermes Agent v0.7.0을 설치해봤다. 작업을 마칠 때마다 스킬 문서를 자동 생성하고, 다음 실행에서 그걸 참조하는 자기 진화 루프가 실제로 동작하는지 확인한 기록.
Anthropic이 SWE-bench 93.9%를 찍은 Claude Mythos Preview를 일반 공개하지 않기로 했다. 27년 된 OpenBSD 취약점까지 찾아낸 이 모델은 Project Glasswing을 통해 12개 기업에만 제공된다. 이게 진짜 책임감인지, 아니면 영리한 마케팅인지.
Google이 Apache 2.0으로 공개한 Gemma 4를 Ollama로 직접 설치해 한국어, 구조화 출력, 함수 호출까지 테스트했다. 9.6GB짜리 로컬 모델이 에이전트 파이프라인의 빌딩 블록이 될 수 있을까?