• Top
  • コラム
  • 機密情報を守りながらAI自動化を実現する ── n8n × ローカルLLM × Claude Codeの実践

機密情報を守りながらAI自動化を実現する ── n8n × ローカルLLM × Claude Codeの実践

機密情報を守りながらAI自動化を実現する ── n8n × ローカルLLM × Claude Codeの実践
n8nで業務自動化を進めたい。けれど、顧客情報や契約情報のような機密データを外部のクラウドLLMへ送るのは難しい。 そんな現場に対して有効なのが、ローカルLLMという選択肢です。 本記事では、n8n × ローカルLLM × Claude Code を組み合わせ、機密情報を守りながらAI自動化を実現する具体的な方法を解説します。

はじめに:なぜ「ローカルLLM」なのか

業務自動化ツール n8n を導入する企業が増えています。ワークフローの中でLLM(大規模言語モデル)を活用すれば、
メールの要約、問い合わせの分類、レポートの下書き作成など、これまで人手に頼っていた作業を大幅に効率化できます。

しかし、ここで立ちはだかるのが 機密情報の問題 です。

OpenAI や Google のクラウドLLMを利用すると、社内データ──顧客情報、契約書、人事データ、財務情報──が
インターネットを経由して外部サーバーに送信されます。
「学習には使用しません」というポリシーがあっても、現場ではなお慎重な判断が求められます。

想定される主なリスク

  • データの越境リスク:日本国内のデータが海外サーバーで処理される可能性がある
  • コンプライアンス上の懸念:金融・医療・官公庁などの規制に抵触するおそれ
  • 契約上の制約:NDAや守秘義務により、外部送信自体が不可のケースがある
  • 将来のポリシー変更リスク:利用規約が変更される可能性を完全には排除できない

こうした課題に対して有効なのが、ローカルLLM(自社環境で動作するLLM) という選択肢です。


ローカルLLMとは

ローカルLLMとは、OpenAI等のAPIに依存せず、自社が管理するサーバー上で直接動作するLLM を指します。
オープンソースモデルの急速な進化により、2024年以降、実用的な選択肢として一気に注目を集めています。

代表的なオープンソースモデル

モデル 開発元 特徴
Llama 3.1 Meta 8B〜405Bパラメータ。日本語対応も比較的良好
Gemma 2 Google 軽量ながら高性能。9B / 27B パラメータ
Mistral Mistral AI 欧州発。商用利用しやすいモデル群を展開
Qwen 2.5 Alibaba 日本語を含むアジア言語への対応が強い

ローカルLLMのメリットとデメリット

メリット

  • データが自社環境から外に出ない
  • API利用料が発生しない(主にインフラ費用のみ)
  • カスタマイズやファインチューニングの自由度が高い
  • ネットワーク障害時でも動作しやすい

デメリット

  • GPUサーバーの初期構築・運用コストがかかる
  • 最先端の商用モデルと比較すると性能差がある場合がある
  • 運用・保守の人的リソースが必要になる
重要なのは「用途で使い分けること」
機密性の高いデータを扱うワークフローにはローカルLLM、そうでないタスクにはクラウドLLMを使う。
このようなハイブリッド運用が、実務上もっとも現実的です。

Ollama:ローカルLLMを「誰でも動かせる」ツール

Ollama は、ローカルLLMの導入ハードルを大きく下げるオープンソースツールです。

従来、ローカルLLMを動かすには、CUDAドライバの設定、モデル変換、推論サーバー構築など、多くの専門知識が必要でした。
Ollamaはそれらを、極めてシンプルな操作に集約します。

# Ollamaをインストールして、すぐにLlama 3.1を起動
ollama run llama3.1:8b

Ollamaの主な特徴

  1. OpenAI互換API:既存のOpenAI SDKや各種ツールから接続しやすい
  2. モデルの自動管理:ダウンロード、キャッシュ、バージョン管理を簡略化
  3. GPU自動検出:NVIDIA GPUを認識して最適化実行しやすい
  4. 軽量:単一バイナリで動作し、Docker運用にも向く

特に重要なのが OpenAI互換API です。n8nをはじめ、多くのツールはOpenAI形式のAPIに対応しているため、
エンドポイントURLを差し替えるだけでローカルLLMに切り替えられます。


Claude Codeで AWS に Ollama を構築する

Ollamaをローカルマシンで動かすのは簡単ですが、チームで利用できるサーバーとしてクラウドに構築するとなると、
VPC、セキュリティグループ、GPUインスタンス、コンテナ、スケジューラーなど、検討事項が一気に増えます。

そこで有効だったのが、Claude Code の活用です。

Claude Codeとは

Claude Code は Anthropic が提供するCLIツールで、ターミナル上でClaudeと対話しながら、
コード生成・編集・デプロイを進められます。
ファイルの読み書き、コマンド実行、複数ファイルにまたがる修正などを、
自然言語ベースで進められるのが特徴です。

実際の構築プロセス

Claude Codeに「OllamaをAWSのGPUインスタンスにデプロイするCDKプロジェクトを作って」と指示すると、
以下のような構成が自動生成されました。

[ユーザー / n8n] → [Public IP:11434] → [ECS Service on GPU Instance]
│
├─ Ollama Container(NVIDIA GPU)
├─ Llama 3.1:8b
└─ EBS gp3(モデル永続化)

Claude Codeが自動設計・実装した要素

要素 実装内容
ネットワーク 単一AZ・パブリックサブネット・NATゲートウェイなしでコスト最適化
コンピュート ECS on EC2 / GPUインスタンス(g4dn.xlarge〜g6e.xlarge対応)
コンテナ Ollama入りのカスタムDockerイメージを使用し、起動時にモデルを自動取得
ストレージ EBS gp3(暗号化済み)でモデルデータを永続化
セキュリティ IP制限、IMDSv2強制、EBS暗号化、SSM Session Manager対応
コスト管理 EventBridge + Lambdaで営業時間(08:00-22:00 JST)のみ起動
n8n連携 n8nのNAT GatewayのCIDRをセキュリティグループに追加可能

特筆すべきは、セキュリティとコスト最適化が初期段階から設計に組み込まれていたことです。
手作業でゼロから設計すれば数日かかる内容が、Claude Codeとの対話により数時間で形になりました。

デプロイも1コマンド

# 自分のIPを許可してデプロイ
cdk deploy -c allowedCidr=$(curl -s ifconfig.me)/32

月額コストは、Spotインスタンス利用・営業時間のみ稼働の条件で 約88ドル
24時間運用と比較して、約58%のコスト削減を実現しました。


n8nへの繋ぎ込み:驚くほど簡単

Ollamaのサーバーが立ち上がれば、n8nとの連携は非常にシンプルです。
OllamaはOpenAI互換APIを提供するため、n8nの OpenAI互換ノード からそのまま接続できます。

n8n側の設定

  1. Credentials設定
    Base URL: http://<OllamaのPublic IP>:11434/v1
    API Key: 任意の文字列(Ollamaはデフォルトで認証不要)
  2. AI Agentノードを追加
    n8nのAI Agent / Chat Modelノードを配置
  3. モデルを指定
    llama3.1:8b を入力

これだけで、n8nのワークフロー内からローカルLLMを呼び出せるようになります。

Claude Codeを使えば、n8nからのアクセス許可もスムーズです。CDKのコンテキスト変数として
n8nNatCidr を渡すだけで、n8nサーバーのIPをファイアウォールルールへ追加できます。

cdk deploy -c allowedCidr=<自分のIP>/32 -c n8nNatCidr=<n8nのNAT IP>/32

実際のOllamaからの返事例

ここでは、Ollama上の Llama 3.1 8B が実際にどのような応答を返すのか、
代表的なビジネスユースケースで見ていきます。

ユースケース1:問い合わせメールの分類

curl http://<OLLAMA_IP>:11434/api/generate -d '{
"model": "llama3.1:8b",
"prompt": "以下のメールを「見積依頼」「クレーム」「一般問合せ」「解約」のいずれかに分類してください。\n\nメール本文:\n先日購入した製品Aについて、納品書に記載の金額と請求書の金額が異なっています。至急確認をお願いします。",
"stream": false
}'

Ollamaの応答例

このメールは「クレーム」に分類されます。
理由として、納品書と請求書の金額不一致という具体的な問題が指摘されており、
「至急確認をお願いします」という緊急性の高い依頼も含まれているためです。

ユースケース2:社内文書の要約

curl http://<OLLAMA_IP>:11434/api/generate -d '{
"model": "llama3.1:8b",
"prompt": "以下の議事録を3行で要約してください。\n\n議事録:\n2025年第1四半期の売上は前年比15%増の3.2億円。主要因はB2B SaaS事業の新規契約増加(前年比+40件)。一方、レガシー製品の保守契約は解約率が8%に上昇。次四半期はカスタマーサクセス部門の増員(3名)とオンボーディングプロセスの改善に注力する方針。予算として追加で1,500万円を計上予定。",
"stream": false
}'

Ollamaの応答例

1. Q1売上は前年比15%増の3.2億円を達成し、B2B SaaS新規契約が好調
2. レガシー製品の解約率上昇が課題
3. 次四半期はCS増員とオンボーディング改善に追加投資する方針

ユースケース3:定型メールのドラフト作成

curl http://<OLLAMA_IP>:11434/api/chat -d '{
"model": "llama3.1:8b",
"messages": [
{"role": "system", "content": "あなたはビジネスメールの作成アシスタントです。丁寧かつ簡潔な日本語で返信を作成してください。"},
{"role": "user", "content": "取引先の田中様に、来週火曜14時の打合せ日程を確認するメールを書いてください。場所はオンライン(Zoom)です。"}
],
"stream": false
}'

Ollamaの応答例

件名:お打合せ日程のご確認

田中様

いつもお世話になっております。
来週火曜日14:00より、オンラインにてお打合せをお願いできればと存じます。

■ 日時:○月○日(火)14:00〜
■ 形式:Zoom(URLは前日までにお送りいたします)

ご都合が変わりましたらお知らせいただけますと幸いです。
何卒よろしくお願いいたします。

いずれの応答も、GPU利用時でおおむね 2〜4秒程度 で返答可能です。
クラウドLLMほどの精度ではない場面もありますが、分類・要約・定型文作成 のような
構造化タスクでは十分実用的です。


まとめ:Claude Codeが変えるインフラ構築の在り方

本記事で紹介した流れを整理すると、次のようになります。

  1. 課題認識:機密データをクラウドLLMへ送信できない
  2. 技術選定:Ollama + Llama 3.1 によるローカルLLM環境を採用
  3. インフラ構築:Claude Codeが AWS CDK でGPUサーバーを設計・実装
  4. 連携:n8nからOpenAI互換APIで接続
  5. 運用開始:営業時間のみ稼働するコスト最適化運用

従来であれば、AWS GPUインスタンスの設計、CDKコード実装、セキュリティ設定、スケジューラー構築まで含めると、
インフラエンジニアが数日〜1週間かけるような作業でした。

しかしClaude Codeを活用することで、VPC設計からECSタスク定義、EventBridgeスケジューラーまで、
対話ベースで数時間のうちに完成させることができます。しかも、IMDSv2の強制やEBS暗号化といった
セキュリティのベストプラクティスも初期状態から盛り込みやすいのが大きな利点です。

機密情報を守りつつ、AIの力を業務に活かす。
その実現は、もはや大企業のインフラチームだけの特権ではありません。
Ollama、n8n、Claude Code の組み合わせが、AI活用の民主化を加速させています。

※ 本記事で紹介したOllamaサーバーのAWS構成は、営業時間のみ稼働する前提で、月額約88ドルから運用可能です。

n8nやローカルLLMを活用した業務自動化の導入をご検討中の方へ
機密情報を扱う業務においても、安全性と実用性を両立したAI活用は十分に実現可能です。
自社環境に合わせた設計・構築・運用まで含めて検討したい場合は、要件整理の段階からご相談ください。
金子 健哉

執筆者

金子 健哉

株式会社property technologies - CTO(最高技術責任者)

前職では、クライアントのWEBサイトシステムの開発、社内のIT開発を経験した後、同社CTOに就任。マーケティングプラットフォーム開発に成功。
フリーランスに転じて企業のITコンサルティング、システム開発の請負等を行った後、2021年5月よりproperty technologiesグループ参画。
CTOとしてエンジニアを統括し、プラットフォーム開発や社内システム開発に従事。
ITコンサルティングおよびシステム開発の請負や、プラットフォーム開発や社内システムの設計・構築まで幅広く手がける。TBSラジオ「ジェーン・スー 生活は踊る」への出演をはじめ、メディアにも出演。

前職では、クライアントのWEBサイトシステムの開発、社内のIT開発を経験した後、同社CTOに就任。マーケティングプラットフォーム開発に成功。
フリーランスに転じて企業のITコンサルティング、システム開発の請負等を行った後、2021年5月よりproperty technologiesグループ参画。
CTOとしてエンジニアを統括し、プラットフォーム開発や社内システム開発に従事。
ITコンサルティングおよびシステム開発の請負や、プラットフォーム開発や社内システムの設計・構築まで幅広く手がける。TBSラジオ「ジェーン・スー 生活は踊る」への出演をはじめ、メディアにも出演。

人気記事

開催予定セミナー

開催予定セミナー

資料リクエスト

サービス概要、業務フロー効率化事例など
をまとめております。
お気軽にご活用ください。

お問い合わせ

ご質問やご相談がございましたら
お問い合わせください。
どんな内容でも大歓迎です。