ホスティング型LLM(Mistral NeMo)を使って個人情報を抽出
中級
これはBuilding Blocks, AI分野の自動化ワークフローで、13個のノードを含みます。主にSet, ChainLlm, ChatTrigger, LmChatOllama, OutputParserAutofixingなどのノードを使用、AI技術を活用したスマート自動化を実現。 自ホスティングのLLMであるMistral NeMoを使って個人情報を抽出
前提条件
- •AIサービスAPIキー(OpenAI、Anthropicなど)
使用ノード (13)
カテゴリー
ワークフロープレビュー
ノード接続関係を可視化、ズームとパンをサポート
ワークフローをエクスポート
以下のJSON設定をn8nにインポートして、このワークフローを使用できます
{
"id": "HMoUOg8J7RzEcslH",
"meta": {
"instanceId": "3f91626b10fcfa8a3d3ab8655534ff3e94151838fd2709ecd2dcb14afb3d061a",
"templateCredsSetupCompleted": true
},
"name": "Extract personal data with a self-hosted LLM Mistral NeMo",
"tags": [],
"nodes": [
{
"id": "7e67ae65-88aa-4e48-aa63-2d3a4208cf4b",
"name": "チャットメッセージ受信時",
"type": "@n8n/n8n-nodes-langchain.chatTrigger",
"position": [
-500,
20
],
"webhookId": "3a7b0ea1-47f3-4a94-8ff2-f5e1f3d9dc32",
"parameters": {
"options": {}
},
"typeVersion": 1.1
},
{
"id": "e064921c-69e6-4cfe-a86e-4e3aa3a5314a",
"name": "Ollama チャットモデル",
"type": "@n8n/n8n-nodes-langchain.lmChatOllama",
"position": [
-280,
420
],
"parameters": {
"model": "mistral-nemo:latest",
"options": {
"useMLock": true,
"keepAlive": "2h",
"temperature": 0.1
}
},
"credentials": {
"ollamaApi": {
"id": "vgKP7LGys9TXZ0KK",
"name": "Ollama account"
}
},
"typeVersion": 1
},
{
"id": "fe1379da-a12e-4051-af91-9d67a7c9a76b",
"name": "自動修正出力パーサー",
"type": "@n8n/n8n-nodes-langchain.outputParserAutofixing",
"position": [
-200,
220
],
"parameters": {
"options": {
"prompt": "Instructions:\n--------------\n{instructions}\n--------------\nCompletion:\n--------------\n{completion}\n--------------\n\nAbove, the Completion did not satisfy the constraints given in the Instructions.\nError:\n--------------\n{error}\n--------------\n\nPlease try again. Please only respond with an answer that satisfies the constraints laid out in the Instructions:"
}
},
"typeVersion": 1
},
{
"id": "b6633b00-6ebb-43ca-8e5c-664a53548c17",
"name": "構造化出力パーサー",
"type": "@n8n/n8n-nodes-langchain.outputParserStructured",
"position": [
60,
400
],
"parameters": {
"schemaType": "manual",
"inputSchema": "{\n \"type\": \"object\",\n \"properties\": {\n \"name\": {\n \"type\": \"string\",\n \"description\": \"Name of the user\"\n },\n \"surname\": {\n \"type\": \"string\",\n \"description\": \"Surname of the user\"\n },\n \"commtype\": {\n \"type\": \"string\",\n \"enum\": [\"email\", \"phone\", \"other\"],\n \"description\": \"Method of communication\"\n },\n \"contacts\": {\n \"type\": \"string\",\n \"description\": \"Contact details. ONLY IF PROVIDED\"\n },\n \"timestamp\": {\n \"type\": \"string\",\n \"format\": \"date-time\",\n \"description\": \"When the communication occurred\"\n },\n \"subject\": {\n \"type\": \"string\",\n \"description\": \"Brief description of the communication topic\"\n }\n },\n \"required\": [\"name\", \"commtype\"]\n}"
},
"typeVersion": 1.2
},
{
"id": "23681a6c-cf62-48cb-86ee-08d5ce39bc0a",
"name": "基本LLMチェーン",
"type": "@n8n/n8n-nodes-langchain.chainLlm",
"onError": "continueErrorOutput",
"position": [
-240,
20
],
"parameters": {
"messages": {
"messageValues": [
{
"message": "=Please analyse the incoming user request. Extract information according to the JSON schema. Today is: \"{{ $now.toISO() }}\""
}
]
},
"hasOutputParser": true
},
"typeVersion": 1.5
},
{
"id": "8f4d1b4b-58c0-41ec-9636-ac555e440821",
"name": "エラー時",
"type": "n8n-nodes-base.noOp",
"position": [
200,
140
],
"parameters": {},
"typeVersion": 1
},
{
"id": "f4d77736-4470-48b4-8f61-149e09b70e3e",
"name": "付箋",
"type": "n8n-nodes-base.stickyNote",
"position": [
-560,
-160
],
"parameters": {
"color": 2,
"width": 960,
"height": 500,
"content": "## Update data source\nWhen you change the data source, remember to update the `Prompt Source (User Message)` setting in the **Basic LLM Chain node**."
},
"typeVersion": 1
},
{
"id": "5fd273c8-e61d-452b-8eac-8ac4b7fff6c2",
"name": "付箋1",
"type": "n8n-nodes-base.stickyNote",
"position": [
-560,
340
],
"parameters": {
"color": 2,
"width": 440,
"height": 220,
"content": "## Configure local LLM\nOllama offers additional settings \nto optimize model performance\nor memory usage."
},
"typeVersion": 1
},
{
"id": "63cbf762-0134-48da-a6cd-0363e870decd",
"name": "付箋2",
"type": "n8n-nodes-base.stickyNote",
"position": [
0,
340
],
"parameters": {
"color": 2,
"width": 400,
"height": 220,
"content": "## Define JSON Schema"
},
"typeVersion": 1
},
{
"id": "9625294f-3cb4-4465-9dae-9976e0cf5053",
"name": "JSON 出力抽出",
"type": "n8n-nodes-base.set",
"position": [
200,
-80
],
"parameters": {
"mode": "raw",
"options": {},
"jsonOutput": "={{ $json.output }}\n"
},
"typeVersion": 3.4
},
{
"id": "2c6fba3b-0ffe-4112-b904-823f52cc220b",
"name": "付箋3",
"type": "n8n-nodes-base.stickyNote",
"position": [
-560,
200
],
"parameters": {
"width": 960,
"height": 120,
"content": "If the LLM response does not pass \nthe **Structured Output Parser** checks,\n**Auto-Fixer** will call the model again with a different \nprompt to correct the original response."
},
"typeVersion": 1
},
{
"id": "c73ba1ca-d727-4904-a5fd-01dd921a4738",
"name": "付箋6",
"type": "n8n-nodes-base.stickyNote",
"position": [
-560,
460
],
"parameters": {
"height": 80,
"content": "The same LLM connects to both **Basic LLM Chain** and to the **Auto-fixing Output Parser**. \n"
},
"typeVersion": 1
},
{
"id": "193dd153-8511-4326-aaae-47b89d0cd049",
"name": "付箋7",
"type": "n8n-nodes-base.stickyNote",
"position": [
200,
440
],
"parameters": {
"width": 200,
"height": 100,
"content": "When the LLM model responds, the output is checked in the **Structured Output Parser**"
},
"typeVersion": 1
}
],
"active": false,
"pinData": {},
"settings": {
"executionOrder": "v1"
},
"versionId": "9f3721a8-f340-43d5-89e7-3175c29c2f3a",
"connections": {
"23681a6c-cf62-48cb-86ee-08d5ce39bc0a": {
"main": [
[
{
"node": "9625294f-3cb4-4465-9dae-9976e0cf5053",
"type": "main",
"index": 0
}
],
[
{
"node": "8f4d1b4b-58c0-41ec-9636-ac555e440821",
"type": "main",
"index": 0
}
]
]
},
"e064921c-69e6-4cfe-a86e-4e3aa3a5314a": {
"ai_languageModel": [
[
{
"node": "fe1379da-a12e-4051-af91-9d67a7c9a76b",
"type": "ai_languageModel",
"index": 0
},
{
"node": "23681a6c-cf62-48cb-86ee-08d5ce39bc0a",
"type": "ai_languageModel",
"index": 0
}
]
]
},
"b6633b00-6ebb-43ca-8e5c-664a53548c17": {
"ai_outputParser": [
[
{
"node": "fe1379da-a12e-4051-af91-9d67a7c9a76b",
"type": "ai_outputParser",
"index": 0
}
]
]
},
"fe1379da-a12e-4051-af91-9d67a7c9a76b": {
"ai_outputParser": [
[
{
"node": "23681a6c-cf62-48cb-86ee-08d5ce39bc0a",
"type": "ai_outputParser",
"index": 0
}
]
]
},
"7e67ae65-88aa-4e48-aa63-2d3a4208cf4b": {
"main": [
[
{
"node": "23681a6c-cf62-48cb-86ee-08d5ce39bc0a",
"type": "main",
"index": 0
}
]
]
}
}
}よくある質問
このワークフローの使い方は?
上記のJSON設定コードをコピーし、n8nインスタンスで新しいワークフローを作成して「JSONからインポート」を選択、設定を貼り付けて認証情報を必要に応じて変更してください。
このワークフローはどんな場面に適していますか?
中級 - ビルディングブロック, 人工知能
有料ですか?
このワークフローは完全無料です。ただし、ワークフローで使用するサードパーティサービス(OpenAI APIなど)は別途料金が発生する場合があります。
関連ワークフロー
正規表現と AI を使って隠れたウェブサイトの API エンドポイントを発見
正規表現とAIを使って隠れたウェブサイトのAPIエンドポイントを発見する
If
Set
Html
+
If
Set
Html
58 ノードYulia
エンジニアリング
LLMテンプレートを動のに切り替え
LangChainコードを使ってAIエージェント間でLLMを動のに切り替える
If
Set
Code
+
If
Set
Code
22 ノードMario
エンジニアリング
データベーススキーマのみから SQL クエリを生成 - AI 駆動
データベース構造のみからSQLクエリを生成する - AI駆動
If
Set
Merge
+
If
Set
Merge
29 ノードYulia
エンジニアリング
[テンプレート] AIペットショップ v8
AIペットショップアシスタント - GPT-4o、Googleカレンダー、WhatsApp/Instagram/Facebookを統合
If
N8n
Set
+
If
N8n
Set
244 ノードAmanda Benks
営業
AIメール分诊与GPT-4警报系统及Telegram通知
AIメール分诊与GPT-4警报系统及Telegram通知
If
Set
Gmail
+
If
Set
Gmail
104 ノードPeter Joslyn
サポート
BambooHR AI 駆動の会社方針と福利チャットボット
BambooHR AI を活用した会社のポリシーと福利厚生用チャットボット
Set
Filter
Bamboo Hr
+
Set
Filter
Bamboo Hr
50 ノードLudwig
人事