تصور کنید اعضای تیم، بهجای گشتن در پوشهها و داکیومنتها، فقط از یک چتبات هوش مصنوعی بپرسند: «قوانین ریموت کار چیه؟» یا «مراحل لانچ فیچر جدید چطوره؟» و در چند ثانیه جواب دقیق بر اساس اسناد واقعی داخلی شما بگیرند. با کمک n8n، یک مدل زبانی (LLM) و یک دیتابیس برداری (Vector DB) میتوانید چتباتی بسازید که روی Notion، Google Drive، PDFها و سایر منابع داخلی شرکت جستوجو میکند و پاسخها را به صورت مکالمهای برمیگرداند.
این سناریو همان چیزی است که معمولاً با اسم RAG (Retrieval-Augmented Generation) شناخته میشود؛ یعنی مدل زبانی فقط از روی حافظه خودش جواب نمیدهد، بلکه قبل از پاسخگویی، از روی اسناد شما اطلاعات تازه واکشی میکند.
این ورکفلو دقیقاً چه کاری انجام میدهد؟
در سناریوی «چتبات سوال از اسناد داخلی با n8n و هوش مصنوعی» اتفاقات کلی زیر رخ میدهد:
- اسناد داخلی شما (Notion، Google Docs، PDF و…) به متن تبدیل و در یک دیتابیس برداری ذخیره میشوند،
- کاربر از طریق وبسایت، تلگرام یا ابزار داخلی یک سوال میپرسد،
- n8n بر اساس سوال، نزدیکترین پاراگرافها را از دیتابیس برداری پیدا میکند،
- این پاراگرافها همراه با سوال به LLM ارسال میشوند،
- مدل بر اساس همین «کانتکست واقعی» یک پاسخ دقیق و قابل استناد تولید میکند،
- و پاسخ بهصورت چت برای کاربر نمایش داده میشود، همراه با لینک به سند اصلی.
سناریوهای کاربردی چتبات اسناد داخلی
- Onboarding افراد جدید: نیروی تازهوارد بهجای مزاحمت دائم بقیه، سوالاتش را از چتبات میپرسد.
- پشتیبانی داخلی (IT / HR): پاسخ به سوالهای تکراری درباره VPN، مرخصی، مزایا، ابزارها و سیاستها.
- تیمهای محصول و فنی: جستوجوی سریع در مستندات API، RFCها، دیزاینداکها و راهنمای معماری.
- دانشگاهها و سازمانهای آموزشی: چتبات روی جزوهها، اسلایدها و مستندات دورهها برای دانشجوها.
معماری کلی این سناریو
این سیستم معمولاً از دو بخش اصلی تشکیل میشود:
- Pipeline ایندکس (Indexing Pipeline): اسناد را میخواند، خرد میکند، تبدیل به بردار میکند و در Vector DB ذخیره میکند.
- Pipeline پرسشوپاسخ (Query Pipeline): سوال کاربر را میگیرد، نزدیکترین تکههای متن را پیدا میکند و پاسخ LLM را برمیگرداند.
n8n میتواند هر دو بخش را به شکل ورکفلوهای جدا یا یکپارچه برای شما مدیریت کند.
بخش اول: ایندکس کردن اسناد داخلی
در این بخش، شما یک یا چند ورکفلو n8n دارید که به صورت دورهای یا دستی اجرا میشوند تا اسناد را بهروز نگه دارند:
-
۱. خواندن اسناد از منبع:
- نودهای Notion برای خواندن صفحات و دیتابیسها،
- نود Google Drive برای لیست کردن و دانلود فایلها،
- یا اتصال به API سیستم داکیومنتیشن داخلی شما.
-
۲. استخراج متن:
بسته به نوع فایل:
- برای Google Docs، مستقیم متن را میخوانید،
- برای PDFها و Word، از سرویسهای استخراج متن یا OCR استفاده میکنید،
- و برای Notion، متن بلاکها و ساختار صفحه را ترکیب میکنید.
- ۳. خرد کردن متن (Chunking): متنهای طولانی به بخشهای کوچکتر (مثلاً ۳۰۰–۷۰۰ کلمه) تقسیم میشوند تا بتوان روی هر بخش بردار جدا ساخت. این کار کمک میکند جستوجو دقیقتر و ارزانتر باشد.
- ۴. ساخت Embedding (بردار): هر تکه متن با کمک یک مدل Embedding (مثلاً OpenAI Embeddings) به یک بردار nبعدی تبدیل میشود. این بردار همان چیزی است که بعداً برای یافتن متنهای مشابه استفاده میکنید.
- ۵. ذخیره در Vector DB: بردارها به همراه متادیتا (مثلاً: source=Notion، doc_url، section_title) در یک دیتابیس برداری مثل Pinecone، Qdrant، Weaviate، Supabase Vector یا حتی PostgreSQL+pgvector ذخیره میشوند.
بخش دوم: پاسخگویی به سوال کاربر
حالا که اسناد ایندکس شدهاند، هر سوال جدید کاربر از این مسیر عبور میکند:
-
۱. دریافت سوال:
ورودی میتواند از:
- فرم چت در وبسایت داخلی،
- بات تلگرام/Slack،
- یا حتی یک Webhook ساده باشد.
- ۲. تبدیل سوال به بردار: n8n با همان مدل Embedding که برای اسناد استفاده کردهاید، سوال را هم به یک بردار تبدیل میکند.
- ۳. جستوجوی مشابهترین تکهها: این بردار در Vector DB پرسیده میشود و n تکه متن (مثلاً ۵ یا ۱۰ تکه) که بیشترین شباهت را دارند برگردانده میشوند.
-
۴. ساخت Prompt برای LLM:
در یک نود Set/Function، متن کانتکستها + سوال کاربر را به صورت ساختارمند آماده میکنید؛ مثلاً:
«اینها بخشهایی از اسناد داخلی شرکت هستند. فقط بر اساس این متنها به سوال زیر پاسخ بده و اگر جواب معلوم نبود، صادقانه بگو نمیدانم.» -
۵. دریافت پاسخ از LLM:
Prompt برای مدل (مثل OpenAI GPT-4o) ارسال میشود و پاسخ متنی برمیگردد؛ معمولاً:
- یک جواب مستقیم و کوتاه،
- در صورت نیاز، نکات تکمیلی،
- و شاید اشاره به بخشهای مرتبط سند.
- ۶. برگرداندن پاسخ به کاربر: n8n پاسخ را به فرانتاند چتبات، تلگرام، Slack یا ابزار داخلی شما ارسال میکند. میتوانید همراه پاسخ، چند لینک به اسناد اصلی هم نشان دهید تا کاربر بتواند بیشتر بخواند.
پیشنیازهای راهاندازی این سناریو
- منابع اسناد: Notion، Google Drive، Confluence، GitHub Wiki یا هر سیستم مستندسازی دیگر.
- یک Vector Database: مثل Pinecone، Qdrant، Weaviate، Supabase، یا PostgreSQL با pgvector.
- Embedding Model: معمولاً OpenAI Embeddings یا مدل سازگار دیگر برای تبدیل متن به بردار.
- LLM اصلی: مثل OpenAI GPT-4o یا مدل دیگری که بتواند بر اساس کانتکست، پاسخ تولید کند.
- n8n در حال اجرا: روی سرور، Docker، VPS یا n8n Cloud.
- کانال ورودی کاربر: وبسایت، تلگرام، Slack یا اپ داخلی که بتواند به Webhook n8n متصل شود.
مراحل کلی پیادهسازی در n8n
- یک ورکفلو Indexing بسازید که اسناد را از منبع (مثلاً Notion/Drive) بخواند، متن را استخراج و خرد کند.
- در همان ورکفلو، برای هر Chunk متن، با نود Embedding (OpenAI) بردار بسازید و آن را به همراه متادیتا در Vector DB ذخیره کنید.
- یک ورکفلو جدا برای Query/Chat بسازید که با Webhook/Telegram Trigger سوال کاربر را دریافت کند.
- سوال کاربر را Embedding کنید و با نود HTTP Request یا کانکتور Vector DB، نزدیکترین تکههای متن را واکشی کنید.
- Prompt را طوری بسازید که شامل کانتکستها + سوال کاربر + دستورالعمل پاسخگویی (زبان، لحن، محدودیتها) باشد.
- Prompt را به LLM بفرستید و پاسخ را دریافت کنید، در صورت نیاز کمی تمیز و کوتاه کنید.
- جواب را به کانال اصلی (وبسایت، تلگرام، Slack…) برگردانید و در کنار آن لینک اسناد اصلی را هم اضافه کنید.
- هر چند ساعت/روز، ورکفلو Indexing را دوباره اجرا کنید تا تغییرات اسناد در Vector DB بهروز شوند.
چطور این ورکفلو را حرفهایتر کنیم؟
- کنترل دسترسی: بر اساس نقش کاربر، فقط به بخشی از اسناد اجازه داده شود (مثلاً HR برای همه نیست).
- Multi-tenant: اگر چند تیم/سازمان دارید، برای هرکدام فضای جدا در Vector DB و Prompt جدا داشته باشید.
- Log و Analytics: سوالها و پاسخها را در دیتابیس ذخیره کنید تا بفهمید کاربران بیشتر چهچیزی میپرسند.
- Feedback Loop: دکمه «این پاسخ مفید بود؟» اضافه کنید و از بازخوردها برای بهبود Prompt و ایندکس استفاده کنید.
- پشتیبانی چندزبانه: از LLM بخواهید زبان سوال را تشخیص دهد و در همان زبان یا زبان انتخابشده پاسخ بدهد.
نکات مهم و خطاهای رایج
- اگر پاسخها گاهی اشتباه است، حتماً در Prompt تاکید کنید که فقط بر اساس کانتکست جواب بدهد و در غیر این صورت بگوید «نمیدانم».
- کیفیت Chunking و Embedding تاثیر زیادی روی دقت پاسخها دارد؛ طول تکهها را نه خیلی کوتاه و نه خیلی بلند انتخاب کنید.
- برای اسناد حساس، سیاست حریم خصوصی و امنیت ارسال داده به LLM و Vector DB خارجی را جدی بگیرید.
- اگر تعداد اسناد زیاد است، ایندکس را به صورت تدریجی (Batch) انجام دهید تا به محدودیتها و هزینهها برخورد نکنید.
جمعبندی
با ورکفلو چتبات سوال از اسناد داخلی با n8n و هوش مصنوعی میتوانید دانش پنهان در فایلها و مستندات را به یک دستیار مکالمهای همیشهدردسترس تبدیل کنید. بهجای اینکه هر نفر درگیر پیدا کردن اطلاعات شود، یک چتبات هوشمند این کار را برای همه انجام میدهد.
اگر سازمان شما داکیومنت زیاد دارد و میخواهید «دانش داخلی» واقعاً استفاده شود، ساخت یک چتبات RAG روی Notion، Google Drive و سایر منابع با کمک n8n و LLM یکی از جذابترین و کاربردیترین اتوماسیونهایی است که میتوانید پیاده کنید.


