اگر برای سئو هر روز وارد Google Search Console میشوید، CSV دانلود میکنید، فیلتر میزنید و بعد تازه شروع به تحلیل میکنید، این ورکفلو دقیقاً برای شماست. با سناریوی AI Agent to chat with your Search Console Data, using OpenAI and Postgres در n8n میتوانید دادههای سرچ کنسول را در یک دیتابیس PostgreSQL ذخیره کنید و بعد با یک ایجنت هوش مصنوعی روی آن چت کنید.
یعنی به جای گزارشسازی دستی، کافی است بپرسید: «کدوم صفحات در ۳۰ روز اخیر بیشترین کلیک را گرفتهاند؟» یا «CTR موبایل برای مقالههای وبلاگ چقدر است؟» و ایجنت بر اساس دادههای واقعی Search Console شما جواب میدهد.
این ایجنت دقیقاً چه کاری انجام میدهد؟
این ورکفلو سه لایه اصلی دارد:
- دریافت و ذخیره دادههای Search Console: کوئریهای مورد نیاز شما (page, query, clicks, impressions, ctr, position، device و…) به صورت دورهای از Google Search Console گرفته و در PostgreSQL ذخیره میشود.
- ایجنت هوش مصنوعی روی Postgres: یک AI Agent با کمک OpenAI روی همین دیتابیس کار میکند؛ سوال شما را میگیرد، آن را به کوئری مناسب تبدیل میکند و نتیجه را برمیگرداند.
- پاسخ به زبان طبیعی: خروجی SQL و اعداد خام تبدیل میشود به توضیح قابل فهم برای سئو، مثل خلاصه، مقایسه و پیشنهادات ساده.
در عمل، شما با دادههای سرچ کنسول خودتان چت میکنید، نه با یک چتبات عمومی.
چند مثال از سوالهایی که میتوانید بپرسید
- «در ۲۸ روز گذشته، ۱۰ صفحه برتر از نظر کلیک کداماند؟»
- «میانگین CTR برای صفحات دسته بلاگ چقدر است؟»
- «کدام کوئریها در سه ماه اخیر رشد کلیک داشتهاند ولی هنوز CTR پایینی دارند؟»
- «برای موبایل بیشتر ترافیک از چه کشورهایی میآید؟»
- «کدوم URLها بیشترین Impression را دارند ولی در صفحه اول نیستند؟»
ایجنت بر اساس ساختار دادهها، این سوالها را به کوئریهای SQL و فیلترهای مناسب تبدیل میکند و در نهایت، یک پاسخ تحلیلی برمیگرداند.
جریان کلی ورکفلو در n8n
پشت صحنه، این سناریو معمولاً به این ترتیب کار میکند:
- ۱. سینک دادهها از Search Console: یک ورکفلو زمانبندیشده (Cron) در n8n، روزانه یا هفتگی کوئری مورد نظر شما را از Google Search Console API میگیرد؛ مثلاً دادههای ۱۰۰۰ ردیف آخر، یا بازه ۳۰ روز گذشته.
-
۲. ذخیره در PostgreSQL:
رکوردها شامل ابعادی مثل date، page، query، country، device و متریکهایی مثل clicks، impressions، ctr و position در یک جدول
(مثلاً
gsc_stats) ذخیره یا بهروزرسانی (upsert) میشوند. - ۳. ورودی چت برای سوالها: یک ورودی چت (Webhook، تلگرام، پنل چت داخلی) سوال شما را به n8n میفرستد؛ چیزی مثل «صفحات با CTR زیر ۲٪ را بگو.»
- ۴. تفسیر سوال با LLM: متن سوال به مدل زبانی (مثلاً OpenAI) داده میشود تا تصمیم بگیرد روی کدام ستونها، چه فیلتر زمانی و چه sort باید اعمال شود.
-
۵. ساخت و اجرای SQL:
ایجنت یک کوئری SQL میسازد؛ مثلاً:
SELECT page, clicks, impressions, ctr FROM gsc_stats WHERE date >= CURRENT_DATE - INTERVAL '30 days' AND ctr < 0.02 ORDER BY impressions DESC LIMIT 20; - ۶. تحلیل و تبدیل به زبان انسانی: نتیجه کوئری (اعداد و جدول) دوباره به LLM داده میشود تا آن را به صورت یک جواب قابل فهم برای سئوکار بازنویسی کند؛ همراه با جمعبندی و نکات مهم.
- ۷. ارسال پاسخ: جواب نهایی در همان کانالی که سوال از آن آمد (تلگرام، وبچت، Slack و…) به شما نمایش داده میشود.
کاربردهای واقعی برای سئوکارها و صاحبسایتها
این ایجنت برای هر کسی که با سئو سروکار دارد، خیلی سریع به ابزار روزمره تبدیل میشود:
- ایدهگیری برای بهینهسازی: پیدا کردن صفحاتی با Impression بالا و CTR پایین برای بهبود عنوان و توضیحات.
- ریپورتینگ سریع: تهیه جوابهای لحظهای برای گزارشهای هفتگی/ماهانه بدون نیاز به ساخت نمودار دستی.
- ردیابی رشد یا افت: شناسایی کوئریهایی که اخیراً رشد کلیک داشتهاند یا به شدت افت کردهاند.
- بهینهسازی موبایل/دسکتاپ: مقایسه عملکرد دستگاهها و کشورهای مختلف روی صفحات مهم.
پیشنیازهای راهاندازی
- اکانت Google Search Console فعال: و دسترسی API برای دامنهای که میخواهید تحلیل کنید.
- یک دیتابیس PostgreSQL: که n8n بتواند به آن وصل شود (روی سرور، هاست یا Supabase).
- n8n در حال اجرا: روی سرور شخصی، Docker، VPS یا n8n Cloud.
- OpenAI API Key: برای استفاده از مدل زبانی به عنوان ایجنت.
- یک کانال چت: تلگرام، Slack، وبچت سایت یا حتی فقط Webhook تستی برای ارسال سوالها.
مراحل کلی پیادهسازی در n8n
- ایمپورت کردن ورکفلو AI Agent to chat with your Search Console Data در n8n.
- تنظیم Credentials برای Google Search Console، PostgreSQL و OpenAI در نودهای مربوطه.
- ایجاد جدول (یا جدولها) در Postgres برای ذخیره دادههای GSC؛ مثلاً ستونی برای date، page، query، device، country، clicks، impressions، ctr و position.
- اجرای اولیه ورکفلو سینک تا یک بازه داده (مثلاً ۳ یا ۶ ماه اخیر) را از Search Console وارد دیتابیس کنید.
- تنظیم Agent و System Prompt تا بداند با چه جدول و چه ستونهایی کار میکند و روی چه نوع سوالهایی تمرکز داشته باشد (سوالات سئویی).
- وصل کردن ورودی چت (Webhook/تلگرام/Slack) به ایجنت و تست با چند سوال واقعی از پروژههای خودتان.
چطور این ایجنت را حرفهایتر کنیم؟
- افزودن فیلترهای آماده: میتوانید چند دستور کوتاه تعریف کنید مثل «صفحات بلاگ»، «فقط موبایل»، «فقط ایران» و… تا ایجنت راحتتر فیلتر کند.
- خروجی گزارش آماده: علاوه بر جواب متنی، نتایج را در Google Sheets، Notion یا یک داشبورد سئو ذخیره کنید.
- هشدار خودکار: اگر CTR یا کلیک صفحهای ناگهان افت کرد، ایجنت از روی دادهها تشخیص دهد و برای شما نوتیف بفرستد.
- ترکیب با دادههای دیگر: میتوانید دادههای آنالیتیکس، فروش یا CRM را هم در همان Postgres ذخیره کنید و از ایجنت بخواهید تحلیلهای ترکیبی ارائه دهد.
نکات مهم و خطاهای رایج
- اگر اعداد منطقی به نظر نمیرسند، ابتدا بازه زمانی کوئریهای Search Console و ساختار جدول Postgres را بررسی کنید.
- در شروع کار، بهتر است فقط روی چند کوئری و چند جدول ساده تمرکز کنید و بعد بهتدریج ساختار را پیچیدهتر کنید.
- برای امنیت، به ایجنت فقط اجازه اجرای کوئریهای SELECT را بدهید و دسترسی write را جدا مدیریت کنید.
- برای جلوگیری از فشار روی API، سینک دادهها را زمانبندیشده (مثلاً روزی یکبار) انجام دهید، نه روی هر سوال کاربر.
جمعبندی
ورکفلو AI Agent to chat with your Search Console Data در n8n، دادههای سرچ کنسول شما را از یک گزارش خشک و سنگین به یک دستیار سئوی مکالمهای تبدیل میکند. از این به بعد به جای دانلود CSV و ساخت گزارش دستی، کافی است با ایجنت حرف بزنید.
اگر روی چند سایت کار میکنید، یا برای مشتریها مدام باید گزارش سئو آماده کنید، این ورکفلو یک قدم بزرگ به سمت اتوماسیون کامل تحلیل دادههای Google Search Console با n8n، Postgres و OpenAI است.
