آموزش رایگان وردپرس، سئو ، طراحی سایت و اخبار روز تکنولوژی
ارتباط

ممیزی خودکار و پایش بی‌درنگ سئو فنی در وردپرس با کدهای سفارشی

رفقا، توی دنیای پرسرعت وب، دیگه ممیزی دستی سئو فنی مثل کُشتی با غوله. من توی پروژه‌هام بارها دیدم که بدون یه سیستم خودکار و فول‌استک، حتی حرفه‌ای‌ترین سئوکارها هم از قافله عقب میفتن. بیاید با هم یاد بگیریم چطور با کدهای خودمون، یه تیم روباتیک برای پایش سایت وردپرسی‌مون بسازیم که هیچ خطایی از چشماش پنهون نمونه. اینجاست که فوت کوزه‌گری‌های آقا کوچولو به کار میاد تا سایتتون همیشه تو اوج باشه.

نویسنده سایت آموز
تاریخ انتشار 1404 اسف 06
زمان مطالعه 10 دقیقه
بازدید 6
ممیزی خودکار و پایش بی‌درنگ سئو فنی در وردپرس با کدهای سفارشی

مقدمه: چرا ممیزی دستی سئو فنی دیگه جواب نمی‌ده؟

سلام رفقا، آقا کوچولو اومده با یه فوت کوزه‌گری دیگه از جنس کد و سئو فنی. بچه‌ها دقت کنید، دنیای وب دیگه اونقدر پویا و سریعه که اگه بخوایم دونه به دونه لینک‌ها رو چک کنیم، وضعیت ایندکسینگ رو دستی بررسی کنیم یا دنبال خطاهای پنهان بگردیم، سرانجامش میشه فقط یه جمله: از قافله عقب میفتیم! من توی پروژه‌هام دیدم که حتی سایت‌های کوچیک هم اگه یه سیستم پایش خودکار نداشته باشن، ممکنه یه تغییر کوچیک تو قالب یا یه افزونه، سئوی فنی رو به هم بریزه و قبل از اینکه شما بفهمید، گوگل رتبه‌هاتون رو پایین بیاره.

ممیزی دستی سئو فنی نه تنها زمان‌بر و خسته‌کننده‌ست، بلکه خطای انسانی توش بالاست. از طرفی، مشکلات سئو فنی معمولاً پنهان و زیر سطح هستن و فقط با چشم مسلح به کد و دید فول‌استک میشه پیداشون کرد. اینجا ما می‌خوایم فراتر از ابزارهای آماده بریم و یه رویکرد فول‌استک با کدهای خودمون داشته باشیم تا پایش سئو فنی وردپرس رو به یه فرآیند کاملاً خودکار، بی‌درنگ و پیش‌بینی‌کننده تبدیل کنیم.

معماری یک سیستم ممیزی خودکار سئو فنی (فول‌استک)

برای ساختن یه سیستم ممیزی خودکار، باید مثل یه معمار وب عمل کنیم. ما نیاز داریم به اجزایی که بتونن بخش‌های مختلف سایت رو اسکن کنن، داده‌ها رو جمع‌آوری کنن، تحلیل کنن و در نهایت، به ما هشدار بدن. رویکرد فول‌استک اینجا یعنی همزمان به سمت سرور (PHP، دیتابیس، تنظیمات وب‌سرور) و سمت کلاینت (HTML، CSS، JavaScript) نگاه کنیم.

۱. پایش سمت سرور: چشم تیزبین بر HTTP Headers و لاگ‌ها

رفقا، اولین قدم برای سئو فنی عمیق، غواصی تو لایه‌های سروره. اینجا جاییه که ربات‌های گوگل با سایت شما ارتباط برقرار می‌کنن. بیاید با کدهای PHP خودمون و یه دید حرفه‌ای، وضعیت HTTP Headers و فایل‌های لاگ سرور رو چک کنیم.

۱.۱. بررسی خودکار HTTP Headers

HTTP Headers اطلاعات حیاتی‌ای مثل وضعیت کش، نوع محتوا، و دستورالعمل‌های خزیدن (X-Robots-Tag) رو به ربات‌ها میدن. یه تغییر ناخواسته تو این هدرها میتونه فاجعه‌بار باشه.

بچه‌ها دقت کنید، برای تسلط بر این بخش، حتماً پست تسلط بر سئو فنی با HTTP Headers: راهنمای فول‌استک برای بهینه‌سازی سرعت و امنیت در وردپرس رو مطالعه کنید. حالا یه قطعه کد PHP ساده برای چک کردن هدرها:

<?php
function check_url_headers($url) {
 $ch = curl_init($url);
 curl_setopt($ch, CURLOPT_NOBODY, true); // Don't download body
 curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); // Return headers
 curl_setopt($ch, CURLOPT_HEADER, true); // Include headers in output
 curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true); // Follow redirects
 $response = curl_exec($ch);
 $http_code = curl_getinfo($ch, CURLINFO_HTTP_CODE);
 curl_close($ch);

 $headers = [];
 if ($response) {
 $header_data = substr($response, 0, strpos($response, "

"));
 foreach (explode("\r\n", $header_data) as $line) {
 if (strpos($line, ": ") !== false) {
 list($key, $value) = explode(": ", $line, 2);
 $headers[trim($key)] = trim($value);
 }
 }
 }
 return ['http_code' => $http_code, 'headers' => $headers];
}

// Example Usage:
$target_url = get_home_url(); // Or any specific URL
$result = check_url_headers($target_url);

echo "<h3>URL: " . esc_url($target_url) . "</h3>";
echo "<p>HTTP Code: " . esc_html($result['http_code']) . "</p>";
echo "<h4>Headers:</h4><ul>";
foreach ($result['headers'] as $key => $value) {
 echo "<li><strong>" . esc_html($key) . ":</strong> " . esc_html($value) . "</li>";
}
echo "</ul>";

// Basic check for X-Robots-Tag
if (isset($result['headers']['X-Robots-Tag'])) {
 echo "<p><strong>X-Robots-Tag Found:</strong> " . esc_html($result['headers']['X-Robots-Tag']) . "</p>";
 if (strpos($result['headers']['X-Robots-Tag'], 'noindex') !== false) {
 echo "<blockquote><p>بچه‌ها دقت کنید! صفحه با X-Robots-Tag به حالت noindex درآمده. اگه عمداً این کارو نکردید، این یه مشکل جدیه!</p></blockquote>";
 }
}
?>

۱.۲. تحلیل خودکار لاگ فایل سرور

فایل‌های لاگ سرور گنجینه‌ای از اطلاعات در مورد نحوه تعامل ربات‌های گوگل با سایت شما هستن. تحلیل لاگ فایل سرور برای سئو فنی به شما کمک می‌کنه بفهمید بودجه خزش (Crawl Budget) چطور مصرف میشه و آیا ربات‌ها به صفحات مهم شما دسترسی دارن یا نه.

من توی پروژه‌هام بارها با تحلیل لاگ فایل‌ها تونستم صفحات یتیم یا مشکل‌دار رو پیدا کنم که از دید ابزارهای دیگه پنهان مونده بودن. این یه فوت کوزه‌گری واقعیه که هر متخصص سئو فول‌استک باید بلد باشه.

برای اتوماسیون، میتونید اسکریپت‌های PHP یا Python بنویسید که به صورت دوره‌ای فایل‌های لاگ رو بخونن، ترافیک ربات‌ها رو تحلیل کنن و الگوهای غیرعادی رو گزارش بدن.

<?php
// This is a simplified example. Real-world log parsing is complex.
function analyze_access_logs($log_file_path) {
 $robot_access = [];
 if (!file_exists($log_file_path)) {
 return "Log file not found!";
 }

 $handle = fopen($log_file_path, "r");
 if ($handle) {
 while (($line = fgets($handle)) !== false) {
 // Example: Apache common log format
 // You'll need more robust regex for real parsing
 if (preg_match('/"(GET|POST) (\S+) HTTP\/\d\.\d" \d+ \d+ "[^"]*" "(Mozilla|Googlebot|Bingbot|...)(\/\d\.\d)?"/', $line, $matches)) {
 $url = $matches[2];
 $user_agent = $matches[3];

 if (strpos(strtolower($user_agent), 'googlebot') !== false) {
 if (!isset($robot_access[$url])) {
 $robot_access[$url] = 0;
 }
 $robot_access[$url]++;
 }
 }
 }
 fclose($handle);
 }
 arsort($robot_access);
 return $robot_access;
}

// Use a real path to your access log file
$log_path = '/var/log/apache2/access.log'; 
$googlebot_activity = analyze_access_logs($log_path);

echo "<h3>Googlebot Activity (Top URLs):</h3><ul>";
$count = 0;
foreach ($googlebot_activity as $url => $hits) {
 echo "<li><strong>" . esc_html($url) . ":</strong> " . esc_html($hits) . " hits</li>";
 $count++;
 if ($count >= 10) break; // Show top 10
}
if (empty($googlebot_activity)) {
 echo "<li>No Googlebot activity found or log parsing needs refinement.</li>";
}
echo "</ul>";
?>

۲. مدیریت و پایش خودکار Robots.txt و Sitemap.xml

این دو فایل نقشه‌راه ربات‌های گوگل هستن. هرگونه اشتباه در پیکربندی اون‌ها میتونه منجر به عدم خزش (Crawl) یا عدم ایندکس (Index) صفحات مهم بشه.

۲.۱. اعتبارسنجی خودکار Robots.txt

شما میتونید با اسکریپت، فایل robots.txt سایتتون رو به صورت دوره‌ای بخونید و تغییرات غیرمجاز یا Syntax Errorها رو تشخیص بدید. همچنین با استفاده از API گوگل (مثل Google Search Console API) می‌تونید وضعیت خزش رو بررسی کنید.

برای بهینه‌سازی پیشرفته این فایل‌ها، حتماً پست بهینه‌سازی پیشرفته Robots.txt و Sitemap.xml در وردپرس رو ببینید.

<?php
function validate_robots_txt($robots_url) {
 $content = @file_get_contents($robots_url);
 if ($content === false) {
 return "<p><strong>Error:</strong> Could not fetch robots.txt. Check URL or permissions.</p>";
 }

 $issues = [];
 $lines = explode("\n", $content);
 foreach ($lines as $line_num => $line) {
 $line = trim($line);
 if (empty($line) || strpos($line, '#') === 0) {
 continue; // Skip empty lines and comments
 }

 // Basic syntax check (User-agent, Disallow, Allow, Sitemap) 
 // More complex regex needed for full validation
 if (!preg_match('/^(User-agent|Disallow|Allow|Sitemap|Crawl-delay):\s*\S+/', $line)) {
 $issues[] = "<li>Line " . ($line_num + 1) . ": Potential syntax error or unknown directive: <code>" . esc_html($line) . "</code></li>";
 }
 }

 if (empty($issues)) {
 return "<p><strong>Success:</strong> robots.txt seems syntactically valid.</p>";
 } else {
 return "<p><strong>Warning:</strong> robots.txt validation issues found:</p><ul>" . implode('', $issues) . "</ul>";
 }
}

$robots_txt_url = get_home_url() . '/robots.txt';
echo "<h3>Robots.txt Validation:</h3>";
echo validate_robots_txt($robots_txt_url);
?>

۲.۲. اعتبارسنجی خودکار Sitemap.xml

نقشه سایت شما باید همیشه به‌روز و بدون خطا باشه. میتونید با PHP به URL نقشه‌سایتتون درخواست بدید، محتواشو بخونید و XML رو برای پیدا کردن لینک‌های شکسته، لینک‌های تکراری یا لینک به صفحات noindex بررسی کنید.

<?php
function validate_sitemap_xml($sitemap_url) {
 $content = @file_get_contents($sitemap_url);
 if ($content === false) {
 return "<p><strong>Error:</strong> Could not fetch sitemap.xml. Check URL or permissions.</p>";
 }

 $xml = simplexml_load_string($content);
 if ($xml === false) {
 return "<p><strong>Error:</strong> Invalid XML in sitemap.xml.</p>";
 }

 $issues = [];
 $urls_found = [];
 foreach ($xml->url as $url_entry) {
 $loc = (string) $url_entry->loc;
 if (in_array($loc, $urls_found)) {
 $issues[] = "<li>Duplicate URL found: <code>" . esc_html($loc) . "</code></li>";
 }
 $urls_found[] = $loc;

 // You can add checks here for HTTP status codes of each URL
 // (but be careful not to overwhelm your server or get blocked)
 // For example: 
 // $headers = @get_headers($loc, 1);
 // if ($headers && strpos($headers[0], '200') === false) {
 // $issues[] = "<li>Broken link in sitemap: <code>" . esc_html($loc) . "</code> (Status: " . esc_html($headers[0]) . ")</li>";
 // }
 }
 
 if (empty($issues)) {
 return "<p><strong>Success:</strong> sitemap.xml seems valid. Total URLs: " . count($urls_found) . "</p>";
 } else {
 return "<p><strong>Warning:</strong> sitemap.xml validation issues found:</p><ul>" . implode('', $issues) . "</ul>";
 }
}

$sitemap_url = get_home_url() . '/sitemap_index.xml'; // Or your actual sitemap URL
echo "<h3>Sitemap.xml Validation:</h3>";
echo validate_sitemap_xml($sitemap_url);
?>

۳. پایش و بهبود پرفورمنس: نگاه فول‌استک به سرعت سایت

سرعت سایت حالا یک فاکتور رتبه‌بندی حیاتیه، خصوصاً با معرفی Core Web Vitals. مانیتورینگ خودکار پرفورمنس میتونه شما رو از افت سرعت ناگهانی باخبر کنه.

۳.۱. استفاده از Google PageSpeed Insights API

میتونید با API PageSpeed Insights به صورت خودکار امتیازات و معیارهای Core Web Vitals رو برای صفحات کلیدی سایتتون چک کنید و تغییرات رو پیگیری کنید. این کار نیاز به تنظیمات API Key داره.

<?php
// This is a conceptual example. Requires API key and proper error handling.
function get_pagespeed_score($url, $api_key) {
 $api_url = "https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url=" . urlencode($url) . "&key=" . $api_key;
 $response = @file_get_contents($api_url);
 if ($response === false) {
 return ['error' => 'Could not fetch PageSpeed data.'];
 }
 $data = json_decode($response, true);
 
 if (isset($data['lighthouseResult']['categories']['performance']['score'])) {
 return $data['lighthouseResult']['categories']['performance']['score'] * 100;
 } else if (isset($data['error'])) {
 return ['error' => $data['error']['message']];
 }
 return ['error' => 'Unknown error fetching PageSpeed data.'];
}

// Replace with your actual Google PageSpeed Insights API Key
$google_api_key = 'YOUR_GOOGLE_API_KEY'; 
$page_to_check = get_home_url();

if ($google_api_key === 'YOUR_GOOGLE_API_KEY') {
 echo "<blockquote><p>بچه‌ها دقت کنید! برای استفاده از این فوت کوزه‌گری، باید Google PageSpeed Insights API Key خودتون رو تو کد جایگزین کنید.</p></blockquote>";
} else {
 $score = get_pagespeed_score($page_to_check, $google_api_key);
 if (is_array($score) && isset($score['error'])) {
 echo "<p><strong>PageSpeed Error:</strong> " . esc_html($score['error']) . "</p>";
 } else {
 echo "<h3>PageSpeed Score for " . esc_url($page_to_check) . ":</h3>";
 echo "<p><strong>Performance Score:</strong> " . esc_html($score) . "</p>";
 if ($score < 50) {
 echo "<blockquote><p>ای وای رفقا! امتیاز PageSpeed خیلی پایینه. نیاز به بهینه‌سازی فوری داره!</p></blockquote>";
 }
 }
}
?>

۳.۲. پایش تغییرات DOM و رندرینگ

اینجا فوت کوزه‌گری‌های فرانت‌اند به کار میاد. با JavaScript میتونید به صورت خودکار تغییرات DOM رو مانیتور کنید، لود شدن منابع حیاتی رو چک کنید و مشکلات مربوط به Cumulative Layout Shift (CLS) یا Largest Contentful Paint (LCP) رو شناسایی کنید.

این کار رو میشه با استفاده از Browser APIs مثل Performance Observer انجام داد و نتایج رو به سمت سرور فرستاد. این همون فوت‌وفن‌های بهینه‌سازی سمت کلاینت در قالب‌های وردپرس هست که باید بهش مسلط باشید.

۴. اتوماسیون با WP-CLI و Cron Jobs

برای اجرای این اسکریپت‌های پایش به صورت منظم، نیاز به اتوماسیون داریم. WP-CLI ابزار قدرتمندی برای مدیریت وردپرس از طریق خط فرمان هست و Cron Jobs سرور هم برای زمان‌بندی دقیق و پرفورمنس بی‌نظیر استفاده میشه.

به یاد داشته باشید، فوت‌وفن‌های مدیریت وردپرس با WP-CLI به شما اجازه میده وظایف زیادی رو با اسکریپت‌های ساده انجام بدید.

۴.۱. ساخت دستورات WP-CLI سفارشی

میتونید اسکریپت‌های PHP پایش خودتون رو به صورت یک دستور WP-CLI تعریف کنید. اینجوری میتونید از داخل وردپرس یا از طریق SSH، اون‌ها رو اجرا کنید.

<?php
// In your theme's functions.php or a custom plugin file
if ( defined( 'WP_CLI' ) && WP_CLI ) {
 /**
 * Runs a custom technical SEO audit.
 * Example: wp my-seo-audit run
 */
 WP_CLI::add_command( 'my-seo-audit', 'My_SEO_Audit_Command' );

 class My_SEO_Audit_Command {
 public function run( $args, $assoc_args ) {
 WP_CLI::log( "Starting automated technical SEO audit..." );
 
 // Call your header check function
 $result = check_url_headers(get_home_url());
 WP_CLI::log( "HTTP Code for homepage: " . $result['http_code'] );

 // Call your robots.txt validation function
 $robots_txt_url = get_home_url() . '/robots.txt';
 $robots_validation = validate_robots_txt($robots_txt_url);
 WP_CLI::log( "Robots.txt validation: " . strip_tags($robots_validation) );

 WP_CLI::success( "Automated SEO audit finished." );
 }
 }
}
// Don't forget to include the check_url_headers and validate_robots_txt functions here or in a separate file.
?>

۴.۲. زمان‌بندی با Cron Jobs سرور

برای اجرای منظم این دستورات WP-CLI یا اسکریپت‌های PHP، باید Cron Job روی سرور تنظیم کنید. این روش بسیار بهینه‌تر از WP-Cron وردپرس هست که ممکنه با تأخیر اجرا بشه. برای اطلاعات بیشتر در مورد زمان‌بندی، پست بهینه‌سازی پیشرفته WP-Cron در وردپرس رو از دست ندید.

# Example crontab entry to run a WP-CLI command daily at 3 AM
0 3 * * * cd /path/to/your/wordpress/installation && /usr/local/bin/wp my-seo-audit run >> /var/log/my-seo-audit.log 2>&1

۵. سیستم هشدار و گزارش‌دهی هوشمند

ممیزی خودکار بدون یه سیستم هشداردهنده قوی بی‌معنیه. ما نیاز داریم اگه مشکلی پیدا شد، فورا باخبر بشیم. اینجا هم از مانیتورینگ سئو در لحظه وردپرس استفاده می‌کنیم.

  • ایمیل و Slack: با PHP میتونید ایمیل‌های هشداردهنده بفرستید یا از وب‌هوک‌ها برای ارسال پیام به Slack یا Discord استفاده کنید.
  • پنل مدیریتی اختصاصی: نتایج رو تو یه بخش اختصاصی تو پنل مدیریت وردپرس نشون بدید.
  • ادغام با ابزارهای سئو: از API ابزارهایی مثل Google Search Console برای ثبت داده‌ها و گزارش‌ها استفاده کنید. (مراجعه به اتوماسیون هوشمند سئو)

فوت کوزه‌گری آقا کوچولو: پیش‌بینی مشکلات قبل از وقوع!

رفقا، فوت کوزه‌گری اینجا اینه که فقط به تشخیص مشکلات موجود بسنده نکنید! یه متخصص فول‌استک سئو، باید بتونه مشکلات رو قبل از اینکه به فاجعه تبدیل بشن، پیش‌بینی کنه. با جمع‌آوری داده‌های تاریخی از ممیزی‌های خودکار، میتونید الگوهای افت پرفورمنس یا ظهور خطاهای خاص رو شناسایی کنید. مثلاً اگه متوجه شدید بعد از هر آپدیت افزونه خاصی، سرعت سایت کمی افت میکنه، میتونید قبل از آپدیت بعدی تدابیر لازم رو بچینید.

این همون رویکرد سئوی پیشگیرانه هست که ازش حرف میزنیم. با یک پسورد قوی و یک دیتابیس تمیز، اطلاعاتمون رو مدیریت می‌کنیم.

جمع‌بندی

ساختن یه سیستم ممیزی خودکار سئو فنی در وردپرس با رویکرد فول‌استک، یه سرمایه‌گذاری بزرگه که در درازمدت سود زیادی براتون داره. با این روش، نه تنها میتونید به صورت بی‌درنگ از وضعیت سئو فنی سایتتون باخبر باشید، بلکه میتونید با جمع‌آوری و تحلیل داده‌ها، مشکلات احتمالی رو پیش‌بینی کنید و همیشه یک قدم جلوتر از رقبا و البته الگوریتم‌های گوگل باشید.

یادمون باشه، سئو فنی یه کار مداومه و اتوماسیون، بازوی قدرتمند ما برای رسیدن به قله‌های رتبه‌بندیه. موفق باشید رفقا!

اشتراک‌گذاری مقاله

درباره نویسنده

A

آقا کوچولو

توسعه‌دهنده وب و نویسنده محتوا با بیش از 13 سال تجربه در زمینه وردپرس و طراحی وب‌سایت. علاقه‌مند به آموزش و انتقال تجربیات به دیگران.

نظرات (0)

دیدگاه خود را بنویسید

کد امنیتی