سئو

آشنایی با الگوریتم‌های گوگل

  • 144 بازدید
  • 0 نظر
  • 1404-03-30
  • 15 دقیقه

در این نوشته سعی شده است که فهرستی کامل از به‌روزرسانی‌ها، تغییرات و نسخه‌های منتشر شده الگوریتم‌های گوگل در طول چند سال گذشته جمع‌آوری شود. الگوریتم‌های گوگل مجموعه‌ای از دستورالعمل‌ها هستند، که گوگل بر اساس آن‌ها ترتیب نمایش صفحات را مرتب می‌کند. در واقع این الگوریتم‌ها هستند که تشخصی می‌دهند که کدام صفحات وب و با چه ترتیبی در نتایح گوگل ظاهر شوند.

الگوریتم‌های گوگل را بهتر بشناسید

الگوریتم‌های گوگل سیستم‌های پیچیده و آزموده شده‌ای هستند که جهت مرتب‌سازی و نمایش داده‌ها و وبسایت‌ها در صفحه نتایج موتور جستجو از آن‌ها استفاده می‌شود. در واقع گوگل از ترکیبی از الگوریتم‌ها و عوامل دیگر استفاده می‌کند تا صفحات وب را بر اساس میزان ارتباط آن‌ها به عبارت جستجو شده نمایش دهد.

در سال‌های اولیه فعالیت گوگل، چند به‌روزرسانی محدود در الگوریتم‌های گوگل اتفاق می‌افتاد. اما امروزه گوگل سالیانه شاید حدود هزاران تغییر در الگوریتم‌های خود اعمال می‌کند. بیشتر این به‌روزرسانی‌ها آن‌قدر جزئی هستند که شاید هیچ‌گاه متوجه آن‌ها نشوید. اما بعضی از این به‌روزرسانی‌ها تاثیر چشم‌گیری بر نتایج جستجو می‌گذارند. در ادامه فهرستی از الگوریتم‌های گوگل مشاهده می‌کنیم.

در ادامه، به بررسی عمیق‌تر هر الگوریتم می‌پردازیم.

فلوریدا: اولین به‌روزرسانی جدی الگوریتم

فلوریدا که یک به‌روزرسانی افتضاح از طرف گوگل بود در سال ۲۰۰۳ سئو و بهینه‌سازی صفحات وب برای موتور‌های جستجو را تحت تاثیر قرار داد. در آن زمان، هر زمان گوگل یک به‌روزرسانی را اعلام می‌کرد، معمولا منتظر یک تغییر چشم‌گیر در ترتیب نتایج جستجو بود.

در ادامه به‌روزرسانی فلوریدا و اینکه احتمالا شامل چه تغییراتی بوده و اینکه چرا تا به امروز اهمیت دارد بررسی می‌شود.

فلوریدا به‌روزرسانی‌ای که سئو را برای همیشه تغییر داد

این به‌روزرسانی در اواخر سال ۲۰۰۳ و دقیقا پیش از فصل خرید کریسمس و همزمان با کنفرانس Pubcon Florida اتفاق افتاد. بلافاصله تغییر در نحوه محاسبه لینک ها به سرعت مشاهده شد. بسیاری از وبسایت‌های بی‌گناه و غیر اسپم جایگاه خود در نتایج جستجو را از دست دادند.

متاسفانه این تغییر باعث شد بسیاری از سایت‌های کوچک در بازه حساس فروش قبل از عید فروش خود را از دست بدهند و یک شبه از بازار حذف شوند. مشخص نیست که گوگل چقدر پیش از انتشار فلوریدا نتایج را تست کرده است، اما مشخصا بسیاری از وبسایت‌های سالم جایگاه خود را از دست دادند.

واکنش‌ها به این الگوریتم به‌قدری گسترده و منفی بود، که تا ۹ سال بعد هرگز گوگل هیچ به‌روزرسانی مهمی را در تعطیلات پیش از عید منتشر نکرد.

فلوریدا شامل چه تغییراتی بود؟

نظریه‌های زیادی مطرح شد که بررسی می‌کردند که فلوریدا شامل چه تغییراتی است، به نظر می‌رسد که فلوریدا یک الگوریتم تحلیل لینک بود که البته کسی شناخت دقیقی از عملکرد تحلیل لینک نداشت.

در واقع تا زمانی که گوگل به صورت رسمی تغییرات را افشا کرد، کسی شناختی از نحوه تحلیل لینک نداشت. ماریسا مایر در کنفرانس «استراتژی‌های موتور جستجو» اعلام کرد که: گوگل لینک‌های صفحات نامرتبت را کم‌ارزش‌تر کرده است.

این موضوع زمانی مهم است که در آن زمان یک بک لینک از صفحات کم ارزش با PageRank بالا (فارغ از موضوع صفحه‌ای که لینک داده و لینک شده است) می‌توانست به رتبه‌بندی وبسایت‌ها کمک قابل توجهی کند. و صفحات را به کلی جابجا کند.

البته در سال ۲۰۰۵ در کنفراس Pubcon گفت که گوگل از تحلیل آماری لینک‌ها برای شناسایی سایت‌های اسپم استفاده می‌کنند. و البته این اولین باری بود که از کلمه تحلیل آماری در دنیای سئو استفاده شد، که به نظر می‌رسد حتی از موضوع کاهش ارزش لینک‌های غیر مرتبط نیز مهم‌تر بود.

نهایتا همه توافق داریم که به‌روزرسانی فلوریدا یک تحول و همزمان اختلال بزرگ در فضای سئو بود. البته که هرگز به صورت رسمی فاش نشد که الگوریتم فلوریدا دقیقا چه بود، اما به نظر می‌رسد که محتمل‌ترین گزینه وارد شدن بحث تحلیل آماری باشد.

تحلیل آماری چیست؟

تحلیل آماری به صورت کلی یک فرآیند جمع‌اوری حجم زیادی از داده و اطلاعات اس که پس از استفاده از تکنیک‌های تحلیل داده روندها و الگوها شناسایی شده و سوگیری ها حذف می‌شود. تحلیل‌گران آماری داده‌های خام را گرفته و همبستگی بین متغیرها را پیدا کرده و الگوها و روندها را برای ذینفعان پیدا می‌کنند.

اما تحلیل آماری در زمینه وبسایت‌ها و داده‌های مربوط به لینک‌ها به معنی به تصویر کشیدن یک صفحه یا سایت در نمودار و بررسی الگو‌های عددی آن‌ها است. به عنوان مثال، در تحلیل آماری لینک‌ها، می‌توان تعداد لینک‌های خروجی در هر صفحه، تعداد لینک‌های حاوی انکرتکست‌های حاوی کلمات کلید و سایر ویژگی‌های مشابه به این را محاسبه کرد.

در واقع این تصمیم ناگهانی نبود و گوگل از سال ۲۰۰۱ مشغول تحقیق و بررسی در مورد ویژگی‌های آماری لینک‌ها بود. همین موضوع را در مقاله‌ای با عنوان «کی به چه کسی لینک می‌دهد؟» به مدلسازی آماری صفحات وب پرداخته و توضیح می‌دهد که با بررسی برخی از ویژگی‌ها می‌توانند نشان‌دهنده اسپم بودن یک وبسایت باشد.

این مقاله به دلیل حضور کریشنا بهارات در لیست نویسندگان، به عنوان یک منبع مهم می‌تواند مبنا قرار گیرد. او بعدترها بنیان‌گذار سرویس اخبار گوگل (Google News) شد و از نویسندگان اگوریتم Hilltop و سازنده الگوریتم LocalRank بود.

تنها چند ماه بعد از انتشار فلوریدا مایکروسافت مقاله‌ای تحت عنوان «Spam, Damn Spam, and Statistics» منتشر کرد که نشان می‌دهد موتور‌های جستجو در حال استفاده از تحلیل آماری برای شناسایی اسپم هستند. این موضوع نشان از اهمیت تحلیل آماری دارد و فلوریدا اولین تلاش گوگل برای شناسایی اسپم بوده است.

چه درس‌هایی از فلوربدا آموختیم که امروز هم اهمیت دارد؟

مهم‌‌ترین تاثیری که فلوریدا بر سئو گذاشت را می‌توان: عبارت «طبیعی به نظر رسیدن» در الگوی لینک‌سازی را وارد ادبیات سئو کرد. همین الان هم متخصیص سئو نگران الگوی لینک‌سازی هستند. متخصیص سئو دغدغه این را دارند که الگوی لینک سازی طبیعی به نظر برسد.

البته الان که بیش از دو دهه از زمان انتشار فلوریدا گدشته است، دیگر مقاله‌ای در این زمینه نمی‌خوانیم. دلیل این موضوع این است که این فناوری به بلوغ کامل رسیده است و دغدغه این روزها یادگیری ماشین، درک محتوا و موضعات مشابه به این است.

با این حال به این نکته توجه کنید که تحلیل لینک (حتی اگر بخشی از فلوریدا نبوده باشد و بعدتر ها وارد فرآیند رتبه‌بندی گوگل شده باشد)، همچنان بخشی از هسته گوگل است. البته که بر اساس مقالاتی که پیش‌تر به آن‌ها اشاره شد روشی منطقی به نظر می‌رسد چرا که روشی موثر برای شناسایی و حذف وبسایت‌های اسپم است.

فلوریدا از این نظر که ادبیات بهینه سازی برای موتور جستجو و شیوه سئو کردن یک وبسایت را تحت تاثیر قرار داد، یک الگوریتم مهم است.

بیگ ددی

این به‌روزرسانی هم یکی دیگر از به‌روزرسانی‌های مهم گوگل است. ابن به روزرسانی فرآیند جالبی را طی کرد. از انتخاب اسم آن که توسط یکی از شرکت‌کنندگان در PubCon سال ۲۰۰۵ پیشنهاد شد، تا شیوه تدریجی تاثیر آن و همچنین اجرای آزمایشی آن فرآیندی بود که این به‌روزرسانی را به یک به‌روزرسانی مهیج و مهم تبدیل کرد.

بیگ ددی تاثیر چشم‌گیری بر کیفیت کلی نتایج جستجو گذاشت. این به‌روزرسانی در سال ۲۰۰۵ اعلام شد. به دلیل بنیادی و اساسی بودن این به‌روزرسانی روند اجرایی آن به صورت تدریجی انجام گرفت. این آپدیت تاثیر ملموسی بر کیفیت نتایج گذاشت و فرآیند پیاده سازی کامل آن تا سال ۲۰۰۶ ادامه داشت.

گوگل به جای پیاده‌سازی کامل الگوریتم را اول روی دو سرور آزمایشی اجرا کرد و آدرس آن را در اختیار متخصصین سئو قرار داد. اینگونه مشکلاتی که در الگوریتم قبلی پیش آمد برطرف شد و متخصصین سئو می‌توانستند ببینند که جایگاه وبسایت‌شان در سیستم جدید به چه صورت خواهد بود و بازخورد خود را از این سیستم به گوگل بدهند.

در کنفرانس Pubcon سال ۲۰۰۵ پس از یک جلسه پرسش و پاسخ یک ساعته در سالن غذاخوری مت کاتس از شرکت کنندگان خواست یک اسم برای این الگوریتم پیشنهاد بدهند. که نام بیگ ددی توسط یکی از شرکت‌کنندگان پیشنهاد شد.

با به بازخورد‌های پیوسته از متخصصین سئو بیگ ددی به صورت تدریجی در سرورها و دیتا سنتر های بیش‌تری اجرا شد و نهایتا در اواخر مارچ ۲۰۰۶ دیتاسنتر های قدیمی خاموش شدند و بیگ ددی به صورت کامل اجرا شد.

گوگل در استفاده از سیستم بازخورد همیشه هوشمندانه عمل کرده است. مثلا در سرویس Google411 (سرویسی مشابه ۱۱۸ در ایران) افراد تماس می‌گرفتند و شماره تلفن مکان‌های درخواستی خود را میگرفتند. بعدتر ها از بارخوردهای این محصول استفاد کرد و سوریس تشخیص صدا را توسعه داد.

این بار نیز استفاده از سرورهای آزمایشی در بیگ ددی نیز به گوگل کمک کرد تا بازخوردهای متخصصین سئو که با اشتیاف فیدبک‌های خود را می‌نوشتند را دریافت کرده و سرویس خود را کامل‌تر کند. این بازخورد و ابزار حذف آدرس (URL Removal Tool) در واقع مقدمه‌ای برای ابزار Google Webmaster Tools بودند که امروزه به نام Google Search Console می‌شناسیم.

بازخوردهای بیگ ددی

مت کاتس بعدتر گفت که بازخوردها نسبت به این به‌روزرسانی خوب بوده و تعداد کمی نارضایتی داشته‌اند. وبسایت‌های معروف سئو هم از این آپدیت استقبال کردند و گفتند شکایت‌هایی که از بیگ ددی شده است، در واقع مربوط به مشکلاتی بوده که اساسا به این آپدیت مربوط نبودند و اشتباها به بیگ ددی ربط داده شدند.

این مطلب را از دست ندهید!
آشنایی با اصطلاحات موتور های جستجو

البته روندی که امروزه هم شاهد آن هستیم، دو دهه قبل هم اتفاق افتاد و به گوگل نقد‌هایی شد که در فرآیند شناسایی اسپم غرق شده است.

هدف اصلی بیگ ددی چه بود؟

در واقع گوگل اشاره مبهمی کرد که این صرفا یک به‌روزرسانی زیرساختی است، اطلاعات بیشتری از این آپدیت منتشر نشد. کاتس اشاره کرد که این به‌روزرسانی به بهبود کیفیت نتایج کمک می‌کند. ولی به تغییرات اشاره نکرد.

یکی از تغییراتی که بعد از این به‌روزرسانی موج آن شروع شد، تاکید بر ساختار منسجم و ساختار یافته وبسایت‌ها بود. اهمیت متا دیتا ها و لینک‌سازی داخلی از این تغییر بیشتر وزن خود را نشان داد. مفاهیمی همچون سندباکس گوگل (Google Sandbox) یا رقص گوگل (Google Dance) بعد از این آپدیت وارد ادبیات سئو شد.

تجربیاتی که بعد از بیگ ددی به دست آمد نشان داد که:

  • ساختار شفاف، ساده و کاربرپسند الویت دارد.
  • لینک‌های معتبر و مرتبط مهم‌تر از بک لینک‌های بی‌کیفیت است.
  • محتواهای جدید و غیر تکراری مهم است. سایت‌هایی که محتوای تکراری داشتند، به فهرست مکمل (Supplemental Index) منتقل شدند.
  • زمان بارگزاری وبسایت یکی دیگر از پارامترهای رتبه‌بندی وبسایت به شمار می‌رود.
  • استفاده از تگ canonical برای فروشگاه‌ها با محصولات مشابه یا وبلاگ‌ها با محتوای مشابه اهمیت پیدا کرد.
  • استفاده از توضیحات تکراری برای چندین محصول در فروشگاه به رتبه وبسایت آسیب می‌زند.
  • سایت‌های تازه تاسیس وارد سندباکس می‌شوند و علی‌رغم داشتن محتوای باکیفیت و لینک‌های مرتبط تا مدت‌ها از نتایج گوگل نمایش داده نمی‌شوند.
  • سئو فنی (Technical SEO) به پارامتری مهم در رتبه‌بندی وبسایت است.

ممکن است بیگ ددی فراتر از این مسائل رفته باشد، اما این اطلاعاتی است که به صورت عمومی بر سر آن‌ها توافق وجود دارد. این الگوریتم ثابت کرد پیروی از اصول اخلاقی در سئو، تجربه کاربری و تولید محتوای باکیفیت از اصلی‌ترین معیار‌های موفقیت در سئو است. این معیار‌ها تا امروز هم اساس بهینه سازی صفحات وب برای موتور‌های جستجو باقی مانده است.

جاگر گوگل (Jagger): تغییر در درک لینک‌های ورودی

هدف الگوریتم جاگر مقابله با لینک سازی غیرطبیعی و محتواهای تکراری بود. این به‌روزرسانی در سپتامبر سال ۲۰۰۵ شروع شد و این الگوریتم هم به صورت تدریجی پیاده سازی شد و نهایتا در طی چند هفته و در اکتبر ۲۰۰۵ به صورت کامل پیاده‌سازی شد.

جاگر با مجموعه‌ای از تغییرات در درک بک‌لینک‌ها شروع شد. همزمانی جاگر با به‌روزرسانی PageRank گوگل این آپدیت را در آن زمان به موضوعی قابل توجه تبدیل کرد.

بروزرسانی Jagger در سپتامبر ۲۰۰۵ با مجموعه‌ای از تغییرات متمرکز بر بک‌لینک‌ها آغاز شد و این تغییرات تا اکتبر ۲۰۰۵ ادامه یافت. این اتفاق همزمان با بروزرسانی پایگاه عمومی PageRank گوگل رخ داد که در خود نیز رخدادی قابل توجه محسوب می‌شد.

جاگر شامل چه تغییراتی بود؟

هرچند عده‌ای معتقد بودند که گوگل این تغییرات را برای افزایش درآمد خود از تبلیغات انتخاب کرد، اما این اگوریتم بیشتر روی اندازه محتوا، بک لینک و به‌روزرسانی محتوا تاکید داشت. وبسایت‌هایی تحت تاثیر قرار گرفتند،‌ ویژگی‌های زیر را داشتند:

  • محتوای تکراری در چند دامنه‌ داشتند.
  • وبسایت‌هایی که از تگ canonical به صورت درست استفاده نکرده بودند.
  • وبسایت‌هایی که هم با اسلش آخر لینک و هم بدون آن لود می‌شدند.
  • وبسایت‌هایی که همزمان نسخه index.html داشتند، مثلا هر دو آدرس coachlab.ir/index و coachlab.ir وجود داشت.
  • وبسایت‌هایی که تعداد زیادی doorway page داشتند.
  • وبسایت‌هایی که بک لینک اسپم داشتند.

ارزیابی لینک‌های ورودی را نیز تحت تاثیر قرار گرفت. در ارزیابی لینک‌های ورودی یا بک‌لینک‌ها متن لینک (anchor text)، محتوای صفحه لینک‌دهنده، سرعت گرفتن بک‌لینک و الگوهای فروش بک‌لینک که به صورت ماهانه خریداری می‌شدند شناسایی شدند.

رتبه‌بندی سایت‌هایی که لینک sitewide خریداری کرده بودند، با وبسایت‌های نامرتبط با موضوع خود تبادل لینک داشتند، یا از مزارع لینک (link farm) بک لینک گرفته بودند آسیب دید. همچنین سایت‌هایی که از متن مخفی، و ریدایرکت استفاده کرده بودند نیز آسیب دیدند.

در این آپدیت گوگل همچنین سایت‌هایی که از CSS برای پنهان کردن بخشی از متن و کلمات کلیدی استفاده می‌کردند، یا از Meta refresh redirect (که در آن زمان مرسوم بود) استفاده میکردند را نیز جریمه کرد.

چه درس‌هایی از جاگر (Jagger) آموختیم که امروز هم اهمیتی دارد؟

بعد از جاگر دو موضوع وارد ادبیات سئو شد. و دو موضوع توسط متخصصین سئو مطرح شد:

  • سن دامنه یکی از عوامل رتبه‌بندی است.
  • گوگل از طریق به‌روزرسانی الگوریتم‌ها سعی دارد، وبسایت‌های پر ترافیک را مجبور می‌کند که از Ads استفاده کنند. تا افت ترافیک خود را جبران کنند.

ادعای اینکه گوگل سایت‌های قدیمر ا ترجیح می‌دهد پیش‌تر هم در بین وب‌مستر‌ها رایج بود ولی بعد از جاگر بحث شدت گرفت. اما این پیش‌فرض در موتور جستجو وجود دارد که تاریخ انقضای دامنه به عنوان یکی از عوامل پیش‌بینی اعتبار دامنه در نظر گرفته می‌شود. البته در سال ۲۰۱۰ مت کاتس آن را کم اهمیت تلقی کرد ولی وجود آن را انکار نکرد.

به صورت کلی درس‌هایی که از جاگر گرفتیم را می‌توان به صورت زیر خلاصه کرد:

  • از عنوان‌های واضح و متمرکز بر موضوع صفحه در متا (meta title) استفاده کنید.
  • ساختار سایت و آدرس لینک‌ها (URL) را بهبود بدهید.
  • لینک‌های داخلی بیش‌ از حد (به ویژه در فوتر و تکرار آن در کل صفحات) را حذف کنید.
  • مشکلات مربوط به تکراری بودن در ناشی از www و بدون www یا اسلش پایانی لینک را حل کنید.
  • فروشگاه‌های اینترنتی از محتوای منحصر به فرد برای محصولات خود استفاده کنند و از توضیحات تولید کننده استفاده نکنند.
  • لینک‌های بی‌کیفیت یا لینک‌هایی که از مزارع لینک (link farm) دریافت کرده‌اید را حذف کنید.

این به‌روزرسانی با تمرکز بیش از حد بر روی لینک‌سازی غیرطبیعی و لینک‌های بی‌کیفیت یا لینک‌های خریداری شده، به نظر می‌رسد پایه‌های الگوریم پنگوئن (Penguin) بود که بعدتر برای مقابله تخصصی با لینک‌های اسپم بود.

درسی که هنوز از این آپدیت برای ما مهم است: اهمیت تولید محتوای اصیل و باکیفیت و همچنین لینک‌سازی طبیعی

وینس (Vince): صفحه اول در تسخیر برند‌های بزرگ

این به‌روزرسانی در اوایل سال ۲۰۰۹ ارائه شد و نام آن برگرفته از یکی از مهندسین گوگل بود که تلاش زیادی در این به‌روزرسانی انجام داد. وینس صفحه اول را در کلمات کلیدی به نفع دامنه‌های متعلق به برند‌های برتر تغییر داد.

به‌روزرسانی وینس (Vince) باعث شد که در کلمات کلیدی رقابتی و سطح بالا نتایج به نفع برندهای بزرگ باشد. وبسایت‌هایی مانند سایت‌های افیلیت (affiliate) یا سایت‌هایی با اعتبار کمتر یا سایت‌هایی که با تلاش زیاد و با کمک تکنیک‌های سئو به جایگاه خوبی رسیده بوند جایگاه خود را در کلیدواژه های رقابتی از دست دادند.

اریک اشمیت که در آن زمان مدیرعامل گوگل بود گفت که:

اینترنت به‌سرعت در حال تبدیل شدن به یک باتلاق است که در آن اطلاعات نادرست رشد می‌کند … برندها راه‌حل‌اند، نه مشکل … برندها همان چیزی‌اند که شما با آن‌ها این باتلاق را غربال می‌کنید.

این به‌رورسانی در واقع آغازگر دوره‌ای بود که اعتماد به برند تبدیل به یکی از معیارهای اصلی رتبه‌بندی گوگل شد. برندینگ وارد حوزه وبسایت‌ها شد و حضور وبسایت‌های دولتی در صفحات اول گوگل و برند‌های بزرگ پررنگ‌تر شد. مت کاتس در ویدئویی که در یوتوب منتشر شد به طور غیر مستقیم اشاره می‌کند که این به‌روزرسانی تنها به نفع برند‌های بزرگ نبود، بلکه بیشتر به منزله تغییری در جهت الویت دادن به سایت‌هایی با اعتبار بالا و ارتباط محتوای بالا است. وبسایت‌ها و برندهایی که از قبل روی ساخت اعتبار و شفافیت سرمایه‌گذاری کرده بودند، از این الگوریتم سود بردند.

نام یک وبسایت زمانی دارای اعتبار می‌شود و می‌توان گفت برند آن شکل گرفته است که:

  • پروفایل بک‌لینک سالم و مرتبط داشته باشد.
  • در رسانه‌ها و خبرگزاری‌های مهم به آن وبسایت اشاره شده است و معرفی شده است.
  • جستجوی زیادی با نام آن برند انجام می‌شود و نرخ پرش پایین دارند.
  • در شبکه‌های اجتماعی، خبرگزاری‌ها و فضای وب حضور گسترده دارد.
  • سیگنال اعتماد (trust signals) ایجاد می‌کنند.

چه درس‌هایی از وینس آموخیتم که امروز هم اهمیت دارد؟

وینس (Vince) بخشی از مسیر رسیدن به کیفیت در نتایج بود، مسیری که مرتبط‌ترین نتایج جستجو را نشان دهد. این الگوریتم بر خلاف چیزی که برخی از متخصصین سئو در وبسایت‌های مختلف می‌گفتند یک توطئه یا یک داد و ستد مالی بین گوگل و برندهای مطرح نبود، بلکه بخشی از مسیر تحول موتور جستجوی گوگل برای هوشمند‌تر شدن بود. این آپدیت باعث شد که وبسایت‌هایی که بر هویت و کیفیت خود سرمایه‌گذاری کرده بودند، بازدیدکننده بیشتری بگیرند.

کافئین (Caffeine): ایندکس بهتر صفحات

این به‌روزرسانی تاثیر مستقیم بر نتایج گوگل نداشت. این به‌روزرسانی با ایندکس سریع،‌ گسترده و به‌روز ساختار فنی گوگل را متحول کرد.

کافیئین در اواسط سال ۲۰۱۰ به طور رسمی منتشر شد، در حالی که یک سال قبل‌تر گوگل نسخه آزمایشی آن را در اختیار توسعه‌دهندگان و متخصصان سئو قرارداده بود تا مشکلات احتمالی آن شناسایی و گزارش شود.

کافئین یک سیستم جدید برای ایندکس کردن صفحات وب وبد. این سیستم نحوه خزیدن (crawl)، ذخیره و نمایش اطلاعات توسط گوگل را به صورت کامل بازطراحی کرد. طبق اعلام رسمی گوگل این آپدیت باعث شد حجم صفحات ایندکس شده افزایش یاید و همچنین نتیج جستجو به نسبت قبل از انتشار کافئین ۵۰٪ تازه‌تر باشد.

کافئین چه تاثیری داشت؟

همان‌طور که گفتیم کافئین به صورت مستقیم بر روی رتبه‌بندی وبسایت‌ها تاثیر نگذاشت. گوگل با کمک کافئین به توانایی دست یافت که در عرض چند ثانیه محتواهای جدید را کراول کند، داده‌ها را جمع‌آوری و ایندکس کند و در نتیجه نتایج به‌روزتری ارائه دهد.

این مطلب را از دست ندهید!
راهنمای سیستم‌های رتبه‌بندی در جستجوی گوگل

در واقع گوگل کافئین یک به‌روزرسانی الگوریتمی نبود و ترتیب رتبه‌بندی وبسایت‌ها را تغییر نداد. بلکه بیشتر قصد داشت سیستم ایندکس کردن صفحات وب را بازطراحی کند. به کمک کافئین گوگل زیرساخت جمع‌آوری، ذخیره و ارائه نتایج را باز طراحی کرد.

این موضوع از این نظر مهم بود که کاربران اینترنت در سال ۱۹۹۸ حدود ۱۸۸ میلیون کاربر و ۲ میلیون وبسایت در جهان وجود داشت. اما در سال ۲۰۰۹ که این آپدیت معرفی شد کاربران اینترنت به ۱۸۰۰ میلیون نفر رسیده بود و مجموع تعداد وبسایت‌ها به ۲۳۸ میلیون وبسایت رسیده بود. این رشد ۱۱۹ برابری در تعداد وبسایت‌ها نیاز به یک تحول در سیستم جمع‌آوری، ذخیره و ارائه وبسایت‌ها را توجیه می‌کرد.

چه درس‌هایی از کافئین آموختیم که امروز هم اهمیت دارد؟

سرعت ایندکس کردن گوگل بعد از کافئین افزایش یافت و این موضوع منجر شد که وبسایت‌هایی که سریع‌تر اخبار و محتواهای تازه را منشتر می‌کنند بهتر دیده شوند. پیش‌تر گوگل لیستی از سایت‌های تازه داشت (لیست fresh index) و فقط سایت‌هایی که در این لیست گوگل قرار گرفته بودند، شانس دیده شدن داشتند. با کمک کافئین همه وبسایت‌ها شانس برابری برای دیده شدن سریع دارند.

بعد از این کافئین شایعاتی پخش شد که اگر محتوای سایت خود را مرتب به‌روزرسانی کنیم روی نتایج سئو تاثیر دارند. یا اینکه صرفا تولید محتوای جدید به تنهایی می‌تواند سیگنال مثبتی در رتبه‌بندی باشد. اما واقعیت این است که این موضوع ربطی به کافئین نداشت و دلیلش سایر الگوریتم‌ها بود.

بسیاری از آپدیت‌های گوگل و اینکه امروزه گوگل توانسته است بیش از ۱.۳ میلیارد وبسایت را ایندکس کند مدیون کافئین (Caffeine) است.

پاندا (Panda): تلاش گوگل برای مبارزه با سئو کلاه سیاه

پاندا در اوایل سال ۲۰۱۱ منتشر شد و هدف آن مبارزه با محتوای اسپم و تکنیک‌های سئو کلاه سیاه بود. در آن زمان مفهومی به اسم مزرعه محتوا (Content Farms) شکل گرفته بود که به دلیل محتواهای بی‌کیفیت، باعث نارضایتی استفاده کنندگان گوگل شده بود. پاندا متولد شد تا به کیفیت هر صفحه امتیاز داده شود و درجه کیفیت صفحه سنجیده شود. این امتیاز به عنوان یکی عامل موثر در رتبه‌بندی جستجو به کار گرفته شد.

تا همین چند سال پیش (سال ۲۰۲۱) پاندا به عنوان نقطه عطفی در تمرکز گوگل بر کیفیت محتوا و تجربه کاربری شناخته شده بود. پاندا اولین قدم جدی گوگل برای ارزش‌گذاری صفحات بر اساس کیفیت محتوا و نه فقط ترفند‌های سئوی بود.

چرا پاندا ساخته شد؟

در سال ۲۰۱۰ افت نتایج جستجو به دلیل رشد مزارع محتوا و رشد سایت‌های بی‌کیفیت مشاهده شد. آمیت سینگال در یک مصاحبه گفت که انتشار کافئین در سال ۲۰۰۹ باعث شد که محتوای نه چندان با کیفیت به سرعت وارد نتایج گوگل شوند. شیوه اسپم از حالت کلاسیک خارج شده و بسیاری از وبسایت‌ها محتوای بی‌کیفیت اما به ظاهر مجاز دارند تولید می‌کنند.

در اواخر سال ۲۰۰۹ دو سایتیکه مشخصا مزرعه محتوا بودند (answers.com و Demand Media) در لیست ۲۰ سایت برتر آمریکا از نظر بازدید کننده بودند. Demand Media مالک وبسایت eHow روزانه حدود ۷۰۰۰ محتوای بی کیفیت تولید می‌کردند و در شبکه‌های اجتماعی منتشر می‌کردند و از طریق تبلیغات درآمد داشتند. وبسایت Business Insider در یک مقاله نوشت که Demand Media از اکوسیستم گوگل سوء استفاده می‌کند و صدها هزار محتوای سطحی و کم ارزش تولید کرده و در حال رشد و درآمدزایی است، زیرا که الگوریتم گوگل به محتوای مداوم پر تعداد بیشتر از محتوای با کیفیت اهمیت می‌دهد. واکنش گوگل چه بود؟ تولد الگوریتم پاندا

در سال ۲۰۱۱ با انتشار پاندا گوگل تصمیم گرفت که به صورت جدی محتواهای بی‌کیفیت را شناسایی کند و مزارع محتوا و سایت‌هایی با محتواهای بی‌کیفیت را از نتیاج بالا حذف کند و تمرکز خود را روی اصالت،‌ کیفیت و تجربه کاربری قرار دهد. پاندا نقطه عطفی در سیاست‌های کیفی گوگل و پایان دوران محتواهای ماشینی و اسپم بود.

طبق اعلام گوگل، یک روز پس از انتشار پاندا، انتشار پاندا روی ۱۱.۸٪ جستجوها تاثیر گذاشت. هدف آن نیز کاهش رتبه وبسایت‌های بی‌کیفیت، سایت‌هایی با محتوای کپی و سایت‌هایی که ارزش افزوده کمی برای کاربران دارند. در عین حال این به‌روزرسانی تثیر چشمگیری بر رتبه وبسایت‌های باکیفیت دارد. محتوای با کیفیت شامل وبسایت‌هایی با محتوای اصیل‌،‌ پژوهش،‌ گزارش‌های دقیق، تحلیل‌های صحیح و اطلاعات سودمند دارند.

پاندا آسیب بزرگی به بازاریابی محتوایی وارد کرد. در آن زمان افراد با نوشتن مقالات بی‌کیفیت و انتشار آن در جهای مختلف پروفایل لینک‌های خود را توسعه می‌دادند. پاندا همچنین به سایت‌هایی با محتواهای زرد آسیب زد و در سال ۲۰۱۲ Demand Media مالک وبسایت eHow حدود ۶.۴ میلیون دلار ضرر مالی اعلام کرد.

چه درس‌هایی از پاندا (Panda) آموخیتم که امروز هم اهمیت دارند؟

تحلیل‌هایی که در‌ آن دوران انجام شد نشان می‌دهد که سایت‌هایی که بیش‌ترین افت را تجربه کردند، ویژگی‌های مشترکی داشتند. این ویژگی‌ها شامل موارد زیر بودند:

  • دارای طراحی ضعیف و قدیمی بودند.
  • از تبلیغات آزاردهنده و مزاحم استفاده می‌کردند.
  • محتواهای طولانی بدون دلیل منتشر کرده بودند.
  • استاندارد‌های ویرایش آن‌ها پایین بود.
  • از عبارت‌های پرتکرار بدون هیچ دلیل و هدفی استفاده شده بود. (شاید فریب موتور جستجو)
  • از منابع نامعتبر در نوشته‌های خود استفاده کرده بودند.
  • اطلاعات اشتباه منتشر می‌کردند.
  • و نهایتا به صورت کلی وبسایت‌هایی که نه مفید بودند نه قابل اعتماد.

پاندا استانداردها و کیفیت وب را تغییر داد. پاندا ثابت کرد محتوای اصیل،‌ مفید و معتبر برای حضور در صدر نتایج گوگل ضروری است.

سوال‌هایی که پایه الگوریتم پاندا را شکل دادند

فرآیند طراحی الگوریتم پاندا با فرآیند ارزیابی انسانی شروع شد. آن ها مجموعه‌ای از صفحات ول را در اختیار ارزیاب‌های کیفی خود قرار دادند و از آن‌ها خواستند که به یک سری از پرسش‌ها در مورد هر وبسایت جواب بدهند. آمیت سینگال ۲۳ سوال منتشر کرد که الگوریتم پاندا بر اساس آن منتشر شده است. پاسخ به این ۲۳ سوال روشی بسیار عالی برای سنجش کیفیت محتواهای شما است. این سوالات شامل موارد زیر بودند:

  • آیا به اطلاعات ارائه‌شده در این مقاله اعتماد دارید؟
  • آیا نوشته توسط فردی متخصص یا علاقه‌مند به موضوع نوشته شده یا یک مقاله سطحی است؟
  • آیا محتوای مقاله یک نوشته اصیل است یا صرفاً تکرار محتواهای دیگر است؟
  • آیا نوشته جنبه‌های مختلف یک موضوع را بررسی می‌کند؟
  • آیا نوشته اطلاعات کاملی درباره موضوع می‌دهد یا ناقص است؟
  • آیا نوشته اطلاعات عمیق یا اطلاعات جالب فراتر از بدیهیات ارائه می‌کند؟
  • آیا نوشته حاوی غلط املایی و نگارشی است؟
  • آیا نوشته خوب ویرایش شده یا عجولانه تولید شده؟
  • آیا محتوای سایت با دقت و توجه تولید شده یا بدون بررسی منتشر شده؟
  • آیا مقالات خیلی کوتاه، بی‌ارزش یا فاقد جزئیات کاربردی هستند؟
  • آیا این نوشته شبیه چیزی است که در مجله یا دایره‌المعارف چاپ شود؟
  • آیا این سایت یک منبع معتبر در موضوع فعالیت خود است؟
  • آیا اگر نام سایت را بشنوید، آن را معتبر می‌دانید؟
  • آیا به اطلاعات ارائه‌شده توسط این سایت اعتماد دارید؟
  • آیا به سایت آن‌قدر اعتماد دارید که از آن خرید کنید؟
  • آیا کاربران ممکن است از اینکه صفحات این سایت را گوگل به آن‌ها نمایش داده شکایت کنند؟
  • آیا این وبسایت در مقایسه با دیگر نتایج جستجو کیفیت مشابه یا بهتر دارد؟
  • آیا مقالات بر اساس علاقه واقعی مخاطب نوشته شده یا صرفاً برای رتبه گرفتن در گوگل نوشته شده است؟
  • آیا به عنوان خواننده یک موضوع صفحات سایت را تمایل دارید بوک‌مارک، به اشتراک‌ بگذارید یا به دیگران توصیه کنید؟
  • آیا نوشته پر از تبلیغات است و تمرکز شما را از محتوای اصلی منحرف می‌کند؟
  • آیا محتوا نوشته شده تولید انبوه است یا با دقت و توجه تولید شده؟

نهایتا الگوریتم پاندا تلاش گوگل برای تبدیل معیارهای کیفی انسانی به معیار‌های الگوریتمی بود. گوگل با کمک پاندا در واقع مسیر را به سمت سئوی انسانی‌تر، تمرکز بر تجربه کاربری و اعتبار محتوا هدایت کرد

E-A-T چیست؟

در سال ۲۰۱۴ گوگل یک مفهومی به نام E-A-T را در دستور کار خود برای ارزیابی کیفیت نتایج جستجو معرفی کرد. E-A-T در واقع مخفف سه کلمه بود:

  • Expertise – تخصص
  • Authority – اعتبار
  • Trustwirthiness – قابلیت اعتماد

یکی از اصلی‌ترین معیار‌های مورد توجه گوگل و بازاریاب ها اصول E-A-T است. اصول E-A-T مانند پاندا بر دو موضوع تاکید دارد: کیفیت بالای محتوا – تجربه کاربری حرفه‌ای

اهداف E-A-T با پاندا مشابه است:

  • با محتوای ضعیف و فاقد اطلاعات مقابله می‌شود.
  • مقابله با مطالبی که فاقد منابع معتبر هستند.
  • به محتوای غیرقابل اعتماد و لینک‌سازی مشکوک توجه نشود.

در واقع پاندا سنگ‌بنای تمرکز گوگل بر کیفیت است و E-A-T ادامه و تکامل یافته همان مسیر است. در واقع امروزه تولید کنندگان محتوا در کنار اینکه باید توجه کنند که آیا محتوا مفید است، باید در نظر بگیرند: «چه کسی محتوا را تولید کرده؟» ، «چرا باید به این محتوا اعتماد شود؟» و «چه منابع معتبری در آن محتوا استفاده شده است؟»

الگوریتم پاندا به صورت کامل در الگوریتم‌های یادگیری ماشین گوگل ادغام شد و به همین دلیل دیگر شاهد به‌روزرسانی مستقل و مجزای پاندا نیستیم. اما توجه داشته باشید اصول پاندا بخش دائمی و پایه‌ای ساختار هوش مصنوعی گوگل است و تاثیر آن بر سئو همچنان مهم تلقی می‌شود.

این مطلب را از دست ندهید!
سیستم‌های رتبه‌بندی گوگل

الگوریتم تازگی (Freshness Algorithm)

این الگوریتم که در نوامبر ۲۰۱۱ منتشر شد، نحوه رتبه‌بندی وبسایت‌ها را برای سه دسته از عباراتی که توسط کاربران جستجو می‌شود، تغییر داد:

  • رویداد یا اخبارهای اخیر: مثل انتخابات یا اخبار رویداد اخیر مانند زلزله یا عرضه یکی از محصولات اپل یا سامسونگ (اهمیت آن‌ها به دسترسی سریع به نتایج است و یکبار سرچ می‌شود.)
  • موضوعات تکرار شونده: مانند نتایج ورزشی،‌ جوایز اسکار یا قیمت سهام (یک فرد ممکن است روزانه یا هفتگی یا سالانه یکبار این موضوع را جستجو کند.)
  • جستجو با نیاز به به اطلاعات به روز و به‌روزرسانی مکردد: مانند «بهترین گوشی اقتصادی ۲۰۲۵» (پارامتر زمان تعیین کننده است و بهترین گوشی سال ۲۰۲۴ با بهترین گوشی سال ۲۰۲۵ متفاوت است.) یا «بهترین لپتاپ گیمینگ» یا «بهترین کفش برای استفاده روزمره»

هدف الگوریتم تازگی این بود که محتوایی که جدیدتر و به‌روز تر است را برای جستجوهایی که دست اول بودن و تازگی محتوا اهمیت دارد در رتبه بالاتری قرار دهد. الگوریتم تازگی در زمان انتشار حدود ۳۵٪ از نتایج جستجو را تحت تاثیر قرار داد و بر ۶ الی ۱۰ درصد جستجوهای کابران تاثیر گذاشته است.

در الگوریتم تازگی،‌ زمان به عنوان یکی از پارامتر‌های مرتبط بودن نتایج جستجو در نظر گرفته شد. در واقع این الگوریتم به گوگل این امکان را داد که محتواهایی که ترند هستند را نمایش دهد. این الگوریتم رشد خود را مدیون کافئین است، چرا که همانطور که پیش‌تر گفته شد کافئین به گوگل این امکان را داد که محتواهای موجود در سطح وب را در مقیاسی بی‌سابقه ایندکس کند.

نام این الگوریتم مستقیما از اعلام رسمی خود گوگل گرفته شده است، که اعلام کرد:

موتور جستجوی گوگل از الگوریتم تازگی (Freshness Algorithm) استفاده می‌کند که با هدف نمایش جدیدترین نتایج طراحی شده است.

چه درس‌هایی از الگوریتم تازگی آموختیم که امروز هم اهمیت دارد؟

یک عبارت رایج در بین متخصصین سئو وجود دارد که «گوگل عاشق محتوای تازه است.»، در این راستا حتی افزونه‌هایی برای برخی از سیستم‌های مدیریت محتوا مثل وردپرس وجود دارد که تاریخ آخرین ویرایش را مرتبا به صورت خودکار تغییر می‌دهند. اما واقعیت چیز دیگری است!

مت کاتس اعلام کرد که تازگی همیشه عامل رتبه‌بندی وبسایت‌ها نیست. اگر موضوع وبسایت شما خبری نیست یا در حوزه‌ای فعالیت می‌کنید که واقعا نیاز به به‌روزرسانی مکرر ندارد، نیازی به نیست که در مورد الگوریتم تازگی نگران باشید. اینکه هر روز چند کلمه را تغییر دهید و تاریخ انتشار را ویرایش کنید به رتبه وبسایت شما کمکی نمی‌کند، یا حتی ممکن است تاثیر منفی نیز داشته باشد. در عوض پیشنهاد مت کاتس این است که روی مقالات عمیق و همیشگی تمرکز کنید.

پس زمانی این الگوریتم برای شما مهم است، که کوئری جستجو واقعا نیاز به اطلاعات به‌روز داشته باشد. وبسایت‌های زیر بیش‌تر از بقیه نیاز به محتوای تازه دارند:

  • موضوعات مرتبط با روند‌های متغیر:‌ مانند وبسایت‌های فعال در حوزه مد، تکنولوژی، بازی‌های جدید و …
  • موضوعات و رویداد‌های تکرار شونده: مانند انتخابات، مسابقات ورزشی، قیمت سهام، گزارش‌های سالیانه مالی و …
  • محصولاتی که پیوسته به‌روزرسانی می شود: مدل‌های جدید کوشی، لپتاپ، خودرو و …

اگر می‌خواهید از این الگوریتم در وبسایت خود بهره ببرید، بهتر است که محتوای خبری و ترند شده را به سرعت منتشر کنید و باعث افزایش شدید ترافیک وبسایت خود شوید. اما یک نکته را در نظر داشته باشید آیا حوزه محتوایی شما یکی از سه حوزه الگوریتم تازگی را شامل می‌شود یا خیر. اگر شامل می‌شود که روی محتواهای منظم و تازه تاکید کنید. اگر شامل نمی شود، توصیه می‌شود که روی محتواهای همیشه سبز (Evergreen) تمرکز کنید و محتواهای باکیفیت، عمیق و با اعتبار بالا منتشر کنید.

الگوریتم چیدمان صفحه: بالای صفحه مهم است

الگوریتم Page Layout یا چیدمان صفحه در اوایل سال ۲۰۱۲ معرفی شد. این به‌روزرسانی وبسایت‌هایی را هدف قرار داد که بخش بالای صفحه (Above the fold) را تعداد زیادی از تبلیغات پوشانده بود. و این تعداد زیاد تبلیغات کاربران را مجبور می‌کرد که برای دیدن محتوای اصلی، صفحه را به پایین اسکرول کنند. گوگل اعلام کرد این الگوریتم تنها حدود ۱٪ وبسایت‌ها را تحت تاثیر قرار داده است. اما همین مقدار کم نیز مجبور شدند که صفحات وب و تجربه کاربری خود را بازطراحی کنند. البته این الگوریتم شامل پاپ-آپ و تبلیغات‌های Overlay نشده بود.

این الگوریتم ۴ بار به‌روزرسانی شد و تنها وبسایت‌هایی آسیب دیدند که تبلیغات‌های زیادی در بالای صفحه داشتند که تجربه کاربری را مختل و تضعیف می‌کرد. البته موج نارضایتی نسبت به این الگوریتم هم به وجود آمد و بسیاری از کاربران اعتراض داشتند که دیگر صفحات و تبلیغات‌های وبسایتشان در کنترل آن‌ها نیست.

چه درس‌هایی از چیدمان صفحه آموختیم که امروز هم اهمیت دارد؟

گوگل با این توضیح که کاربران از وب‌سایت‌هایی که آن‌ها را با تبلیغات بمباران می‌کند دوری می‌کنند، این الگوریتم را پیاده سازی کرد. نهایتا این تغییر به دلایل زیر برای همه مفید بود:

  • صاحبان وبسایت‌ها یاد گرفتند که تبلیغات‌ها را در مکانی مناسب‌تر قرار دهند.
  • بازدیدکنندگان تجربه کاربری راحت‌تری داشتند.
  • به آگهی‌های آگهی دهندگان نیز بی‌توجهی نمی‌شد چرا که پیش‌ از این الگوریتم آگهی‌های بالای صفحات بدون توجه به محتوا اسکرول می‌شد.

به‌روزرسانی ونیز: جستجوی محلی متحول شد!

به‌روزرسانی ونیز در سال ۲۰۱۲ معرفی شد. پس از آن گوگل شروع به نمایش نتایجی کرد که بیش‌تر با نیت محلی کاربران تطابق داشته باشد. در واقع در این آپدیت گوگل نتایح محلی را با نتایج اورگانیک ترکیب کرد. این آپدیت از این نظر که به کسب‌وکارهای محلی فرصت دیده شدن داد، حائز اهمیت است.

در واقع برای گوگل همیشه ارائه بهترین جواب به کاربر مهم‌ترین الویت است. که آپدیت ونیز بخشی از این هدف است. این آپدیت شامل تغییرات زیر بود:

  • نتایج محلی با نتایج اورگانیک گوگل ترکیب شد.
  • جستجوهایی که پیش‌تر فقط نتایج عمومی داشتند، اکنون بر اساس مکان فیزیکی کاربر نتایج متفاوتی را نشان می‌دادند.
  • موقعیت جغرافیایی کاربر بر نتایج تاثیر داشت. گوگل از طریق IP یا سابقه مکانی کاربر حدس میزد که نیت از جستجو چه بوده و نتایج را محلی‌تر به کاربر نشان می‌داد.
  • سئوی محلی از اینجا اهمیت بیشتری پیدا کرد.

در این آپدیت سایت‌های کوچک محلی در کلیدواژه‌های مهم شانس رقابت با سایت‌های بزرگ ملی را پیدا کردند. همچنین بسیاری از وبسایت‌ها اقدام به ساخت صفحاتی با نام شهرها با ترکیب آن با کلیدواژه اصلی کردند تا شانس رقابت در کلیدواژه‌های محلی را از دست ندهند.

الگوریتم پنگوئن: لینک‌سازی غیر طبیعی ممنوع!

بیش از ۱۰ سال از زمانی که گوگل الگوریتم پنگوئن را معرفی کرد می‌گذرد. پنگوئن موضع و رویکرد جدی‌تری نسیت به تکنیک‌های فریب لینک‌سازی داشت. پنگوئن بخشی جدانشدنی از الگوریتم‌های هسته‌ای گوگل جا باز کرد. گوگل مدعی است که بسیاری از لینک‌های بی‌کیفیت را نادیده می‌گیرد مانند‌:

  • طرح‌های لینک‌سازی (Link Schemes)
  • شبکه‌های وبلاگ خصوصی (PBN – Private Blog Network)
  • تبادلات لینکی (Link Exchanges)
  • الگوهای غیرطبیعی لینک‌دهی

در سال ۲۰۱۲ گوگل یک آپدیت به نام webspam algorithm update منتشر کدر که در این به‌روزرسانی به صورت مشخص لینک‌های اسپم و روش‌های فریبنده ساخت لینک را هدف قرار داد. این آپدیت بعدتر با نام رسمی پنگوئن شناخته شد.

قبل از معرفی پنگوئن حجم بک‌لینک‌ها نقش بسیار پررنگی در تعیین امتیاز صفحات وب تویط گوگل داشت. این موضوع باعث شده بود که حجم زیادی از وبسایت‌ها با محتواهای بی‌کیفیت صرفا به دلیل داشتن تعداد لینک بالا در نتایج جستجو رتبه بهتری از چیزی که لیاقت داشتند به دست بیاورند.

البته نبرد اصلی گوگل با محتوای بی‌کیفیت با الگوریتم پاندا شروع شد و پنگوئن به عنوان کامل کننده این مسیر وارد میدان شد. هدف الگوریتم پنگوئن کنترل دقیق‌تر بر لینک‌های ورودی وبسایت‌ها بود، تا از این طریق بتوان اثر گذاری تکنیک‌های فریبنده را کاهش داد.

پنگوئن با درک ماهیت لینک‌ها توانست فقط لینک‌های طبیعی،‌معتبر و مرتبط را به عنوان عامل ارتقا اعتبار یک دامنه در نظر بگیرد. لینک‌های دیگر به عنوان اسپم شناسایی شده یا تاثیر منفی بر روند سایت می‌گذارند یا کاملا توسط گوگل نادیده گرفته می‌شدند. در نظر داشته باشید که پنگوئن فقط بک‌لینک‌های یک وبسایت را جستجو می‌کند و کاری به لینک‌های خروجی آن ندارد.

در زمان معرفی پنگوئن گفته شد که پنگوئن دو تکنیک لینک‌سازی فریبنده را هدف قرار داده است:

  • طرح‌های لینک‌سازی (Link Schemes): شامل انواع روش‌های تبادل لینک، خرید بک‌لینک و سایر روش‌های غیرطبیعی لینک‌سازی
  • کیورد استافینگ (Keyword Stuffing): پر کردن صفحات با یک کیورد مشخص تاثیر منفی داشت. البته این پیش‌تر به پاندا نسبت داده شده بود، اما در پنگوئن نیز به آن توجه شد.

پس از معرفی پنگوئن وبسایت‌هایی که از تکنیک‌های لینک‌سازی دستکاری شده یا بی‌کیفیت استفاده کرده بودند افت چشمگیری در ترافیک اورگانیک خود مشاهده کردند.

برای حل این مشکل وبسایت‌ها می‌توانند از ابزار Disavow استفاده کنند. این ابزار می‌تواند به بهبود رتبه وبسایت‌هایی که تحت تاثیر پنگوئن رتبه خود را از دست داده‌اند کمک کند. توجه داشته باشید، تنها زمانی از این ابزار استفاده کنید که تعدادی لینک اسپم دارید که حذف آن از طریق سایت مبدا ممکن نیست.

چه درس‌هایی از پنگوئن آموختیم که امروز هم اهمیت دارد؟

پنگوئن برای مبارزه با لینک‌سازی اسپم شروع به کار کرد. پس درس‌هایی که از این الگوریتم می‌گیریم عبارتند از:

  • پروفایل لینک‌های خود را پیوسته مرور کنید.
  • لینک‌های بد را disavow کنید.
  • تمرکزتان روی لینک‌سازی طبیعی و با کیفیت بگذارید.
  • صبور باشید، بهبود موقعیت در موتور جستجو امری فوری نیست.

برچسب‌های مرتبط

شبکه‌های اجتماعی

نوشته‌های مرتبط در این دسته‌بندی:

درباره نویسنده

سالار ربیعی

add