در این نوشته سعی شده است که فهرستی کامل از بهروزرسانیها، تغییرات و نسخههای منتشر شده الگوریتمهای گوگل در طول چند سال گذشته جمعآوری شود. الگوریتمهای گوگل مجموعهای از دستورالعملها هستند، که گوگل بر اساس آنها ترتیب نمایش صفحات را مرتب میکند. در واقع این الگوریتمها هستند که تشخصی میدهند که کدام صفحات وب و با چه ترتیبی در نتایح گوگل ظاهر شوند.
الگوریتمهای گوگل سیستمهای پیچیده و آزموده شدهای هستند که جهت مرتبسازی و نمایش دادهها و وبسایتها در صفحه نتایج موتور جستجو از آنها استفاده میشود. در واقع گوگل از ترکیبی از الگوریتمها و عوامل دیگر استفاده میکند تا صفحات وب را بر اساس میزان ارتباط آنها به عبارت جستجو شده نمایش دهد.
در سالهای اولیه فعالیت گوگل، چند بهروزرسانی محدود در الگوریتمهای گوگل اتفاق میافتاد. اما امروزه گوگل سالیانه شاید حدود هزاران تغییر در الگوریتمهای خود اعمال میکند. بیشتر این بهروزرسانیها آنقدر جزئی هستند که شاید هیچگاه متوجه آنها نشوید. اما بعضی از این بهروزرسانیها تاثیر چشمگیری بر نتایج جستجو میگذارند. در ادامه فهرستی از الگوریتمهای گوگل مشاهده میکنیم.
در ادامه، به بررسی عمیقتر هر الگوریتم میپردازیم.
فلوریدا که یک بهروزرسانی افتضاح از طرف گوگل بود در سال ۲۰۰۳ سئو و بهینهسازی صفحات وب برای موتورهای جستجو را تحت تاثیر قرار داد. در آن زمان، هر زمان گوگل یک بهروزرسانی را اعلام میکرد، معمولا منتظر یک تغییر چشمگیر در ترتیب نتایج جستجو بود.
در ادامه بهروزرسانی فلوریدا و اینکه احتمالا شامل چه تغییراتی بوده و اینکه چرا تا به امروز اهمیت دارد بررسی میشود.
این بهروزرسانی در اواخر سال ۲۰۰۳ و دقیقا پیش از فصل خرید کریسمس و همزمان با کنفرانس Pubcon Florida اتفاق افتاد. بلافاصله تغییر در نحوه محاسبه لینک ها به سرعت مشاهده شد. بسیاری از وبسایتهای بیگناه و غیر اسپم جایگاه خود در نتایج جستجو را از دست دادند.
متاسفانه این تغییر باعث شد بسیاری از سایتهای کوچک در بازه حساس فروش قبل از عید فروش خود را از دست بدهند و یک شبه از بازار حذف شوند. مشخص نیست که گوگل چقدر پیش از انتشار فلوریدا نتایج را تست کرده است، اما مشخصا بسیاری از وبسایتهای سالم جایگاه خود را از دست دادند.
واکنشها به این الگوریتم بهقدری گسترده و منفی بود، که تا ۹ سال بعد هرگز گوگل هیچ بهروزرسانی مهمی را در تعطیلات پیش از عید منتشر نکرد.
نظریههای زیادی مطرح شد که بررسی میکردند که فلوریدا شامل چه تغییراتی است، به نظر میرسد که فلوریدا یک الگوریتم تحلیل لینک بود که البته کسی شناخت دقیقی از عملکرد تحلیل لینک نداشت.
در واقع تا زمانی که گوگل به صورت رسمی تغییرات را افشا کرد، کسی شناختی از نحوه تحلیل لینک نداشت. ماریسا مایر در کنفرانس «استراتژیهای موتور جستجو» اعلام کرد که: گوگل لینکهای صفحات نامرتبت را کمارزشتر کرده است.
این موضوع زمانی مهم است که در آن زمان یک بک لینک از صفحات کم ارزش با PageRank بالا (فارغ از موضوع صفحهای که لینک داده و لینک شده است) میتوانست به رتبهبندی وبسایتها کمک قابل توجهی کند. و صفحات را به کلی جابجا کند.
البته در سال ۲۰۰۵ در کنفراس Pubcon گفت که گوگل از تحلیل آماری لینکها برای شناسایی سایتهای اسپم استفاده میکنند. و البته این اولین باری بود که از کلمه تحلیل آماری در دنیای سئو استفاده شد، که به نظر میرسد حتی از موضوع کاهش ارزش لینکهای غیر مرتبط نیز مهمتر بود.
نهایتا همه توافق داریم که بهروزرسانی فلوریدا یک تحول و همزمان اختلال بزرگ در فضای سئو بود. البته که هرگز به صورت رسمی فاش نشد که الگوریتم فلوریدا دقیقا چه بود، اما به نظر میرسد که محتملترین گزینه وارد شدن بحث تحلیل آماری باشد.
تحلیل آماری به صورت کلی یک فرآیند جمعاوری حجم زیادی از داده و اطلاعات اس که پس از استفاده از تکنیکهای تحلیل داده روندها و الگوها شناسایی شده و سوگیری ها حذف میشود. تحلیلگران آماری دادههای خام را گرفته و همبستگی بین متغیرها را پیدا کرده و الگوها و روندها را برای ذینفعان پیدا میکنند.
اما تحلیل آماری در زمینه وبسایتها و دادههای مربوط به لینکها به معنی به تصویر کشیدن یک صفحه یا سایت در نمودار و بررسی الگوهای عددی آنها است. به عنوان مثال، در تحلیل آماری لینکها، میتوان تعداد لینکهای خروجی در هر صفحه، تعداد لینکهای حاوی انکرتکستهای حاوی کلمات کلید و سایر ویژگیهای مشابه به این را محاسبه کرد.
در واقع این تصمیم ناگهانی نبود و گوگل از سال ۲۰۰۱ مشغول تحقیق و بررسی در مورد ویژگیهای آماری لینکها بود. همین موضوع را در مقالهای با عنوان «کی به چه کسی لینک میدهد؟» به مدلسازی آماری صفحات وب پرداخته و توضیح میدهد که با بررسی برخی از ویژگیها میتوانند نشاندهنده اسپم بودن یک وبسایت باشد.
این مقاله به دلیل حضور کریشنا بهارات در لیست نویسندگان، به عنوان یک منبع مهم میتواند مبنا قرار گیرد. او بعدترها بنیانگذار سرویس اخبار گوگل (Google News) شد و از نویسندگان اگوریتم Hilltop و سازنده الگوریتم LocalRank بود.
تنها چند ماه بعد از انتشار فلوریدا مایکروسافت مقالهای تحت عنوان «Spam, Damn Spam, and Statistics» منتشر کرد که نشان میدهد موتورهای جستجو در حال استفاده از تحلیل آماری برای شناسایی اسپم هستند. این موضوع نشان از اهمیت تحلیل آماری دارد و فلوریدا اولین تلاش گوگل برای شناسایی اسپم بوده است.
مهمترین تاثیری که فلوریدا بر سئو گذاشت را میتوان: عبارت «طبیعی به نظر رسیدن» در الگوی لینکسازی را وارد ادبیات سئو کرد. همین الان هم متخصیص سئو نگران الگوی لینکسازی هستند. متخصیص سئو دغدغه این را دارند که الگوی لینک سازی طبیعی به نظر برسد.
البته الان که بیش از دو دهه از زمان انتشار فلوریدا گدشته است، دیگر مقالهای در این زمینه نمیخوانیم. دلیل این موضوع این است که این فناوری به بلوغ کامل رسیده است و دغدغه این روزها یادگیری ماشین، درک محتوا و موضعات مشابه به این است.
با این حال به این نکته توجه کنید که تحلیل لینک (حتی اگر بخشی از فلوریدا نبوده باشد و بعدتر ها وارد فرآیند رتبهبندی گوگل شده باشد)، همچنان بخشی از هسته گوگل است. البته که بر اساس مقالاتی که پیشتر به آنها اشاره شد روشی منطقی به نظر میرسد چرا که روشی موثر برای شناسایی و حذف وبسایتهای اسپم است.
فلوریدا از این نظر که ادبیات بهینه سازی برای موتور جستجو و شیوه سئو کردن یک وبسایت را تحت تاثیر قرار داد، یک الگوریتم مهم است.
این بهروزرسانی هم یکی دیگر از بهروزرسانیهای مهم گوگل است. ابن به روزرسانی فرآیند جالبی را طی کرد. از انتخاب اسم آن که توسط یکی از شرکتکنندگان در PubCon سال ۲۰۰۵ پیشنهاد شد، تا شیوه تدریجی تاثیر آن و همچنین اجرای آزمایشی آن فرآیندی بود که این بهروزرسانی را به یک بهروزرسانی مهیج و مهم تبدیل کرد.
بیگ ددی تاثیر چشمگیری بر کیفیت کلی نتایج جستجو گذاشت. این بهروزرسانی در سال ۲۰۰۵ اعلام شد. به دلیل بنیادی و اساسی بودن این بهروزرسانی روند اجرایی آن به صورت تدریجی انجام گرفت. این آپدیت تاثیر ملموسی بر کیفیت نتایج گذاشت و فرآیند پیاده سازی کامل آن تا سال ۲۰۰۶ ادامه داشت.
گوگل به جای پیادهسازی کامل الگوریتم را اول روی دو سرور آزمایشی اجرا کرد و آدرس آن را در اختیار متخصصین سئو قرار داد. اینگونه مشکلاتی که در الگوریتم قبلی پیش آمد برطرف شد و متخصصین سئو میتوانستند ببینند که جایگاه وبسایتشان در سیستم جدید به چه صورت خواهد بود و بازخورد خود را از این سیستم به گوگل بدهند.
در کنفرانس Pubcon سال ۲۰۰۵ پس از یک جلسه پرسش و پاسخ یک ساعته در سالن غذاخوری مت کاتس از شرکت کنندگان خواست یک اسم برای این الگوریتم پیشنهاد بدهند. که نام بیگ ددی توسط یکی از شرکتکنندگان پیشنهاد شد.
با به بازخوردهای پیوسته از متخصصین سئو بیگ ددی به صورت تدریجی در سرورها و دیتا سنتر های بیشتری اجرا شد و نهایتا در اواخر مارچ ۲۰۰۶ دیتاسنتر های قدیمی خاموش شدند و بیگ ددی به صورت کامل اجرا شد.
گوگل در استفاده از سیستم بازخورد همیشه هوشمندانه عمل کرده است. مثلا در سرویس Google411 (سرویسی مشابه ۱۱۸ در ایران) افراد تماس میگرفتند و شماره تلفن مکانهای درخواستی خود را میگرفتند. بعدتر ها از بارخوردهای این محصول استفاد کرد و سوریس تشخیص صدا را توسعه داد.
این بار نیز استفاده از سرورهای آزمایشی در بیگ ددی نیز به گوگل کمک کرد تا بازخوردهای متخصصین سئو که با اشتیاف فیدبکهای خود را مینوشتند را دریافت کرده و سرویس خود را کاملتر کند. این بازخورد و ابزار حذف آدرس (URL Removal Tool) در واقع مقدمهای برای ابزار Google Webmaster Tools بودند که امروزه به نام Google Search Console میشناسیم.
مت کاتس بعدتر گفت که بازخوردها نسبت به این بهروزرسانی خوب بوده و تعداد کمی نارضایتی داشتهاند. وبسایتهای معروف سئو هم از این آپدیت استقبال کردند و گفتند شکایتهایی که از بیگ ددی شده است، در واقع مربوط به مشکلاتی بوده که اساسا به این آپدیت مربوط نبودند و اشتباها به بیگ ددی ربط داده شدند.
البته روندی که امروزه هم شاهد آن هستیم، دو دهه قبل هم اتفاق افتاد و به گوگل نقدهایی شد که در فرآیند شناسایی اسپم غرق شده است.
در واقع گوگل اشاره مبهمی کرد که این صرفا یک بهروزرسانی زیرساختی است، اطلاعات بیشتری از این آپدیت منتشر نشد. کاتس اشاره کرد که این بهروزرسانی به بهبود کیفیت نتایج کمک میکند. ولی به تغییرات اشاره نکرد.
یکی از تغییراتی که بعد از این بهروزرسانی موج آن شروع شد، تاکید بر ساختار منسجم و ساختار یافته وبسایتها بود. اهمیت متا دیتا ها و لینکسازی داخلی از این تغییر بیشتر وزن خود را نشان داد. مفاهیمی همچون سندباکس گوگل (Google Sandbox) یا رقص گوگل (Google Dance) بعد از این آپدیت وارد ادبیات سئو شد.
تجربیاتی که بعد از بیگ ددی به دست آمد نشان داد که:
ممکن است بیگ ددی فراتر از این مسائل رفته باشد، اما این اطلاعاتی است که به صورت عمومی بر سر آنها توافق وجود دارد. این الگوریتم ثابت کرد پیروی از اصول اخلاقی در سئو، تجربه کاربری و تولید محتوای باکیفیت از اصلیترین معیارهای موفقیت در سئو است. این معیارها تا امروز هم اساس بهینه سازی صفحات وب برای موتورهای جستجو باقی مانده است.
هدف الگوریتم جاگر مقابله با لینک سازی غیرطبیعی و محتواهای تکراری بود. این بهروزرسانی در سپتامبر سال ۲۰۰۵ شروع شد و این الگوریتم هم به صورت تدریجی پیاده سازی شد و نهایتا در طی چند هفته و در اکتبر ۲۰۰۵ به صورت کامل پیادهسازی شد.
جاگر با مجموعهای از تغییرات در درک بکلینکها شروع شد. همزمانی جاگر با بهروزرسانی PageRank گوگل این آپدیت را در آن زمان به موضوعی قابل توجه تبدیل کرد.
بروزرسانی Jagger در سپتامبر ۲۰۰۵ با مجموعهای از تغییرات متمرکز بر بکلینکها آغاز شد و این تغییرات تا اکتبر ۲۰۰۵ ادامه یافت. این اتفاق همزمان با بروزرسانی پایگاه عمومی PageRank گوگل رخ داد که در خود نیز رخدادی قابل توجه محسوب میشد.
هرچند عدهای معتقد بودند که گوگل این تغییرات را برای افزایش درآمد خود از تبلیغات انتخاب کرد، اما این اگوریتم بیشتر روی اندازه محتوا، بک لینک و بهروزرسانی محتوا تاکید داشت. وبسایتهایی تحت تاثیر قرار گرفتند، ویژگیهای زیر را داشتند:
ارزیابی لینکهای ورودی را نیز تحت تاثیر قرار گرفت. در ارزیابی لینکهای ورودی یا بکلینکها متن لینک (anchor text)، محتوای صفحه لینکدهنده، سرعت گرفتن بکلینک و الگوهای فروش بکلینک که به صورت ماهانه خریداری میشدند شناسایی شدند.
رتبهبندی سایتهایی که لینک sitewide خریداری کرده بودند، با وبسایتهای نامرتبط با موضوع خود تبادل لینک داشتند، یا از مزارع لینک (link farm) بک لینک گرفته بودند آسیب دید. همچنین سایتهایی که از متن مخفی، و ریدایرکت استفاده کرده بودند نیز آسیب دیدند.
در این آپدیت گوگل همچنین سایتهایی که از CSS برای پنهان کردن بخشی از متن و کلمات کلیدی استفاده میکردند، یا از Meta refresh redirect (که در آن زمان مرسوم بود) استفاده میکردند را نیز جریمه کرد.
بعد از جاگر دو موضوع وارد ادبیات سئو شد. و دو موضوع توسط متخصصین سئو مطرح شد:
ادعای اینکه گوگل سایتهای قدیمر ا ترجیح میدهد پیشتر هم در بین وبمسترها رایج بود ولی بعد از جاگر بحث شدت گرفت. اما این پیشفرض در موتور جستجو وجود دارد که تاریخ انقضای دامنه به عنوان یکی از عوامل پیشبینی اعتبار دامنه در نظر گرفته میشود. البته در سال ۲۰۱۰ مت کاتس آن را کم اهمیت تلقی کرد ولی وجود آن را انکار نکرد.
به صورت کلی درسهایی که از جاگر گرفتیم را میتوان به صورت زیر خلاصه کرد:
این بهروزرسانی با تمرکز بیش از حد بر روی لینکسازی غیرطبیعی و لینکهای بیکیفیت یا لینکهای خریداری شده، به نظر میرسد پایههای الگوریم پنگوئن (Penguin) بود که بعدتر برای مقابله تخصصی با لینکهای اسپم بود.
درسی که هنوز از این آپدیت برای ما مهم است: اهمیت تولید محتوای اصیل و باکیفیت و همچنین لینکسازی طبیعی
این بهروزرسانی در اوایل سال ۲۰۰۹ ارائه شد و نام آن برگرفته از یکی از مهندسین گوگل بود که تلاش زیادی در این بهروزرسانی انجام داد. وینس صفحه اول را در کلمات کلیدی به نفع دامنههای متعلق به برندهای برتر تغییر داد.
بهروزرسانی وینس (Vince) باعث شد که در کلمات کلیدی رقابتی و سطح بالا نتایج به نفع برندهای بزرگ باشد. وبسایتهایی مانند سایتهای افیلیت (affiliate) یا سایتهایی با اعتبار کمتر یا سایتهایی که با تلاش زیاد و با کمک تکنیکهای سئو به جایگاه خوبی رسیده بوند جایگاه خود را در کلیدواژه های رقابتی از دست دادند.
اریک اشمیت که در آن زمان مدیرعامل گوگل بود گفت که:
اینترنت بهسرعت در حال تبدیل شدن به یک باتلاق است که در آن اطلاعات نادرست رشد میکند … برندها راهحلاند، نه مشکل … برندها همان چیزیاند که شما با آنها این باتلاق را غربال میکنید.
این بهرورسانی در واقع آغازگر دورهای بود که اعتماد به برند تبدیل به یکی از معیارهای اصلی رتبهبندی گوگل شد. برندینگ وارد حوزه وبسایتها شد و حضور وبسایتهای دولتی در صفحات اول گوگل و برندهای بزرگ پررنگتر شد. مت کاتس در ویدئویی که در یوتوب منتشر شد به طور غیر مستقیم اشاره میکند که این بهروزرسانی تنها به نفع برندهای بزرگ نبود، بلکه بیشتر به منزله تغییری در جهت الویت دادن به سایتهایی با اعتبار بالا و ارتباط محتوای بالا است. وبسایتها و برندهایی که از قبل روی ساخت اعتبار و شفافیت سرمایهگذاری کرده بودند، از این الگوریتم سود بردند.
نام یک وبسایت زمانی دارای اعتبار میشود و میتوان گفت برند آن شکل گرفته است که:
وینس (Vince) بخشی از مسیر رسیدن به کیفیت در نتایج بود، مسیری که مرتبطترین نتایج جستجو را نشان دهد. این الگوریتم بر خلاف چیزی که برخی از متخصصین سئو در وبسایتهای مختلف میگفتند یک توطئه یا یک داد و ستد مالی بین گوگل و برندهای مطرح نبود، بلکه بخشی از مسیر تحول موتور جستجوی گوگل برای هوشمندتر شدن بود. این آپدیت باعث شد که وبسایتهایی که بر هویت و کیفیت خود سرمایهگذاری کرده بودند، بازدیدکننده بیشتری بگیرند.
این بهروزرسانی تاثیر مستقیم بر نتایج گوگل نداشت. این بهروزرسانی با ایندکس سریع، گسترده و بهروز ساختار فنی گوگل را متحول کرد.
کافیئین در اواسط سال ۲۰۱۰ به طور رسمی منتشر شد، در حالی که یک سال قبلتر گوگل نسخه آزمایشی آن را در اختیار توسعهدهندگان و متخصصان سئو قرارداده بود تا مشکلات احتمالی آن شناسایی و گزارش شود.
کافئین یک سیستم جدید برای ایندکس کردن صفحات وب وبد. این سیستم نحوه خزیدن (crawl)، ذخیره و نمایش اطلاعات توسط گوگل را به صورت کامل بازطراحی کرد. طبق اعلام رسمی گوگل این آپدیت باعث شد حجم صفحات ایندکس شده افزایش یاید و همچنین نتیج جستجو به نسبت قبل از انتشار کافئین ۵۰٪ تازهتر باشد.
همانطور که گفتیم کافئین به صورت مستقیم بر روی رتبهبندی وبسایتها تاثیر نگذاشت. گوگل با کمک کافئین به توانایی دست یافت که در عرض چند ثانیه محتواهای جدید را کراول کند، دادهها را جمعآوری و ایندکس کند و در نتیجه نتایج بهروزتری ارائه دهد.
در واقع گوگل کافئین یک بهروزرسانی الگوریتمی نبود و ترتیب رتبهبندی وبسایتها را تغییر نداد. بلکه بیشتر قصد داشت سیستم ایندکس کردن صفحات وب را بازطراحی کند. به کمک کافئین گوگل زیرساخت جمعآوری، ذخیره و ارائه نتایج را باز طراحی کرد.
این موضوع از این نظر مهم بود که کاربران اینترنت در سال ۱۹۹۸ حدود ۱۸۸ میلیون کاربر و ۲ میلیون وبسایت در جهان وجود داشت. اما در سال ۲۰۰۹ که این آپدیت معرفی شد کاربران اینترنت به ۱۸۰۰ میلیون نفر رسیده بود و مجموع تعداد وبسایتها به ۲۳۸ میلیون وبسایت رسیده بود. این رشد ۱۱۹ برابری در تعداد وبسایتها نیاز به یک تحول در سیستم جمعآوری، ذخیره و ارائه وبسایتها را توجیه میکرد.
سرعت ایندکس کردن گوگل بعد از کافئین افزایش یافت و این موضوع منجر شد که وبسایتهایی که سریعتر اخبار و محتواهای تازه را منشتر میکنند بهتر دیده شوند. پیشتر گوگل لیستی از سایتهای تازه داشت (لیست fresh index) و فقط سایتهایی که در این لیست گوگل قرار گرفته بودند، شانس دیده شدن داشتند. با کمک کافئین همه وبسایتها شانس برابری برای دیده شدن سریع دارند.
بعد از این کافئین شایعاتی پخش شد که اگر محتوای سایت خود را مرتب بهروزرسانی کنیم روی نتایج سئو تاثیر دارند. یا اینکه صرفا تولید محتوای جدید به تنهایی میتواند سیگنال مثبتی در رتبهبندی باشد. اما واقعیت این است که این موضوع ربطی به کافئین نداشت و دلیلش سایر الگوریتمها بود.
بسیاری از آپدیتهای گوگل و اینکه امروزه گوگل توانسته است بیش از ۱.۳ میلیارد وبسایت را ایندکس کند مدیون کافئین (Caffeine) است.
پاندا در اوایل سال ۲۰۱۱ منتشر شد و هدف آن مبارزه با محتوای اسپم و تکنیکهای سئو کلاه سیاه بود. در آن زمان مفهومی به اسم مزرعه محتوا (Content Farms) شکل گرفته بود که به دلیل محتواهای بیکیفیت، باعث نارضایتی استفاده کنندگان گوگل شده بود. پاندا متولد شد تا به کیفیت هر صفحه امتیاز داده شود و درجه کیفیت صفحه سنجیده شود. این امتیاز به عنوان یکی عامل موثر در رتبهبندی جستجو به کار گرفته شد.
تا همین چند سال پیش (سال ۲۰۲۱) پاندا به عنوان نقطه عطفی در تمرکز گوگل بر کیفیت محتوا و تجربه کاربری شناخته شده بود. پاندا اولین قدم جدی گوگل برای ارزشگذاری صفحات بر اساس کیفیت محتوا و نه فقط ترفندهای سئوی بود.
در سال ۲۰۱۰ افت نتایج جستجو به دلیل رشد مزارع محتوا و رشد سایتهای بیکیفیت مشاهده شد. آمیت سینگال در یک مصاحبه گفت که انتشار کافئین در سال ۲۰۰۹ باعث شد که محتوای نه چندان با کیفیت به سرعت وارد نتایج گوگل شوند. شیوه اسپم از حالت کلاسیک خارج شده و بسیاری از وبسایتها محتوای بیکیفیت اما به ظاهر مجاز دارند تولید میکنند.
در اواخر سال ۲۰۰۹ دو سایتیکه مشخصا مزرعه محتوا بودند (answers.com و Demand Media) در لیست ۲۰ سایت برتر آمریکا از نظر بازدید کننده بودند. Demand Media مالک وبسایت eHow روزانه حدود ۷۰۰۰ محتوای بی کیفیت تولید میکردند و در شبکههای اجتماعی منتشر میکردند و از طریق تبلیغات درآمد داشتند. وبسایت Business Insider در یک مقاله نوشت که Demand Media از اکوسیستم گوگل سوء استفاده میکند و صدها هزار محتوای سطحی و کم ارزش تولید کرده و در حال رشد و درآمدزایی است، زیرا که الگوریتم گوگل به محتوای مداوم پر تعداد بیشتر از محتوای با کیفیت اهمیت میدهد. واکنش گوگل چه بود؟ تولد الگوریتم پاندا
در سال ۲۰۱۱ با انتشار پاندا گوگل تصمیم گرفت که به صورت جدی محتواهای بیکیفیت را شناسایی کند و مزارع محتوا و سایتهایی با محتواهای بیکیفیت را از نتیاج بالا حذف کند و تمرکز خود را روی اصالت، کیفیت و تجربه کاربری قرار دهد. پاندا نقطه عطفی در سیاستهای کیفی گوگل و پایان دوران محتواهای ماشینی و اسپم بود.
طبق اعلام گوگل، یک روز پس از انتشار پاندا، انتشار پاندا روی ۱۱.۸٪ جستجوها تاثیر گذاشت. هدف آن نیز کاهش رتبه وبسایتهای بیکیفیت، سایتهایی با محتوای کپی و سایتهایی که ارزش افزوده کمی برای کاربران دارند. در عین حال این بهروزرسانی تثیر چشمگیری بر رتبه وبسایتهای باکیفیت دارد. محتوای با کیفیت شامل وبسایتهایی با محتوای اصیل، پژوهش، گزارشهای دقیق، تحلیلهای صحیح و اطلاعات سودمند دارند.
پاندا آسیب بزرگی به بازاریابی محتوایی وارد کرد. در آن زمان افراد با نوشتن مقالات بیکیفیت و انتشار آن در جهای مختلف پروفایل لینکهای خود را توسعه میدادند. پاندا همچنین به سایتهایی با محتواهای زرد آسیب زد و در سال ۲۰۱۲ Demand Media مالک وبسایت eHow حدود ۶.۴ میلیون دلار ضرر مالی اعلام کرد.
تحلیلهایی که در آن دوران انجام شد نشان میدهد که سایتهایی که بیشترین افت را تجربه کردند، ویژگیهای مشترکی داشتند. این ویژگیها شامل موارد زیر بودند:
پاندا استانداردها و کیفیت وب را تغییر داد. پاندا ثابت کرد محتوای اصیل، مفید و معتبر برای حضور در صدر نتایج گوگل ضروری است.
سوالهایی که پایه الگوریتم پاندا را شکل دادند
فرآیند طراحی الگوریتم پاندا با فرآیند ارزیابی انسانی شروع شد. آن ها مجموعهای از صفحات ول را در اختیار ارزیابهای کیفی خود قرار دادند و از آنها خواستند که به یک سری از پرسشها در مورد هر وبسایت جواب بدهند. آمیت سینگال ۲۳ سوال منتشر کرد که الگوریتم پاندا بر اساس آن منتشر شده است. پاسخ به این ۲۳ سوال روشی بسیار عالی برای سنجش کیفیت محتواهای شما است. این سوالات شامل موارد زیر بودند:
نهایتا الگوریتم پاندا تلاش گوگل برای تبدیل معیارهای کیفی انسانی به معیارهای الگوریتمی بود. گوگل با کمک پاندا در واقع مسیر را به سمت سئوی انسانیتر، تمرکز بر تجربه کاربری و اعتبار محتوا هدایت کرد
در سال ۲۰۱۴ گوگل یک مفهومی به نام E-A-T را در دستور کار خود برای ارزیابی کیفیت نتایج جستجو معرفی کرد. E-A-T در واقع مخفف سه کلمه بود:
یکی از اصلیترین معیارهای مورد توجه گوگل و بازاریاب ها اصول E-A-T است. اصول E-A-T مانند پاندا بر دو موضوع تاکید دارد: کیفیت بالای محتوا – تجربه کاربری حرفهای
اهداف E-A-T با پاندا مشابه است:
در واقع پاندا سنگبنای تمرکز گوگل بر کیفیت است و E-A-T ادامه و تکامل یافته همان مسیر است. در واقع امروزه تولید کنندگان محتوا در کنار اینکه باید توجه کنند که آیا محتوا مفید است، باید در نظر بگیرند: «چه کسی محتوا را تولید کرده؟» ، «چرا باید به این محتوا اعتماد شود؟» و «چه منابع معتبری در آن محتوا استفاده شده است؟»
الگوریتم پاندا به صورت کامل در الگوریتمهای یادگیری ماشین گوگل ادغام شد و به همین دلیل دیگر شاهد بهروزرسانی مستقل و مجزای پاندا نیستیم. اما توجه داشته باشید اصول پاندا بخش دائمی و پایهای ساختار هوش مصنوعی گوگل است و تاثیر آن بر سئو همچنان مهم تلقی میشود.
این الگوریتم که در نوامبر ۲۰۱۱ منتشر شد، نحوه رتبهبندی وبسایتها را برای سه دسته از عباراتی که توسط کاربران جستجو میشود، تغییر داد:
هدف الگوریتم تازگی این بود که محتوایی که جدیدتر و بهروز تر است را برای جستجوهایی که دست اول بودن و تازگی محتوا اهمیت دارد در رتبه بالاتری قرار دهد. الگوریتم تازگی در زمان انتشار حدود ۳۵٪ از نتایج جستجو را تحت تاثیر قرار داد و بر ۶ الی ۱۰ درصد جستجوهای کابران تاثیر گذاشته است.
در الگوریتم تازگی، زمان به عنوان یکی از پارامترهای مرتبط بودن نتایج جستجو در نظر گرفته شد. در واقع این الگوریتم به گوگل این امکان را داد که محتواهایی که ترند هستند را نمایش دهد. این الگوریتم رشد خود را مدیون کافئین است، چرا که همانطور که پیشتر گفته شد کافئین به گوگل این امکان را داد که محتواهای موجود در سطح وب را در مقیاسی بیسابقه ایندکس کند.
نام این الگوریتم مستقیما از اعلام رسمی خود گوگل گرفته شده است، که اعلام کرد:
موتور جستجوی گوگل از الگوریتم تازگی (Freshness Algorithm) استفاده میکند که با هدف نمایش جدیدترین نتایج طراحی شده است.
یک عبارت رایج در بین متخصصین سئو وجود دارد که «گوگل عاشق محتوای تازه است.»، در این راستا حتی افزونههایی برای برخی از سیستمهای مدیریت محتوا مثل وردپرس وجود دارد که تاریخ آخرین ویرایش را مرتبا به صورت خودکار تغییر میدهند. اما واقعیت چیز دیگری است!
مت کاتس اعلام کرد که تازگی همیشه عامل رتبهبندی وبسایتها نیست. اگر موضوع وبسایت شما خبری نیست یا در حوزهای فعالیت میکنید که واقعا نیاز به بهروزرسانی مکرر ندارد، نیازی به نیست که در مورد الگوریتم تازگی نگران باشید. اینکه هر روز چند کلمه را تغییر دهید و تاریخ انتشار را ویرایش کنید به رتبه وبسایت شما کمکی نمیکند، یا حتی ممکن است تاثیر منفی نیز داشته باشد. در عوض پیشنهاد مت کاتس این است که روی مقالات عمیق و همیشگی تمرکز کنید.
پس زمانی این الگوریتم برای شما مهم است، که کوئری جستجو واقعا نیاز به اطلاعات بهروز داشته باشد. وبسایتهای زیر بیشتر از بقیه نیاز به محتوای تازه دارند:
اگر میخواهید از این الگوریتم در وبسایت خود بهره ببرید، بهتر است که محتوای خبری و ترند شده را به سرعت منتشر کنید و باعث افزایش شدید ترافیک وبسایت خود شوید. اما یک نکته را در نظر داشته باشید آیا حوزه محتوایی شما یکی از سه حوزه الگوریتم تازگی را شامل میشود یا خیر. اگر شامل میشود که روی محتواهای منظم و تازه تاکید کنید. اگر شامل نمی شود، توصیه میشود که روی محتواهای همیشه سبز (Evergreen) تمرکز کنید و محتواهای باکیفیت، عمیق و با اعتبار بالا منتشر کنید.
الگوریتم Page Layout یا چیدمان صفحه در اوایل سال ۲۰۱۲ معرفی شد. این بهروزرسانی وبسایتهایی را هدف قرار داد که بخش بالای صفحه (Above the fold) را تعداد زیادی از تبلیغات پوشانده بود. و این تعداد زیاد تبلیغات کاربران را مجبور میکرد که برای دیدن محتوای اصلی، صفحه را به پایین اسکرول کنند. گوگل اعلام کرد این الگوریتم تنها حدود ۱٪ وبسایتها را تحت تاثیر قرار داده است. اما همین مقدار کم نیز مجبور شدند که صفحات وب و تجربه کاربری خود را بازطراحی کنند. البته این الگوریتم شامل پاپ-آپ و تبلیغاتهای Overlay نشده بود.
این الگوریتم ۴ بار بهروزرسانی شد و تنها وبسایتهایی آسیب دیدند که تبلیغاتهای زیادی در بالای صفحه داشتند که تجربه کاربری را مختل و تضعیف میکرد. البته موج نارضایتی نسبت به این الگوریتم هم به وجود آمد و بسیاری از کاربران اعتراض داشتند که دیگر صفحات و تبلیغاتهای وبسایتشان در کنترل آنها نیست.
گوگل با این توضیح که کاربران از وبسایتهایی که آنها را با تبلیغات بمباران میکند دوری میکنند، این الگوریتم را پیاده سازی کرد. نهایتا این تغییر به دلایل زیر برای همه مفید بود:
بهروزرسانی ونیز در سال ۲۰۱۲ معرفی شد. پس از آن گوگل شروع به نمایش نتایجی کرد که بیشتر با نیت محلی کاربران تطابق داشته باشد. در واقع در این آپدیت گوگل نتایح محلی را با نتایج اورگانیک ترکیب کرد. این آپدیت از این نظر که به کسبوکارهای محلی فرصت دیده شدن داد، حائز اهمیت است.
در واقع برای گوگل همیشه ارائه بهترین جواب به کاربر مهمترین الویت است. که آپدیت ونیز بخشی از این هدف است. این آپدیت شامل تغییرات زیر بود:
در این آپدیت سایتهای کوچک محلی در کلیدواژههای مهم شانس رقابت با سایتهای بزرگ ملی را پیدا کردند. همچنین بسیاری از وبسایتها اقدام به ساخت صفحاتی با نام شهرها با ترکیب آن با کلیدواژه اصلی کردند تا شانس رقابت در کلیدواژههای محلی را از دست ندهند.
بیش از ۱۰ سال از زمانی که گوگل الگوریتم پنگوئن را معرفی کرد میگذرد. پنگوئن موضع و رویکرد جدیتری نسیت به تکنیکهای فریب لینکسازی داشت. پنگوئن بخشی جدانشدنی از الگوریتمهای هستهای گوگل جا باز کرد. گوگل مدعی است که بسیاری از لینکهای بیکیفیت را نادیده میگیرد مانند:
در سال ۲۰۱۲ گوگل یک آپدیت به نام webspam algorithm update منتشر کدر که در این بهروزرسانی به صورت مشخص لینکهای اسپم و روشهای فریبنده ساخت لینک را هدف قرار داد. این آپدیت بعدتر با نام رسمی پنگوئن شناخته شد.
قبل از معرفی پنگوئن حجم بکلینکها نقش بسیار پررنگی در تعیین امتیاز صفحات وب تویط گوگل داشت. این موضوع باعث شده بود که حجم زیادی از وبسایتها با محتواهای بیکیفیت صرفا به دلیل داشتن تعداد لینک بالا در نتایج جستجو رتبه بهتری از چیزی که لیاقت داشتند به دست بیاورند.
البته نبرد اصلی گوگل با محتوای بیکیفیت با الگوریتم پاندا شروع شد و پنگوئن به عنوان کامل کننده این مسیر وارد میدان شد. هدف الگوریتم پنگوئن کنترل دقیقتر بر لینکهای ورودی وبسایتها بود، تا از این طریق بتوان اثر گذاری تکنیکهای فریبنده را کاهش داد.
پنگوئن با درک ماهیت لینکها توانست فقط لینکهای طبیعی،معتبر و مرتبط را به عنوان عامل ارتقا اعتبار یک دامنه در نظر بگیرد. لینکهای دیگر به عنوان اسپم شناسایی شده یا تاثیر منفی بر روند سایت میگذارند یا کاملا توسط گوگل نادیده گرفته میشدند. در نظر داشته باشید که پنگوئن فقط بکلینکهای یک وبسایت را جستجو میکند و کاری به لینکهای خروجی آن ندارد.
در زمان معرفی پنگوئن گفته شد که پنگوئن دو تکنیک لینکسازی فریبنده را هدف قرار داده است:
پس از معرفی پنگوئن وبسایتهایی که از تکنیکهای لینکسازی دستکاری شده یا بیکیفیت استفاده کرده بودند افت چشمگیری در ترافیک اورگانیک خود مشاهده کردند.
برای حل این مشکل وبسایتها میتوانند از ابزار Disavow استفاده کنند. این ابزار میتواند به بهبود رتبه وبسایتهایی که تحت تاثیر پنگوئن رتبه خود را از دست دادهاند کمک کند. توجه داشته باشید، تنها زمانی از این ابزار استفاده کنید که تعدادی لینک اسپم دارید که حذف آن از طریق سایت مبدا ممکن نیست.
پنگوئن برای مبارزه با لینکسازی اسپم شروع به کار کرد. پس درسهایی که از این الگوریتم میگیریم عبارتند از: