معرفی الگوریتم Jagger گوگل

معرفی الگوریتم Jagger گوگل

 

 

در سال 2005 گوگل مجموعه ای از به‌روزرسانی های الگوریتمی را راه اندازی کرد که با نام Jagger شناخته شد و مانند بسیاری دیگر از این آپدیت ها توسط برت تابکه از WebmasterWorld نامگذاری شد. مانند اکثر به‌روزرسانی‌های اصلی الگوریتم گوگل همچون الگوریتم Big Daddy و به‌روزرسانی دزد دریایی، Jagger طی چند هفته منتشر شد و داده‌ها نشان می‌دهد که آغاز آن به اوایل سپتامبر بر می گردد. در اواسط اکتبر نیز گوگل اطلاعیه ای را منشتر کرد با مضمون اینکه چطور لینک‌های داده شده به یک وب‌سایت خاص را درک می‌کند. پیش از Jagger، آخرین به‌روزرسانی الگوریتم اصلی گوگل، به‌روزرسانی فلوریدا در سال 2003 بود، بنابراین همانطور که می توانید تصور کنید انتشار یک به‌روزرسانی بزرگ دیگر صدای کل جامعه SEO را در انجمن ها و وبلاگ های مختلف در آورد.

 

جدول زمانی به‌روزرسانی Jagger

جگر با تعدادی به‌روزرسانی متمرکز بر بک لینک در سپتامبر 2005 آغاز شد و این به‌روزرسانی ها تا اکتبر 2005 ادامه یافت. این مصادف بود با به‌روزرسانی پایگاه داده پیج رنک گوگل که به خودی خود یک رویداد قابل توجه بود. حتی اگر پیج رنک امروزی دیگر به صورت عمومی در دسترس نیست (پس از آخرین باری که گوگل نوار ابزار عمومی PageRank را در دسامبر 2013 به روز کرد و در همان زمان گفت که احتمالاً دیگر آن را به‌روزرسانی نمی کند).

قسمت دوم و سوم به‌روزرسانی الگوریتم Jagger تا نوامبر 2005 ادامه داشت.

 

تأثیر Jagger روی سایت ها

با به‌روزرسانی Jagger، گوگل الگوریتم خود را به روش‌های مختلفی تغییر داد که عمدتاً بر بک‌لینک های وب‌سایت، اندازه محتوا و نرخ تازه‌سازی و همچنین تعدادی از عوامل فنی دیگر تأثیر می‌گذارد.

 

  1. محتوا

جگر بر وب سایت هایی با محتوای تکراری در دامنه های مختلف تأثیر منفی گذاشت. پس از سومین قسمت به‌روزرسانی، مدیران وب‌سایت‌ها گزارش دادند که مشکلاتی را در مورد کپی‌سازی داخلی و نحوه رسیدگی به نسخه‌های Canonical مشاهده کرده‌اند. وب مسترهایی که وب‌سایت‌هایشان دارای دو نسخه هم با و هم بدون اسلش انتهایی بودند، یعنی یک نسخه به صورت index.html/ و یک نسخه به صورت index.html بود مشکلاتی را در رابطه با کپی بودن مشاهده کردند. همچنین، وب‌سایت‌هایی با تعداد زیادی صفحه ورودی نیز تحت تأثیر قرار گرفتند.

 

  1. بک لینک های اسپم

با این به‌روزرسانی، گوگل با در نظر گرفتن انکر تکست (متن لنگر) لینک‌های ورودی، محتوای صفحه لینک ورودی و سرعت بارگیری لینک‌های ورودی به وب‌سایت، رویکرد جدیدی را برای وزن‌دهی و درک بک لینک های سایت ها در نظر گرفت. به این ترتیب، الگوهای لینک‌سازی قابل پیش‌بینی که افراد با خرید بسته‌های خدماتی ماهانه سئو به صورت غیر قانونی دریافت می کردند شروع به ظهور کردند و تا حدودی، امروزه نیز چنین اموری انجام می شود. خوشبختانه، گوگل با الگوریتم جدید خود قادر بود این لینک های بی ارزش را شناسایی کند. جَگر همچنین بر وب‌سایت‌هایی که لینک‌های سراسری خریداری می‌کنند، درگیر تبادل لینک متقابل با وب‌سایت‌های نامربوط می شوند و از لینک فارم ها لینک دریافت می کنند تأثیر منفی می‌گذارد.

 

  1. متن پنهان، ریدایرکت ها و Cloaking

این فقط کپی کننده های محتوا و ارسال کنندگان بک لینک غیر قانونی نبودند که تحت تأثیرات منفی جگر قرار گرفتند، بلکه همه کسانی که از ترفندهای فنی روز برای سئوی سیاه استفاده می کردند نیز این اثرات را احساس کردند. در سال 2005، استفاده از Cloaking به عنوان روشی برای نشان دادن یک محتوا به موتورهای جستجو و محتوای دیگری به کاربران، به سرعت به یکی از تاکتیک های مورد علاقه اسپمر ها تبدیل شد. جگر وب‌سایت‌هایی را هدف قرار داد که از کد های CSS به‌طور غیرطبیعی (و غیرمنطقی) و از ریدایرکت های متای تأخیری برای پنهان کردن و فریب موتورهای جستجو و کاربران استفاده می‌کردند. چنین سایت هایی بیشترین ضربه را از الگوریتم گوگل دیدند. در نهایت، وب مسترهایی که از CSS برای مخفی کردن متن (و کلمات کلیدی) استفاده می‌کردند، نیز با کاهش رتبه‌بندی تنبیه شدند.

 

واکنش کاربران به معرفی الگوریتم Jagger از سوی گوگل

جَگر واکنش‌های متفاوتی را در بسیاری از انجمن‌ها و وبلاگ‌های سئو ایجاد کرد و مدیران وب‌سایت‌ها نتایج متفاوتی را در چندین SERP مشاهده کردند. همزمان با این اتفاقات، طبق روال همیشه، عده ای شعار های “گوگل بد است”، “گوگل شیطان است” و … سر می دادند. دو موضوع اصلی پیامدهای به‌روزرسانی‌ها مربوط به سن دامنه ها بود و این که گوگل می‌خواست مقدار پولی را که برای AdWords خرج می‌شود افزایش دهد.

 

گوگل شیطان است

 

گوگل از سایت های قدیمی تر حمایت می کند

طرفداری گوگل از وب‌سایت‌های قدیمی‌تر یا برندهای بزرگ‌تر، همیشه برای تعدادی از مدیران وب‌سایت بحث محبوبی بوده و خواهد بود؛ به‌روزرسانی Jagger نیز نظرات بیشتری را در همین راستا به همراه داشت.

گوگل در سال 2005 یک حق اختراع به ثبت رساند که بیان می کرد:

دامنه‌های با ارزش (مشروع) اغلب برای چندین سال پیش پرداخت می‌شوند، در حالی که دامنه‌های درگاهی (نامشروع) به ندرت برای بیش از یک سال استفاده می‌شوند. بنابراین، تاریخ انقضای دامنه در آینده می تواند به عنوان عاملی برای پیش بینی مشروعیت دامنه مورد استفاده قرار گیرد.

با این حال، اهمیت این عامل توسط مت کاتز در سال 2010 و سایر متخصصان سئو در سال‌های اخیر کم‌اهمیت شد. همانطور که گفته شد، هر زمان که یک به‌روزرسانی جدید گوگل منتشر می‌شود، اغلب به صورت دوره‌ای نوسانات زیادی در رتبه بندی سایت ها به وجود می آید، زیرا تاریخچه اسناد تحت تنظیمات الگوریتم جدید مجدد کرال شده و دوباره وزن دهی می‌شود.

 

تقویت PPC کریسمس

همانطور که از تاریخ می دانیم، گوگل تمایل دارد به‌روزرسانی های الگوریتمی اصلی را در اواخر سال میلادی و در طول پاییز منتشر کند. فقط کافیست به به‌روزرسانی فلوریدا نگاه کنید که در نوامبر 2003 آسیب زیادی به کسب و کار ها وارد کرد. با این حال، در سال 2005، این روند هنوز جدید بود و بسیاری از وب‌مسترها معترض بودند که با انتشار این به‌روزرسانی‌های اصلی در این زمان از سال، بسیاری از وب‌سایت‌ها موقعیت‌های رتبه‌بندی خود را در یکی از شلوغ ترین و پر سود ترین فصول سال از دست می دهند. برای بازیابی این ترافیک از دست رفته، سایت ها مجبور بودند از کمپین های جستجوی پولی گوگل استفاده کنند. در نتیجه، این به نفع گوگل بود چرا که موجب افزایش درآمد این شرکت از AdWords می شد.

به یاد داشته باشید که در سال 2005، بسیاری از متخصصان سئو هنوز هم MSN را به عنوان یک جایگزین موتور جستجوی مناسب می‌دانستند. از این رو، در آن زمان گوگل با سایر شرکت ها رقابت داشت و از آزادی امروز برای کسب درآمد برخوردار نبود.

رفع جریمه الگوریتم Jagger گوگل

رفع جریمه الگوریتم Jagger گوگل

از آنجایی که Jagger به‌روزرسانی گسترده‌ای بود که چندین متغیر را تحت تأثیر قرار می‌داد، بازیابی سایت های آسیب دیده چندان کار ساده ای نبود. با خواندن تعدادی از پست‌های وبلاگ‌ ها و فروم ها، بهترین روش های بازیابی اصلی به این موارد کاهش می‌یابد:

  • حذف موارد تکراری از عناوین متا و مختصرتر کردن آن ها و تمرکز بیشتر بر روی صفحه و محتوای آن
  • بهبود معماری وب سایت و URL
  • حذف لینک های داخلی بیش از اندازه (مثلا وجود لینک های پاورقی بیش از حد در سراسر سایت)
  • حل مشکلات داپلیکیت کانتنت ناشی از آدرس های دارای www. و بدون www.، یا وجود و عدم وجود اسلش در انتهای URL سایت مانند index.html/
  • نوشتن محتوای منحصر به فرد برای محصولات و خدمات، به جای استفاده از محتوای ارائه شده توسط فروشنده و سازنده.
  • حذف بک لینک های با کیفیت پایین، لینک هایی که از مزرعه های لینک نشأت می گیرند و لینک های پولی.

در حالی که بسیاری از این اصلاحات ممکن است در عصر مدرن منطقی به نظر برسند، اینترنت (و چشم انداز موتورهای جستجو) در طول سال ها از زمان Jagger بسیار تکامل یافته است. در سال 2005، گوگل تنها 37 درصد از بازار ایالات متحده را در اختیار داشت و با رقابت شدید یاهو (31 درصد) و MSN (حدود 15 درصد) مواجه بود.

 

جمع بندی و نکات پایانی

Jagger، یکی از به‌روزرسانی‌های قدیمی گوگل بود که جدا به هموار کردن راه برای آنچه ما به عنوان بهترین شیوه سئو می‌دانیم، و همچنین به‌روزرسانی‌های بیشتر الگوریتم کمک کرد. از بسیاری جهات، به دلیل تمرکز زیاد روی لینک‌سازی غیرطبیعی و لینک‌های پولی، Jagger را می‌توان اساس دیگر الگوریتم‌های بک‌لینک دانست که در نهایت به موجودیتی معروف به عنوان الگوریتم پنگوئن تبدیل شد.

 

آیدین سلیمان بیگی
ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *