مروری بر الگوریتم های گوگل

یکی از اتفاقات بدی! که بسیاری از وب مسترها از آن فراری هستند، تغییر الگوریتم های گوگل و تعریف روش‌ها

یکی از اتفاقات بدی! که بسیاری از وب مسترها از آن فراری هستند، تغییر الگوریتم های گوگل و تعریف روش‌های مختلف توسط شرکت گوگل (Google) است. گاهی اوقات ما در مورد

مروری بر الگوریتم های گوگل

مروری بر الگوریتم های گوگل

توسط هایزنبرگ

یکی از اتفاقات بدی! که بسیاری از وب مسترها از آن فراری هستند، تغییر الگوریتم های گوگل و تعریف روش‌های مختلف توسط شرکت گوگل (Google) است. گاهی اوقات ما در مورد این تغییرات اطلاع داریم و در برخی موارد نمی‌دانیم. اما گوگل با توجه به استراتژی‌ها و برنامه‌های خود، تغییراتی در این الگوریتم‌ها به وجود می‌آورد که برخی از آنها به صورت ثابت باقی مانده و برخی نیز با توجه به شرایط تغییر می‌کند.

ما در یک مطلب ۲۲ گام در بهینه سازی وب سایت را معرفی کردیم و در آن به برخی از الگوریتم های گوگل اشاره کردیم. شاید زمان آن فرا رسیده باشد که این الگوریتم‌ها را معرفی کنیم تا شما نیز در جریان آنها قرار گیرید.

الگوریتم پاندا: الگوریتم های گوگل

تمام تغییرات مربوط به الگوریتم پاندا (Panda) از زمانی آغاز شد که گوگل در سال ۲۰۱۱ تصمیم به تغییر الگوریتم های خود گرفت و در آن تلاش کرد که کیفیت نتایج جستجوی خود را بهبود ببخشد. الگوریتم پاندا به منظور ایجاد تمایز بین محتوای با کیفیت و محتوای بدون کیفیت به وجود آمد و هدف آن مبارزه با نتایج جستجو خاکستری یا همان سئو کلاه خاکستری بود. برای مدت ۵ سال، این الگوریتم به روند رو به رشد خود ادامه داد و تا سال ۲۰۱۶، به عنوان یکی از اصلی‌ترین الگوریتم های گوگل شناخته شد و اکنون دیگر تغییری در آن به وجود نمی‌آید. همانطور که گوگل نیز در این مورد اظهار داشته، الگوریتم پاندا از این به بعد ثابت خواهد ماند و تغییرات عمده‌ای در آن ایجاد نخواهد شد.

الگوریتم پاندا وظیفه پیدا کردن محتوای تکراری و محتوای ضعیف را بر عهده دارد.

تمرکز اصلی الگوریتم پاندا

الگوریتم پاندا به عنوان یکی از اصلی‌ترین الگوریتم های گوگل برای مبارزه با چند مورد زیر در نظر گرفته شده:

مبارزه با محتوای تکراری؛

جلوگیری از تکرار بیش از حد کلمات کلیدی؛

مبارزه با محتوای بدون کیفیت و ضعیف؛

مبارزه با هرزنامه‌های تولید شده توسط کاربران؛

جلوگیری از محتوای نامربوط

بهترین پیشنهاد برای الگوریتم پاندا

اولین چیزی که در مورد الگوریتم پاندا مورد توجه قرار گرفته است، محتوای داخلی وب سایت است. این الگوریتم به طور منظم و کامل محتوای سایت را مورد بررسی قرار می‌دهد و سعی می‌کند که محتوای تکراری را تشخیص دهد. تشخیص محتوای تکراری، یکی از ماژول‌های اصلی پاندا است که توسط آن صفحات مشکوک و کپی برداری شده قابل تشخیص هستند. برای اینکه شما از این مورد فرار کنید، ابزار Copyscape می‌تواند شما را از این موضوع نجات دهد.

یکی از نگرانی‌هایی که وجود دارد، مسئله فروشگاه‌های آنلاین یا وب سایت‌ها با صفحات محصولات متعدد است که آن‌ها نمی‌توانند محتوای منحصر به فرد و یکتا تولید کنند. این گروه از وب‌سایت‌ها باید به سراغ کلمات و مطالبی بروند که تا حد ممکن با یکدیگر تفاوت داشته باشند و باید سعی کنند که این تفاوت‌ها را بیشتر در عنوان و متا تگ‌ها به کار ببرند.

راستی مطلب ما در مورد نوشتن تگ عنوان در این مورد می‌تواند به شما کمک کند.

یکی دیگر از مواردی که توسط الگوریتم های گوگل را به طور ویژه الگوریتم پاندا تشخیص داده می‌شود، محتوای ضعیف و بدون کیفیت است. معمولاً این الگوریتم به اطلاعات جدید، نوشته‌های اصیل و منحصر به فرد و همچنین کلمات کلیدی جدید توجه می‌کند. اگر می‌خواهید از زیر تیغ الگوریتم پاندا عبور کنید، تگ‌ها، متا تگ‌ها، عناوین مطالب، تگ H1 و کلمات کلیدی LSIمی‌توانند به شما کمک کنند.

مطلب تکمیلی از کلمات کلیدی LSI در کجای متن استفاده کنیم؟

الگوریتم پنگوئن: الگوریتم های گوگل

الگوریتم پنگوئن (Penguin) در سال ۲۰۱۲ راه اندازی شد و دومین گام در راستای مبارزه با هرزنامه‌ها بود. به طور خلاصه،هدف اصلی راه اندازی این الگوریتم، پایین کشیدن وب‌سایت‌های بدون کیفیت و با لینک‌های دستکاری شده بود. همانند الگوریتم پاندا، الگوریتم پنگوئن نیز از سال ۲۰۱۶ به یکی از الگوریتم های اصلی گوگل تبدیل شده است. بنابراین می‌توان انتظار داشت که این الگوریتم کماکان بر روی سایت شما کار می‌کند و مشخص می‌کند که آیا لینک‌های اسپم در وب سایت‌ها وجود دارد یا خیر.

الگوریتم پنگوئن در مباره با لینک های اسپم و بک لینک های بی ارزش به کار می رود.

تمرکز اصلی الگوریتم پنگوئن

اهداف بکارگیری الگوریتم پنگوئن تقریباً هم مانند الگوریتم پاندا بود و تنها در چند مورد ویژه با یکدیگر تفاوت دارند:

مبارزه با لینک‌های به دست آمده از سایت‌های اسپم و هرزنامه‌ها؛

تشخیص لینک‌های به دست آمده غیرقابل درک از منابع نامشخص؛

تشخیص لینک‌های پولی و بک لینک‌های خریداری شده؛

تشخیص لینک‌های بهینه سازی شده با تمرکز بیش از حد در کلمات کلیدی؛

تشخیص انکر تکست های نامناسب با بهینه سازی بیش از حد.

بهترین پیشنهاد برای الگوریتم پنگوئن

اولین کاری که الگوریتم پنگوئن انجام می‌دهد، لینک‌های مضر را شناسایی و آنها را تشخیص می‌دهد. نرم افزارهای مختلفی در این زمینه وجود دارد که هر کدام از آنها از روش‌ها و فرمول‌های مختلف برای تعیین مضر بودن یک لینک خاص استفاده می‌کنند. پیدا کردن این نرم افزارها چندان سخت نیست و بهترین پیشنهاد ما برای این مورد استفاده از ابزار Google Disavow toolاست که تقریباً از همان فرمول مشابه با الگوریتم پنگوئن استفاده می‌کند.

الگوریتم EMD: الگوریتم های گوگل

الگوریتم EMD یکی از جدیدترین الگوریتم های گوگل در زمینه‌ معتبر بودن دامنه با توجه به حوزه سایت است که در سال ۲۰۱۲ توسط شرکت گوگل معرفی شد و اسم آن از Exact Match Domain برگرفته شده است. نیت استفاده از این الگوریتم این بود که دامنه‌های دقیق را مورد هدف قرار دهد و کیفیت سایت‌ها را با توجه به کیفیت آنها ارزیابی کند. دلیل این موضوع می‌تواند متفاوت باشد، اما از آنجا که سئو وب سایت‌ها تا حدود زیادی با دامنه‌ها در ارتباط است و کلمات کلیدی به شکل دقیق در این دامنه‌ها قرار می‌گیرند، نقش این الگوریتم پررنگ‌تر می‌شود. این موضوع باعث می‌شود که وب سایت‌های دارای محتوای ضعیف از گردونه رقابت حذف شده و کیفیت نتایج جستجو بالاتر رود.

الگوریتم EMD در تشخیص کیفیت دامنه و مطابقت آن با محتوا استفاده می شود.

تمرکز اصلی الگوریتم Exact Match Domain

همان طور که از اسم این الگوریتم برمی آید، هدف اصلی آن کار بر روی دامنه سایت و صفحات مختلف است. بنابراین هدف اصلی این الگوریتم را می‌توان تشخیص دقیق تطابق دامنه‌ها و کیفیت آنها معرفی کرد.

بهترین پیشنهاد برای الگوریتم EMD

به هیچ وجه نگران نباشید، هیچ مشکلی برای استفاده از این الگوریتم نخواهید داشت. تنها شرط لازم برای داشتن امنیت در وب سایت خود، داشتن محتوای با کیفیت است. البته توصیه ما این نیست که صفحات با کیفیت پایین را به طور کامل حذف کنید، اما بهترین پیشنهاد، جایگزین کردن محتوای موجود با محتوای جدید و اصیل است.

همچنین توصیه می‌شود که بررسی‌های کاملی بر روی‌های صفحات مختلف خود داشته باشید و سعی کنید که لینک‌های ورودی اسپمی که دارای سیگنال‌های نامناسب هستند را حذف کنید و بیشتر سعی کنید از لینک‌های با کیفیت و دارای منشأ مشخص استفاده کنید. این موضوع باعث می‌شود که الگوریتم های گوگل اعتماد بیشتری به وب سایت شما داشته باشند.

الگوریتم دزد دریایی یا Pirate: الگوریتم های گوگل

احتمالاً به خاطر می‌آورید که برخی از سایت‌ها دارای محتوای پراکنده و گردآوری شده از منابع مختلف هستند. شاید در گذشته تشخیص این موارد قابل انجام نبود. اما امروزه به لطف الگوریتم های گوگل و به طور ویژه الگوریتم Pirate این کار امکان پذیر شده است. این الگوریتم در سال ۲۰۱۲ راه اندازی شد و هدف آن مجازات وب سایت‌هایی بود که کپی برداری را رعایت نکرده و مطالب سایر وب سایت‌ها را بدون ذکر منبع در وب سایت خود درج می‌کند.

الگوریتم Pirate در مواجهه با مطالب کپی و بدون ذکر منبع یکی از بهترین الگوریتم های گوگل است.

تمرکز اصلی الگوریتم Pirate

تمرکز اصلی این الگوریتم بر تشخیص مطالب کپی بدون ذکر منبع و سایت‌هایی که چنین مواردی را رعایت نکرده باشند، با تنبیهات سخت و افت رتبه مواجه می‌شوند.

بهترین پیشنهاد برای الگوریتم دزد دریایی

با توجه به مطالبی که گفته شد، در مورد این الگوریتم نیز نگرانی خاصی وجود ندارد و شما باید سعی کنید که از مطالب کپی برداری در وب سایت خود استفاده نکنید. اگر محتوای شما یکتا و منحصر به فرد باشد، با استقبال بیشتری از طرف الگوریتم های گوگل مواجه می‌شود. اما اگر احساس می‌کنید که به محتوای کپی و تکراری نیاز دارید یا مطلب شما به وفور در اینترنت یافت می‌شود، بهترین ابزار استفاده از Removing Content From Google tool است که تیم‌های قانونی گوگل در این زمینه به شما کمک می‌کنند. البته یک راهکار ساده نیز استفاده از ذکر منبع و لینک دهی مطلب است که حتی به رتبه سایت شما نیز کمک می‌کند.

مطلب تکمیلی چند آمار هیجان انگیز از سئو و بهینه سازی وبسایت

الگوریتم های مرغ مگس خوار و رنک برین

از سال ۲۰۱۳ به بعد، گوگل برای درک بهتر کاربران از جستجوها، دو الگوریتم جدید به کار گرفت که الگوریتم مرغ مگس خوار (Hummingbird) در سال ۲۰۱۳ و الگوریتم رنگ برین (RankBrain) در سال ۲۰۱۵ راه اندازی شد. این دو به روز رسانی در الگوریتم های گوگل به طور کامل هدف جستجوی کاربران را بررسی کرده و کیفیت جستجوی آنها را بالاتر می‌برد. این دو الگوریتم با یکدیگر متفاوت هستند، اما اهداف کلی آنها یکسان است.

الگوریتم مرغ مگس خوار یکی از به روز رسانی‌های اصلی الگوریتم های گوگل است که با درک کوئری های جستجو (به طور ویژه عبارات کلیدی بلند، عبارات محاوره‌ای و کلمات کلیدی LSI) به کار گرفته شد و سعی می‌کند که نتایج جستجو با هدف جستجو مطابقت بیشتری داشته باشد.

الگوریتم مرغ مگس خوار در به کار بردن کلمات کلیدی طولانی مناسب است.

الگوریتم رنک برین یک سیستم یادگیری ماشینی است که تمامی خصوصیات الگوریتم قبلی را داشته و اطلاعاتی در مورد داده‌های تاریخی در مورد رفتارهای قبلی کاربران را بررسی می‌کند. بنابراین این الگوریتم، با توجه به جستجوهای قبلی کاربران، پیشنهادهایی بر اساس آن ارائه می‌دهد.

الگوریتم رنگ برین (RankBrain) در پیدا کردن جستجوی قدیمی به کاربران کمک می کند.

تمرکز اصلی این دو الگوریتم

تمرکز اصلی این دو الگوریتم تقریباً با یکدیگر همپوشانی دارد و زمینه‌های قلیفی را شامل می‌شوند:

تمرکز بر کلمات کلیدی طولانی؛

تمرکز بر زبان طبیعی در هر منطقه جغرافیایی؛

جستجو بر اساس کوئری های آشنا؛

جستجو بر اساس تجربه کاربران

بهترین پیشنهاد برای دو الگوریتم Hummingbird/RankBrain

استفاده از این دو الگوریتم ایده خوبی است که کاربران به فکر استفاده از کلمات کلیدی مناسب باشد. باید بپذیریم که گوگل از تمرکز بر روی یک کلید واژه اصلی تغییر رویه داده و به سراغ کوئری های متفاوتی می‌رود. در واقع گوگل ترجیح می‌دهد که کاربران از کلمات کلیدی طولانی، کلمات کلیدی مرتبط و کلمات کلیدی LSI بهره ببرند تا جستجوگر آن بتوانند هدف اصلی خود را در یک جستجوی کوتاه مدت به دست بیاورند. بنابراین اگر قصد استفاده از توانایی Hummingbird/RankBrain دارید، باید تلاش کنید که استفاده از ابزار سرچ کنسول و و ابزار گوگل آنالیتیکس را به خوبی فرا بگیرید و سعی کنید که از آنها بهترین استفاده ممکن را ببرید.

مطلب تکمیلی راهنمای کامل کیوورد LSI یا کلمات کلیدی LSI در میمونی‌ها

الگوریتم کبوتر و الگوریتم موش کور

هر دو الگوریتم کبوتر و موش کور (Pigeon/Possum) به منظور بررسی سئو و بهبود کیفیت نتایج جستجوی محلی ساخته شده‌اند. به روزرسانی الگوریتم کبوتر در سال ۲۰۱۴ میلادی طراحی شد و به عنوان الگوریتم جستجوی محلی گوگل شناخته می‌شود. این الگوریتم کمک می‌کند که رتبه بندی نتایج جستجو با توجه به موقعیت مکانی و فاصله از نتایج انجام گیرد. این ابزار ارتباط بسیار نزدیکی با جستجوی گوگل وب و جستجوی گوگل مپ دارد.

الگوریتم کبوتر در نتایج جستجوی محلی به کاربران کمک می کند تا بهترین نتایج را پیدا کنند.

دو سال بعد و در سال ۲۰۱۶، به روز رسانی الگوریتم موش کور آغاز شد. این الگوریتم پا را فراتر گذاشته و جستجوی کاربران را به مکان فیزیکی جستجوگر مرتبط می‌کند. این الگوریتم پیشنهادهای نزدیک به آدرس کسب و کارتان را با توجه به نتایج محلی تغییر می‌دهد حتی یک تفاوت کوچک در عبارت جستجو، باعث تغییر چشمگیری در نتایج آن می‌شود. الگوریتم موش کور هم این نوع کسب و کار و و هم شرکت‌های خارج از محدوده شهر و نیز نشان می‌دهد.

الگوریتم موش کور برای قرار دادن کسب و کار با توجه به موقعیت مکانی آنها مناسب است.

تمرکز اصلی الگوریتم کبوتر و الگوریتم موش کور

هدف اصلی این دو مورد از الگوریتم های گوگل عبارتند از:

نمایش وب سایت‌های معتبر و بهینه سازی شده در نتایج جستجوی محلی؛

نمایش نتایج جستجو که نزدیک به مکان فیزیکی جستجوگر هستند.

بهترین پیشنهاد برای الگوریتم کبوتر و الگوریتم موش کور

باید بپذیریم که استفاده از روش‌های سنتی برای رتبه بندی سایت‌ها و بهینه سازی آنها منقضی شده است و روش‌های مختلفی برای بهینه‌سازی نتایج جستجو به وجود آمده است. کسانی که به دنبال تبلیغات و معرفی کسب و کار خود به جستجوگران هستند، باید از ابزارهای مختلف مانند گوگل مپ برای نشان دادن آدرس محل کسب و کار خود استفاده کنند. ثبت دامنه و فعالیت سایت باید به شکلی باشد که گوگل به راحتی محل کسب و کار را تشخیص دهد تا بتواند آن را در معرض دید کاربران قرار دهد. یکی از بهترین ابزارهایی که در مورد یک صفحه کاری می‌تواند به شما کمک کند، Google My Business است که اطلاعات کسب و کار شما را به طور کامل در اختیار کاربران و الگوریتم های گوگل قرار می‌دهد.

الگوریتم فرد

الگوریتم گوگل فرد (Google Fred) یک نام غیر رسمی دیگر برای معرفی الگوریتم های گوگل است که در رتبه بندی وب سایت‌ها را با توجه به کسب درآمد قانونی آنها انجام می‌دهد. این الگوریتم برای تبلیغات بیش از حد، و وب سایت‌هایی که توجه چندانی به کاربران ندارند، به کار گرفته می‌شود. در حقیقت وب‌سایت‌هایی که اهداف جز کسب درآمد و پول ندارند، مطمئناً در دام الگوریتم گوگل فرد قرار می‌گیرد.

تمرکز اصلی الگوریتم فرد

با توجه به مطالبی که گفته شد، هدف اصلی استفاده از این الگوریتم:

جلوگیری از کسب درآمد تهاجمی از تبلیغات؛

جلوگیری از تبلیغات گمراه کننده یا فریبنده؛

جلوگیری از موانع و مسائل مربوط به تجربه کاربری؛

جلوگیری از مطابقت و سازگاری نامحدود با گوشی‌های همراه؛

جلوگیری از ارسال و انتشار محتوای بی‌کیفیت.

بهترین پیشنهاد برای الگوریتم فرد

این الگوریتم بسیار خوب است و از قرار دادن تبلیغات بیش از حد در وبسایت ها جلوگیری می‌کند. در حقیقت، الگوریتم فرد به این نیت راه اندازی شده است که از درج مطالب بی کیفیت و از تبلیغات‌های بیش از ظرفیت سایت ممانعت کند. پس اگر شما می‌خواهید از این الگوریتم بهترین استفاده را ببرید، سعی کنید مطالب با کیفیت در وب سایت خود منتشر کنید و ترجیحا برای قرار دادن تبلیغات از دستورالعمل کیفیت گوگل برای ارزیابی وب سایت خود استفاده کنید.

باید بپذیریم که الگوریتم های گوگل بیش از آنکه ابزارهای دست و پا گیر و آزاردهنده باشند، ابزارهایی مناسب و یاری دهنده برای کاربران به شمار می‌روند و همه آنها تلاش می‌کنند که جستجوگران با نتایج جستجوی باکیفیت و ایده‌آل خود مواجه شوند. هدف ما از انتشار این مطلب، آشنایی با الگوریتم های مختلف و به روز رسانی‌های آنها بود و اگر قصد وبلاگ نویسی را دارید، باید بدانید که چه نکاتی می‌تواند به وبسایت شما لطمه بزند. پس همچنان با میمونی‌ها همراه باشید.

«هایزنبرگ»


Facebook Twitter Linkedin Pinterest Email