توسط هایزنبرگ
یکی از اتفاقات بدی! که بسیاری از وب مسترها از آن فراری هستند، تغییر الگوریتم های گوگل و تعریف روشهای مختلف توسط شرکت گوگل (Google) است. گاهی اوقات ما در مورد این تغییرات اطلاع داریم و در برخی موارد نمیدانیم. اما گوگل با توجه به استراتژیها و برنامههای خود، تغییراتی در این الگوریتمها به وجود میآورد که برخی از آنها به صورت ثابت باقی مانده و برخی نیز با توجه به شرایط تغییر میکند.
ما در یک مطلب ۲۲ گام در بهینه سازی وب سایت را معرفی کردیم و در آن به برخی از الگوریتم های گوگل اشاره کردیم. شاید زمان آن فرا رسیده باشد که این الگوریتمها را معرفی کنیم تا شما نیز در جریان آنها قرار گیرید.
تمام تغییرات مربوط به الگوریتم پاندا (Panda) از زمانی آغاز شد که گوگل در سال ۲۰۱۱ تصمیم به تغییر الگوریتم های خود گرفت و در آن تلاش کرد که کیفیت نتایج جستجوی خود را بهبود ببخشد. الگوریتم پاندا به منظور ایجاد تمایز بین محتوای با کیفیت و محتوای بدون کیفیت به وجود آمد و هدف آن مبارزه با نتایج جستجو خاکستری یا همان سئو کلاه خاکستری بود. برای مدت ۵ سال، این الگوریتم به روند رو به رشد خود ادامه داد و تا سال ۲۰۱۶، به عنوان یکی از اصلیترین الگوریتم های گوگل شناخته شد و اکنون دیگر تغییری در آن به وجود نمیآید. همانطور که گوگل نیز در این مورد اظهار داشته، الگوریتم پاندا از این به بعد ثابت خواهد ماند و تغییرات عمدهای در آن ایجاد نخواهد شد.
الگوریتم پاندا وظیفه پیدا کردن محتوای تکراری و محتوای ضعیف را بر عهده دارد.
تمرکز اصلی الگوریتم پاندا
الگوریتم پاندا به عنوان یکی از اصلیترین الگوریتم های گوگل برای مبارزه با چند مورد زیر در نظر گرفته شده:
مبارزه با محتوای تکراری؛
جلوگیری از تکرار بیش از حد کلمات کلیدی؛
مبارزه با محتوای بدون کیفیت و ضعیف؛
مبارزه با هرزنامههای تولید شده توسط کاربران؛
جلوگیری از محتوای نامربوط
بهترین پیشنهاد برای الگوریتم پاندا
اولین چیزی که در مورد الگوریتم پاندا مورد توجه قرار گرفته است، محتوای داخلی وب سایت است. این الگوریتم به طور منظم و کامل محتوای سایت را مورد بررسی قرار میدهد و سعی میکند که محتوای تکراری را تشخیص دهد. تشخیص محتوای تکراری، یکی از ماژولهای اصلی پاندا است که توسط آن صفحات مشکوک و کپی برداری شده قابل تشخیص هستند. برای اینکه شما از این مورد فرار کنید، ابزار Copyscape میتواند شما را از این موضوع نجات دهد.
یکی از نگرانیهایی که وجود دارد، مسئله فروشگاههای آنلاین یا وب سایتها با صفحات محصولات متعدد است که آنها نمیتوانند محتوای منحصر به فرد و یکتا تولید کنند. این گروه از وبسایتها باید به سراغ کلمات و مطالبی بروند که تا حد ممکن با یکدیگر تفاوت داشته باشند و باید سعی کنند که این تفاوتها را بیشتر در عنوان و متا تگها به کار ببرند.
راستی مطلب ما در مورد نوشتن تگ عنوان در این مورد میتواند به شما کمک کند.
یکی دیگر از مواردی که توسط الگوریتم های گوگل را به طور ویژه الگوریتم پاندا تشخیص داده میشود، محتوای ضعیف و بدون کیفیت است. معمولاً این الگوریتم به اطلاعات جدید، نوشتههای اصیل و منحصر به فرد و همچنین کلمات کلیدی جدید توجه میکند. اگر میخواهید از زیر تیغ الگوریتم پاندا عبور کنید، تگها، متا تگها، عناوین مطالب، تگ H1 و کلمات کلیدی LSIمیتوانند به شما کمک کنند.
مطلب تکمیلی از کلمات کلیدی LSI در کجای متن استفاده کنیم؟
الگوریتم پنگوئن (Penguin) در سال ۲۰۱۲ راه اندازی شد و دومین گام در راستای مبارزه با هرزنامهها بود. به طور خلاصه،هدف اصلی راه اندازی این الگوریتم، پایین کشیدن وبسایتهای بدون کیفیت و با لینکهای دستکاری شده بود. همانند الگوریتم پاندا، الگوریتم پنگوئن نیز از سال ۲۰۱۶ به یکی از الگوریتم های اصلی گوگل تبدیل شده است. بنابراین میتوان انتظار داشت که این الگوریتم کماکان بر روی سایت شما کار میکند و مشخص میکند که آیا لینکهای اسپم در وب سایتها وجود دارد یا خیر.
الگوریتم پنگوئن در مباره با لینک های اسپم و بک لینک های بی ارزش به کار می رود.
تمرکز اصلی الگوریتم پنگوئن
اهداف بکارگیری الگوریتم پنگوئن تقریباً هم مانند الگوریتم پاندا بود و تنها در چند مورد ویژه با یکدیگر تفاوت دارند:
مبارزه با لینکهای به دست آمده از سایتهای اسپم و هرزنامهها؛
تشخیص لینکهای به دست آمده غیرقابل درک از منابع نامشخص؛
تشخیص لینکهای پولی و بک لینکهای خریداری شده؛
تشخیص لینکهای بهینه سازی شده با تمرکز بیش از حد در کلمات کلیدی؛
تشخیص انکر تکست های نامناسب با بهینه سازی بیش از حد.
بهترین پیشنهاد برای الگوریتم پنگوئن
اولین کاری که الگوریتم پنگوئن انجام میدهد، لینکهای مضر را شناسایی و آنها را تشخیص میدهد. نرم افزارهای مختلفی در این زمینه وجود دارد که هر کدام از آنها از روشها و فرمولهای مختلف برای تعیین مضر بودن یک لینک خاص استفاده میکنند. پیدا کردن این نرم افزارها چندان سخت نیست و بهترین پیشنهاد ما برای این مورد استفاده از ابزار Google Disavow toolاست که تقریباً از همان فرمول مشابه با الگوریتم پنگوئن استفاده میکند.
الگوریتم EMD یکی از جدیدترین الگوریتم های گوگل در زمینه معتبر بودن دامنه با توجه به حوزه سایت است که در سال ۲۰۱۲ توسط شرکت گوگل معرفی شد و اسم آن از Exact Match Domain برگرفته شده است. نیت استفاده از این الگوریتم این بود که دامنههای دقیق را مورد هدف قرار دهد و کیفیت سایتها را با توجه به کیفیت آنها ارزیابی کند. دلیل این موضوع میتواند متفاوت باشد، اما از آنجا که سئو وب سایتها تا حدود زیادی با دامنهها در ارتباط است و کلمات کلیدی به شکل دقیق در این دامنهها قرار میگیرند، نقش این الگوریتم پررنگتر میشود. این موضوع باعث میشود که وب سایتهای دارای محتوای ضعیف از گردونه رقابت حذف شده و کیفیت نتایج جستجو بالاتر رود.
الگوریتم EMD در تشخیص کیفیت دامنه و مطابقت آن با محتوا استفاده می شود.
تمرکز اصلی الگوریتم Exact Match Domain
همان طور که از اسم این الگوریتم برمی آید، هدف اصلی آن کار بر روی دامنه سایت و صفحات مختلف است. بنابراین هدف اصلی این الگوریتم را میتوان تشخیص دقیق تطابق دامنهها و کیفیت آنها معرفی کرد.
بهترین پیشنهاد برای الگوریتم EMD
به هیچ وجه نگران نباشید، هیچ مشکلی برای استفاده از این الگوریتم نخواهید داشت. تنها شرط لازم برای داشتن امنیت در وب سایت خود، داشتن محتوای با کیفیت است. البته توصیه ما این نیست که صفحات با کیفیت پایین را به طور کامل حذف کنید، اما بهترین پیشنهاد، جایگزین کردن محتوای موجود با محتوای جدید و اصیل است.
همچنین توصیه میشود که بررسیهای کاملی بر رویهای صفحات مختلف خود داشته باشید و سعی کنید که لینکهای ورودی اسپمی که دارای سیگنالهای نامناسب هستند را حذف کنید و بیشتر سعی کنید از لینکهای با کیفیت و دارای منشأ مشخص استفاده کنید. این موضوع باعث میشود که الگوریتم های گوگل اعتماد بیشتری به وب سایت شما داشته باشند.
احتمالاً به خاطر میآورید که برخی از سایتها دارای محتوای پراکنده و گردآوری شده از منابع مختلف هستند. شاید در گذشته تشخیص این موارد قابل انجام نبود. اما امروزه به لطف الگوریتم های گوگل و به طور ویژه الگوریتم Pirate این کار امکان پذیر شده است. این الگوریتم در سال ۲۰۱۲ راه اندازی شد و هدف آن مجازات وب سایتهایی بود که کپی برداری را رعایت نکرده و مطالب سایر وب سایتها را بدون ذکر منبع در وب سایت خود درج میکند.
الگوریتم Pirate در مواجهه با مطالب کپی و بدون ذکر منبع یکی از بهترین الگوریتم های گوگل است.
تمرکز اصلی الگوریتم Pirate
تمرکز اصلی این الگوریتم بر تشخیص مطالب کپی بدون ذکر منبع و سایتهایی که چنین مواردی را رعایت نکرده باشند، با تنبیهات سخت و افت رتبه مواجه میشوند.
بهترین پیشنهاد برای الگوریتم دزد دریایی
با توجه به مطالبی که گفته شد، در مورد این الگوریتم نیز نگرانی خاصی وجود ندارد و شما باید سعی کنید که از مطالب کپی برداری در وب سایت خود استفاده نکنید. اگر محتوای شما یکتا و منحصر به فرد باشد، با استقبال بیشتری از طرف الگوریتم های گوگل مواجه میشود. اما اگر احساس میکنید که به محتوای کپی و تکراری نیاز دارید یا مطلب شما به وفور در اینترنت یافت میشود، بهترین ابزار استفاده از Removing Content From Google tool است که تیمهای قانونی گوگل در این زمینه به شما کمک میکنند. البته یک راهکار ساده نیز استفاده از ذکر منبع و لینک دهی مطلب است که حتی به رتبه سایت شما نیز کمک میکند.
مطلب تکمیلی چند آمار هیجان انگیز از سئو و بهینه سازی وبسایت
از سال ۲۰۱۳ به بعد، گوگل برای درک بهتر کاربران از جستجوها، دو الگوریتم جدید به کار گرفت که الگوریتم مرغ مگس خوار (Hummingbird) در سال ۲۰۱۳ و الگوریتم رنگ برین (RankBrain) در سال ۲۰۱۵ راه اندازی شد. این دو به روز رسانی در الگوریتم های گوگل به طور کامل هدف جستجوی کاربران را بررسی کرده و کیفیت جستجوی آنها را بالاتر میبرد. این دو الگوریتم با یکدیگر متفاوت هستند، اما اهداف کلی آنها یکسان است.
الگوریتم مرغ مگس خوار یکی از به روز رسانیهای اصلی الگوریتم های گوگل است که با درک کوئری های جستجو (به طور ویژه عبارات کلیدی بلند، عبارات محاورهای و کلمات کلیدی LSI) به کار گرفته شد و سعی میکند که نتایج جستجو با هدف جستجو مطابقت بیشتری داشته باشد.
الگوریتم مرغ مگس خوار در به کار بردن کلمات کلیدی طولانی مناسب است.
الگوریتم رنک برین یک سیستم یادگیری ماشینی است که تمامی خصوصیات الگوریتم قبلی را داشته و اطلاعاتی در مورد دادههای تاریخی در مورد رفتارهای قبلی کاربران را بررسی میکند. بنابراین این الگوریتم، با توجه به جستجوهای قبلی کاربران، پیشنهادهایی بر اساس آن ارائه میدهد.
الگوریتم رنگ برین (RankBrain) در پیدا کردن جستجوی قدیمی به کاربران کمک می کند.
تمرکز اصلی این دو الگوریتم
تمرکز اصلی این دو الگوریتم تقریباً با یکدیگر همپوشانی دارد و زمینههای قلیفی را شامل میشوند:
تمرکز بر کلمات کلیدی طولانی؛
تمرکز بر زبان طبیعی در هر منطقه جغرافیایی؛
جستجو بر اساس کوئری های آشنا؛
جستجو بر اساس تجربه کاربران
بهترین پیشنهاد برای دو الگوریتم Hummingbird/RankBrain
استفاده از این دو الگوریتم ایده خوبی است که کاربران به فکر استفاده از کلمات کلیدی مناسب باشد. باید بپذیریم که گوگل از تمرکز بر روی یک کلید واژه اصلی تغییر رویه داده و به سراغ کوئری های متفاوتی میرود. در واقع گوگل ترجیح میدهد که کاربران از کلمات کلیدی طولانی، کلمات کلیدی مرتبط و کلمات کلیدی LSI بهره ببرند تا جستجوگر آن بتوانند هدف اصلی خود را در یک جستجوی کوتاه مدت به دست بیاورند. بنابراین اگر قصد استفاده از توانایی Hummingbird/RankBrain دارید، باید تلاش کنید که استفاده از ابزار سرچ کنسول و و ابزار گوگل آنالیتیکس را به خوبی فرا بگیرید و سعی کنید که از آنها بهترین استفاده ممکن را ببرید.
مطلب تکمیلی راهنمای کامل کیوورد LSI یا کلمات کلیدی LSI در میمونیها
هر دو الگوریتم کبوتر و موش کور (Pigeon/Possum) به منظور بررسی سئو و بهبود کیفیت نتایج جستجوی محلی ساخته شدهاند. به روزرسانی الگوریتم کبوتر در سال ۲۰۱۴ میلادی طراحی شد و به عنوان الگوریتم جستجوی محلی گوگل شناخته میشود. این الگوریتم کمک میکند که رتبه بندی نتایج جستجو با توجه به موقعیت مکانی و فاصله از نتایج انجام گیرد. این ابزار ارتباط بسیار نزدیکی با جستجوی گوگل وب و جستجوی گوگل مپ دارد.
الگوریتم کبوتر در نتایج جستجوی محلی به کاربران کمک می کند تا بهترین نتایج را پیدا کنند.
دو سال بعد و در سال ۲۰۱۶، به روز رسانی الگوریتم موش کور آغاز شد. این الگوریتم پا را فراتر گذاشته و جستجوی کاربران را به مکان فیزیکی جستجوگر مرتبط میکند. این الگوریتم پیشنهادهای نزدیک به آدرس کسب و کارتان را با توجه به نتایج محلی تغییر میدهد حتی یک تفاوت کوچک در عبارت جستجو، باعث تغییر چشمگیری در نتایج آن میشود. الگوریتم موش کور هم این نوع کسب و کار و و هم شرکتهای خارج از محدوده شهر و نیز نشان میدهد.
الگوریتم موش کور برای قرار دادن کسب و کار با توجه به موقعیت مکانی آنها مناسب است.
تمرکز اصلی الگوریتم کبوتر و الگوریتم موش کور
هدف اصلی این دو مورد از الگوریتم های گوگل عبارتند از:
نمایش وب سایتهای معتبر و بهینه سازی شده در نتایج جستجوی محلی؛
نمایش نتایج جستجو که نزدیک به مکان فیزیکی جستجوگر هستند.
بهترین پیشنهاد برای الگوریتم کبوتر و الگوریتم موش کور
باید بپذیریم که استفاده از روشهای سنتی برای رتبه بندی سایتها و بهینه سازی آنها منقضی شده است و روشهای مختلفی برای بهینهسازی نتایج جستجو به وجود آمده است. کسانی که به دنبال تبلیغات و معرفی کسب و کار خود به جستجوگران هستند، باید از ابزارهای مختلف مانند گوگل مپ برای نشان دادن آدرس محل کسب و کار خود استفاده کنند. ثبت دامنه و فعالیت سایت باید به شکلی باشد که گوگل به راحتی محل کسب و کار را تشخیص دهد تا بتواند آن را در معرض دید کاربران قرار دهد. یکی از بهترین ابزارهایی که در مورد یک صفحه کاری میتواند به شما کمک کند، Google My Business است که اطلاعات کسب و کار شما را به طور کامل در اختیار کاربران و الگوریتم های گوگل قرار میدهد.
الگوریتم گوگل فرد (Google Fred) یک نام غیر رسمی دیگر برای معرفی الگوریتم های گوگل است که در رتبه بندی وب سایتها را با توجه به کسب درآمد قانونی آنها انجام میدهد. این الگوریتم برای تبلیغات بیش از حد، و وب سایتهایی که توجه چندانی به کاربران ندارند، به کار گرفته میشود. در حقیقت وبسایتهایی که اهداف جز کسب درآمد و پول ندارند، مطمئناً در دام الگوریتم گوگل فرد قرار میگیرد.
تمرکز اصلی الگوریتم فرد
با توجه به مطالبی که گفته شد، هدف اصلی استفاده از این الگوریتم:
جلوگیری از کسب درآمد تهاجمی از تبلیغات؛
جلوگیری از تبلیغات گمراه کننده یا فریبنده؛
جلوگیری از موانع و مسائل مربوط به تجربه کاربری؛
جلوگیری از مطابقت و سازگاری نامحدود با گوشیهای همراه؛
جلوگیری از ارسال و انتشار محتوای بیکیفیت.
بهترین پیشنهاد برای الگوریتم فرد
این الگوریتم بسیار خوب است و از قرار دادن تبلیغات بیش از حد در وبسایت ها جلوگیری میکند. در حقیقت، الگوریتم فرد به این نیت راه اندازی شده است که از درج مطالب بی کیفیت و از تبلیغاتهای بیش از ظرفیت سایت ممانعت کند. پس اگر شما میخواهید از این الگوریتم بهترین استفاده را ببرید، سعی کنید مطالب با کیفیت در وب سایت خود منتشر کنید و ترجیحا برای قرار دادن تبلیغات از دستورالعمل کیفیت گوگل برای ارزیابی وب سایت خود استفاده کنید.
باید بپذیریم که الگوریتم های گوگل بیش از آنکه ابزارهای دست و پا گیر و آزاردهنده باشند، ابزارهایی مناسب و یاری دهنده برای کاربران به شمار میروند و همه آنها تلاش میکنند که جستجوگران با نتایج جستجوی باکیفیت و ایدهآل خود مواجه شوند. هدف ما از انتشار این مطلب، آشنایی با الگوریتم های مختلف و به روز رسانیهای آنها بود و اگر قصد وبلاگ نویسی را دارید، باید بدانید که چه نکاتی میتواند به وبسایت شما لطمه بزند. پس همچنان با میمونیها همراه باشید.
«هایزنبرگ»