درآمد خود از یوتیوب را با ما نقد کنید!
Search
Close this search box.

۰۲۱-۲۲۳۱۹۱۶۵

دسته بندی مقالات

آیا برای سایت خود به بازدید کننده بیشتری احتیاج دارید ؟

چگونه در مقابل کارزار سئوی منفی فعال باشیم و از آن پیشگیری کنیم

چگونه در مقابل کارزار سئوی منفی فعال باشیم و از آن پیشگیری کنیم
فهرست مطالب

این مقاله‌ای است دنباله دار، ترجمه شده از سایت سرچ انجین لند. از آنجایی که سئوی منفی یکی از مهم‌ترین مباحثی است که به شدت در دنیای وب برای بسیاری از سایت‌ها پیش می‌آید ما چندین مقاله را به این موضوع اختصاص داده‌ایم لازم به ذکر است که طبق تحقیق ما کمتر سایت فارسی زبانی به این گستردگی به مقوله سئو منفی پرداخته است. اگر تا قبل از این مقالات قبلی این مجموعه را نخوانده اید حتما قبل از این مقاله دو مقاله پیشین را بخوانید.

سئو منفی یک موضوع دنباله دار در نوین مارکتینگ است در صورت علاقه مندی به آن دیگر عناوین مربوط به آن را در لینک های زیر ببینید

 قسمت ۱: سئوی منفی چه هست و چه نیست

قسمت ۲: چگونه بفهمیم تحت تأثیر سئوی منفی قرار گرفته‌ایم

قسمت ۳: چگونه در مقابل کارزار سئوی منفی فعال باشیم و از آن پیشگیری کنیم

قسمت ۴: چگونه از خود در مقابل کارزار سئوی منفی در حال اجرا محافظت کنیم؟

قسمت ۵: سئوی کلاه سیاه black hat SEO در سال ۲۰۱۸

با توجه به مباحث گفته شده، حالا زمان آن فرا رسیده است که به چگونگی روش‌های حفظ امنیت سایت در مقابل کارزارهای سئو منفی (بهینه سازی موتورهای جستجو) منفی بپردازیم.

همه‌ کاری که می‌توانید انجام دهید این است که احتمال تبدیل شدن به قربانی سئوی منفی را به حداقل برسانید. در ادامه به روش‌های کاهش تأثیر حملات و محافظت از سایت خود در مقابل سئوی منفی می‌پردازیم.

برای شروع، خبر بدی برای شما دارم: چیزی به عنوان هک اثبات شده وجود ندارد.

و همچنین چیزی به عنوان سئوی منفی اثبات شده نیز وجود ندارد!

همه‌ی کاری که می‌توانیم انجام دهیم این است که احتمال تبدیل شدن به قربانی سئوی منفی را با کاهش مؤلفه‌های حمله به حداقل برسانیم. به این ترتیب کسی که به دنبال آسیب رساندن به سایت شماست نیاز به کار بیشتری دارد و بایستی تلاش بیشتری برای آسیب رساندن به شما، نسبت به سایت‌های معمولی انجام دهد.

در این مجموعه از بررسی سئوی منفی، باید سئو را به سه بخش تقسیم کنیم: لینک‌ها، محتوا و سیگنال‌های کاربران. در نتیجه باید بر محافظت از هر یک از این موارد، در کنار وضعیت کلی سایت بر این سه تمرکز کنیم تا از تبدیل شده به قربانی سئوی منفی جلوگیری کنیم.

سئوی منفی - negative seo

محتوا و زیرساخت

میزبانی. میزبان سایت شما چه کاری برای جلوگیری از مشکل برای شما می‌تواند انجام دهد؟ در حقیقت خیلی کم. من میزبانی را به عنوان یکی از مؤلفه‌های کاربر در نظر می‌گیرم اما فاکتور بحرانی دیگری نیز وجود دارد که به میزبان مربوط می‌شود: شهرت.

اگر شما ۱۰۰ درصد مشکلات اشاره شده در این مقاله را تجربه کرده‌اید، به احتمال زیاد از یک آی‌پی اشتراکی استفاده می‌کنید که تعداد زیادی از دامنه‌های متصل به آن به عنوان ناشر بدافزار برچسب خورده‌اند، سامانه‌های تشخیص هرزنامه‌ی ایمیلی آن‌ها را مسدود کرده‌اند یا هدف اقدامات دستی مربوط به لینک از سوی گوگل بوده‌اند، در نتیجه شما در موقعیت بدی هستید.

در این شرایط، حداقل می‌توانید از اختصاص یک آی‌پی اختصاصی به دامنه‌ای که به آن اهمیت می‌دهید اطمینان حاصل کنید. در حالت ایده‌آل نیز می‌توانید سرور اختصاصی خود را برای سایتتان داشته باشید.

برتری دیگر عدم اشتراک گذاری سرور میزبان چیست؟ یکی از مؤلفه‌های موجود برای انجام سئوی منفی در برابر سایت شما کاهش یافته است. دیگر حمله کنندگان قادر نخواهند بود که با استفاده از یک سایت با امنیت پایین‌تر که در میزبان شما وجود دارد، به سایت شما حمله کنند و به این ترتیب سایت شما کمی ایمن‌تر می‌شود.

ملاحظات سامانه مدیریت محتوا (CMS). همه سامانه‌های مدیریت محتوا یکسان نیستند. برخی از آن‌ها برای هریک از صفحات ساخته شده، به صورت خودکار آرشیو و صفحات تصویر اختصاصی می‌سازند. برخی از آن‌ها امکان دنبال کردن بخش نظرات را می‌دهند که مثل دعوتنامه‌ای برای تولید اسپم است.

از آنجا که اکثر سایت‌های جهان از وردپرس استفاده می‌کنند، غیرفعال کردن بخش نظرات، افزودن noindex به برچسب‌ صفحات، آرشیو مطالب نویسندگان و صفحات دسته بندی به نظر منطقی است. برخی از افراد ممکن است با من مخالف باشند اما تمرکز من فقط بر تلاش برای ایندکس و رتبه گیری صفحات با محتوای ارزشمند است، چهارچوبی که برچسب‌ها، آرشیو و دسته بندی‌ها به سختی در آن قرار می‌گیرند.

هنگام استفاده از سامانه‌ی مدیریت محتوای اختصاصی، مهم است که از مدیریت مناسب محتوا اطمینان حاصل کرده و از ایندکس شدن محتوای تکراری به دلیل صفحه بندی‌های مختلف و سایر موراد بی‌اهمیت جلوگیری کنید.

Robots.txt. به نظر من دستکاری و اعمال تغییرات در فایل Robots.txt به مانند یک شمشیر دو لبه است. این موضوع نه فقط به این دلیل است که با تغییری کوچک در این فایل امکان حذف تمام صفحات ایندکس شده برای سایت وجود دارد بلکه به دلیل اتفاقات ناشی از قوانین سخت گیرانه‌ی خزش  crawling است.

ممکن است که صفحه‌ای از سایت شما که حاوی عبارتی نامطلوب در نشانی اینترنتی‌اش (URL) بوده در گوگل رتبه بندی شود و گوگل بر اساس آن با دامنه‌ی اصلی سایت شما و کلمه‌ی کلیدی موجود در نشانی وب شما رفتار کند. برای مثال نشانی وب زیر را در نظر بگیرید:

exampledomain.com/directory/undesirablekeywordphrase

از آنجا که قوانین موجود در robot.txt از خزش واقعی گوگل در صفحه جلوگیری می‌کنند، گوگل مجبور می‌شود که به نشانی صفحه اعتماد کرده و آن را «خوب» در نظر بگیرد و آن را رتبه بندی کند.

این مورد برای سایت‌های چندرسانه‌ای بیش از سایر سایت‌ها روی می‌دهد. برای سایر سایت‌ها، یکی از روش های مهم کاهش خطر، جلوگیری از خزش و ایندکس شدن صفحات توسط موتور جستجو است. در ادامه چند توصیه به شما ارائه می‌شود که بدون در نظر گرفتن سامانه‌ی مدیریت محتوای شما قابل استفاده است:

Disallow: /search/

Disallow: /*?s=

Disallow: /*?q=

فایل Robots.txt مناسب فقط باعث جلوگیری از ایندکس شدن صفحات کم کیفیت نمی‌شود. برای اینکه کارایی خزش صفحات شما بالا برود، بسیار مهم است که به موتور جستجو بگویید که کدام صفحات را خزش کرده و کدام‌ها را خزش نکند. این کار از به دام افتادن ربات‌های خزنده و تلف شدن وقت آن‌ها جلوگیری می‌کند. انجام این کار در وردپرس به نسبت آسان‌تر است و این سامانه زیرساخت‌های لازم برای اعمال تغییرات در صفحات مورد نظر را را در خود دارد:

Disallow: *&preview=

Disallow: *?p=

Disallow: *&p=

تخریب. خیر! من به شما پیشنهاد نمی‌دهم که از محتوای تخریبی در جهت حفاظت از خودتان استفاده کنید؛ دقیقا برعکس. شما باید در استفاده از سامانه‌های حفاظت از محتوا فعال باشید و از عدم استفاده‌ بی‌اجازه‌ی سایرین از تصاویر و متون اختصاصی شما در دنیای وب اطمینان حاصل کنید.

در حالی که گوگل این روزها در یافتن سایت‌های منبع بهتر شده است، اما هنوز هم مشکلاتی در استفاده از دامنه‌های معتبر به عنوان میزبان‌های نامناسب دارد.

فرد مهاجم به طور پیوسته با بهره گیری از نقشه‌ی سایت، وبسایت شما را بررسی می‌کند. سپس چند ثانیه پس از انتشار محتوا توسط شما، محتوای خودش را در میزبان نامطمئنی که شما محتوای خود را در آن بارگذاری کرده‌اید منتشر می‌کند.

از سرویس‌هایی نظیر Copyscape یا Plagium برای یافتن محتواهای این چنینی استفاده کنید. اگر آن‌ها در سرقت محتوای شما موفق باشند، شما باید با شرکت میزبان تماس گرفته و درخواست حذف محتوای مذکور را بدهید و یا از قوانین DMCA استفاده کنید.

سئوی منفی - محتوا و زیرساخت

لینک‌های بد

لینکهای خروجی مربوط به محتوای تولید شده توسط کاربران (UGC). همان‌طور که در بخش قبلی نیز به آن اشاره کردیم، من طرفدار نظردهی آزاد در وبسایت نیستم، دلیلش هم این است که امکان سوء استفاده از آن وجود دارد. اما در مورد سایر منابع  محتوای تولید شده توسط کاربران چطور؟

اگر بخش انجمنی در سایت خود دارید که اعضا در آن امکان فعالیت دارند، به شما استفاده از یکی از این موارد را پیشنهاد می‌کنم:

  • از صفت nofollow برای تمامی لینک‌ها استفاده کنید
  • تمامی لینک‌های خروجی را مجبور به بازنشانی از طریق لینکی داخلی کنید تا ارزش لینک خروجی کاهش یابد
  • همه‌ی موارد را noindex کنید
  • همه‌ی لینک‌های خروجی را تعدیل کنید

لینکهای خروجی تزریقی. این مشکل نسبت به سایر موارد کمی زیرکانه‌تر است و بیشتر عملکرد واکنشی شما را برمی‌انگیزد تا کنشی. به هر حال شما باید به طور مستمر بر لینک‌های خروجی گزارش شده در کنسول جستجوی گوگل خود نظارت کنید و لینک‌هایی که شما قرار نداده‌اید را بیابید.

یکی دیگر از روش‌های بررسی لینک‌های خروجی تزریق شده به سایت استفاده از اسکریپت‌های خزش دارای عوامل کاربری چندگانه (گوگل و غیر گوگل) برای یافتن لینک‌ها و محتواهایی است که وجود دارند اما نباید وجود داشته باشند. این مورد توسط مهندسی معکوس نرم افزارهای مخفی سازی برای جلوگیری از مخفی شدن لینک‌های تزریقی قابل انجام است.

برای انجام این کار، عامل خزش خود را در کروم یا فایرفاکس به گونه‌ای تنظیم کنید که شبیه به ربات گوگل باشد، حتی می‌توانید به صورت دستی این کار را انجام دهید و یا از افزونه‌های تعویض کاربر استفاده کنید. اگر به سایت خود از هر دو دیدگاه ربات گوگل و کاربر واقعی نگاه کنید، لینک‌هایی که فقط برای ربات گوگل قابل مشاهده‌اند را یافته و می‌توانید آن‌ها را از حالت مخفی خارج کرده و حتی حذف کنید.

سئوی منفی - لینک‌های بد

لینکهای ورودی (لینکهای داده شده به سایت شما توسط سایرین). لینک‌های ورودی به نسبت لینک‌های خارجی مشکلات بیشتری برای شما ایجاد می‌کنند. چرا؟ چون شما نمی‌توانید کاری که دیگران انجام می‌دهند را کنترل کنید.

فقط چند توصیه‌ وجود دارد که می‌توانید آن را امتحان کرده و سایت خود را از لینک‌های ورودی بد حفاظت کنید:

  • لینکهای زیادی به دست آورید. همواره برای دستیابی به لینک‌های ورودی با کیفیت بیشتر تلاش کنید و لینک‌های ورودی باکیفیت را به بخش اعظمی از تعداد لینک‌های خود بدل کنید. شاید این روش به نظرتان قدیمی باشد اما روش درستی است. اگر به طور مداوم بر تولید بهترین محتوای ممکن متمرکز شوید، به طور مداوم لینک‌های خوبی به دست می‌آورید. اگر شما تعداد کمی لینک‌های باکیفیت داشته باشید و کسی برای اعمال سئوی منفی به سایت شما نزدیک شده و ده‌ها هزار لینک بد را به سوی سایت شما روانه کند، گوگل به احتمال بسیار زیاد با شما رفتار خوبی نخواهد داشت. در هنگام حمله‌ی سئوی منفی، هرچه از روش‌های غیر پولی برای افزایش تعداد لینک‌های ورودی خود استفاده کنید، بهتر است.
  • انکر تکست خود را رصد کنید. یکی از ساده‌ترین فیلترهای قابل اعمال، بهینه سازی بیش از حد انکر تکست است. بنابراین اگر توانستید تعداد زیادی لینک عالی را به خود جذب کنید، مطمئن شوید که انکر تکست شما به تعداد کمی عبارت محدود نشود. اگر مشاهده کردید که انکر تکست شما شروع به فشرده شدن کرده است، به دنبال سایر نشانه‌های تهاجم سئوی منفی باشید. اشاره کردن به انکرهای عبارات مشابه نیز یکی از ساده‌ترین و ارزان‌ترین راه‌ها برای آغاز کارزار سئوی منفی است.
  • Disavow. پیش از این نیز گفته‌ام که شخصا علاقه‌ای به ابزارهای Disavow ندارم زیرا به من احساس حاکم بودن فضای «گناهکار تا زمانی که بی‌گناهی ثابت شود» برای گوگل را می‌دهد. اما از آنجا که این موضوع حقیقت دارد، شما بایستی از روش‌های انکاری در فعالیت‌های کاهش خطر خود استفاده کنید. به یاد داشته باشید که فقط لینک‌های سایت‌های دارای محتوای بزرگسال و قمار نیستند که باید در راهبرد انکار قرار بگیرند، بلکه هر گونه سایتی که به نظر می‌رسد بخشی از یک حمله‌ی مجازی غیرقانونی است نیز باید مردود اعلام شود.

سئوی منفی - لینک‌های ورودی

سیگنال‌های کاربران

تنها چند فاکتور وجود دارند که در این مورد ایفای نقش می‌کنند و متأسفانه کار زیادی نیز برای انجام دادن در قبال آن‌ها وجود ندارد.

شاخصها. نرخ کلیک (CTR)، زمان سپری شده در سایت و نرخ بازگشت شاخص‌هایی هستند که از سوی گوگل به عنوان سیگنال‌هایی قابل اعتماد تلقی می‌شوند. آگاهی از آمار پایه‌ی سایت شما در کنسول جستجوی گوگل و گوگل آنالیتیکس در اینجا اهمیت زیادی دارد، چراکه استخدام چند ربات اینترنتی و چند هزار میکرو کارگر (Micro Worker) و استفاده از آن‌ها برای جستجو، کلیک روی سایت و افزایش نرخ بازگشت کار آسانی است.

میکرو کارگرها البته قادرند که با ارسال گزارش به گوگل بگویند، سایت مشاهده شده توسط آن‌ها سایت با کیفیتی نبوده است. کاری که از دست شما بر می‌آید این است که متوجه روندهای عجیب موجود شده و برای جبران آن تلاش کنید. اگر مورد مشاهده شده یک ربات اینترنتی بود، آن را در سرور یا سامانه‌ی تحویل محتوا (CDN) خود مسدود کنید. اگر مورد مشاهده شده تعدادی کاربر تهییج شده علیه شما بودند، تنها کاری که می‌توانید انجام دهید مدیریت شرایط به همان شیوه‌ای است که در بخش لینک‌های ورودی تشریح شد. در این حالت ایجاد تجربه‌ای رضایت بخش برای کاربران را هدف خود قرار دهید و به دنبال کسب ترافیکی باشید که اثر این شاخص‌های ضعیف را کاهش دهد.

سرعت. برای پیشگیری از استفاده‌ی سرعت پایین سایت علیه شما، از میزبان‌های نامعتبر استفاده نکنید. اگر امکانش را دارید، استفاده از CDN را برای محافظت از خود در مقابل حملات DDos (حمله محروم‌سازی از سرویس( در نظر بگیرید. همچنین مطمئن شوید که سرور شما به روز است و مشکلات ابتدایی نظیر قرارداد داده‌نگار کاربر (UDP)، اسلولوریس و سایر حملات را نداشته است.

علاوه بر این، باید تمامی راه‌هایی که افراد می‌تواند از آن‌ها برای از بین بردن پهنای باند شما نظیر استفاده از لینک دادن مستقیم به تصاویر سایت شما در سطح سرور را بررسی کنید، افزونه‌های بی‌استفاده در CMS خود را حذف کنید و از سامانه‌ی کَش مناسبی استفاده کنید.

سئوی منفی - سیگنال‌های کاربران

بدافزار. بدافزار به عنوان سیگنال کاربر؟ مطمئنا! هرچند می‌توان این مورد را به عنوان مشکلی در محتوا نیز در نظر گرفت. هیچ چیز مانند بازنشانی کاربر به یک سایت کلاه برداری به دلیل وجود یک کد جاوای تزریق شده در سایت تجربه‌ی بدی را برای کاربران رقم نمی‌زند. برای پیشگیری از ایجاد چنین شرایطی بایستی از اسکنرهای بدافزار برای بررسی سایت و سرور خود دائما استفاده کرده و بدافزارها را حذف کنید.

هر چه سریع‌تر مشکل را پیدا کنید، بهتر است. خوشبختانه گوگل در هنگام رسیدگی به مسائل مربوط به بدافزارهای مشهور بسیار مهربان است، اما از آنجا که آن‌ها همه‌ی بدافزارها را کشف نمی‌کنند، امکان دسترسی کاربران به محتوای مشکل دار به جای محتوای معمولی وجود دارد.

نتیجه

پوشش تمامی موارد مربوط به سئوی منفی در این مقاله غیرممکن است اما به نظر من، بخش مهمی از موارد در این مقاله پوشش داده شده و نگرشی کلی به چگونگی بررسی و محافظت از سایت شما در مقابل سئوی منفی ارائه شده است.

در مقاله‌ی بعدی از این مجموعه، درباره‌ی روش‌های مقابله با سئوی منفی در میانه‌ی حملات بحث خواهیم کرد.

این مطلب را به اشتراک بگذارید
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *
مقالات مرتبط
Related Articles
sem چیست
|
sem چیست؟ چه کاربردی داشته و چه مزایایی در اختیار شما می‌گذارد؟ در دنیای آنلاین امروز، حضور...
بهبود رتبه سایت
بهبود رتبه سایت چگونه انجام می‌شود؟ بهترین روش های بهبود رتبه سایت در گوگل کدامند؟ در دنیای...
google-freshness
|
وقتی درباره الگوریتم های گوگل فکر می کنیم، بیشتر الگوریتم های معروف آن مثل پنگوئن و پاندا...
Google-sandbox-Algorithm
|
در هر روز بیش از ۴۰۰ سایت جدید راه اندازی می شود و وارد رقابت در عرصه...
Search