این مقالهای است دنباله دار، ترجمه شده از سایت سرچ انجین لند. از آنجایی که سئوی منفی یکی از مهمترین مباحثی است که به شدت در دنیای وب برای بسیاری از سایتها پیش میآید ما چندین مقاله را به این موضوع اختصاص دادهایم لازم به ذکر است که طبق تحقیق ما کمتر سایت فارسی زبانی به این گستردگی به مقوله سئو منفی پرداخته است. اگر تا قبل از این مقالات قبلی این مجموعه را نخوانده اید حتما قبل از این مقاله دو مقاله پیشین را بخوانید.
سئو منفی یک موضوع دنباله دار در نوین مارکتینگ است در صورت علاقه مندی به آن دیگر عناوین مربوط به آن را در لینک های زیر ببینید
قسمت 1: سئوی منفی چه هست و چه نیست
قسمت 2: چگونه بفهمیم تحت تأثیر سئوی منفی قرار گرفتهایم
قسمت 3: چگونه در مقابل کارزار سئوی منفی فعال باشیم و از آن پیشگیری کنیم
قسمت 4: چگونه از خود در مقابل کارزار سئوی منفی در حال اجرا محافظت کنیم؟
قسمت 5: سئوی کلاه سیاه black hat SEO در سال ۲۰۱۸
با توجه به مباحث گفته شده، حالا زمان آن فرا رسیده است که به چگونگی روشهای حفظ امنیت سایت در مقابل کارزارهای سئو منفی (بهینه سازی موتورهای جستجو) منفی بپردازیم.
همه کاری که میتوانید انجام دهید این است که احتمال تبدیل شدن به قربانی سئوی منفی را به حداقل برسانید. در ادامه به روشهای کاهش تأثیر حملات و محافظت از سایت خود در مقابل سئوی منفی میپردازیم.
برای شروع، خبر بدی برای شما دارم: چیزی به عنوان هک اثبات شده وجود ندارد.
و همچنین چیزی به عنوان سئوی منفی اثبات شده نیز وجود ندارد!
همهی کاری که میتوانیم انجام دهیم این است که احتمال تبدیل شدن به قربانی سئوی منفی را با کاهش مؤلفههای حمله به حداقل برسانیم. به این ترتیب کسی که به دنبال آسیب رساندن به سایت شماست نیاز به کار بیشتری دارد و بایستی تلاش بیشتری برای آسیب رساندن به شما، نسبت به سایتهای معمولی انجام دهد.
در این مجموعه از بررسی سئوی منفی، باید سئو را به سه بخش تقسیم کنیم: لینکها، محتوا و سیگنالهای کاربران. در نتیجه باید بر محافظت از هر یک از این موارد، در کنار وضعیت کلی سایت بر این سه تمرکز کنیم تا از تبدیل شده به قربانی سئوی منفی جلوگیری کنیم.
محتوا و زیرساخت
میزبانی. میزبان سایت شما چه کاری برای جلوگیری از مشکل برای شما میتواند انجام دهد؟ در حقیقت خیلی کم. من میزبانی را به عنوان یکی از مؤلفههای کاربر در نظر میگیرم اما فاکتور بحرانی دیگری نیز وجود دارد که به میزبان مربوط میشود: شهرت.
اگر شما 100 درصد مشکلات اشاره شده در این مقاله را تجربه کردهاید، به احتمال زیاد از یک آیپی اشتراکی استفاده میکنید که تعداد زیادی از دامنههای متصل به آن به عنوان ناشر بدافزار برچسب خوردهاند، سامانههای تشخیص هرزنامهی ایمیلی آنها را مسدود کردهاند یا هدف اقدامات دستی مربوط به لینک از سوی گوگل بودهاند، در نتیجه شما در موقعیت بدی هستید.
در این شرایط، حداقل میتوانید از اختصاص یک آیپی اختصاصی به دامنهای که به آن اهمیت میدهید اطمینان حاصل کنید. در حالت ایدهآل نیز میتوانید سرور اختصاصی خود را برای سایتتان داشته باشید.
برتری دیگر عدم اشتراک گذاری سرور میزبان چیست؟ یکی از مؤلفههای موجود برای انجام سئوی منفی در برابر سایت شما کاهش یافته است. دیگر حمله کنندگان قادر نخواهند بود که با استفاده از یک سایت با امنیت پایینتر که در میزبان شما وجود دارد، به سایت شما حمله کنند و به این ترتیب سایت شما کمی ایمنتر میشود.
ملاحظات سامانه مدیریت محتوا (CMS). همه سامانههای مدیریت محتوا یکسان نیستند. برخی از آنها برای هریک از صفحات ساخته شده، به صورت خودکار آرشیو و صفحات تصویر اختصاصی میسازند. برخی از آنها امکان دنبال کردن بخش نظرات را میدهند که مثل دعوتنامهای برای تولید اسپم است.
از آنجا که اکثر سایتهای جهان از وردپرس استفاده میکنند، غیرفعال کردن بخش نظرات، افزودن noindex به برچسب صفحات، آرشیو مطالب نویسندگان و صفحات دسته بندی به نظر منطقی است. برخی از افراد ممکن است با من مخالف باشند اما تمرکز من فقط بر تلاش برای ایندکس و رتبه گیری صفحات با محتوای ارزشمند است، چهارچوبی که برچسبها، آرشیو و دسته بندیها به سختی در آن قرار میگیرند.
هنگام استفاده از سامانهی مدیریت محتوای اختصاصی، مهم است که از مدیریت مناسب محتوا اطمینان حاصل کرده و از ایندکس شدن محتوای تکراری به دلیل صفحه بندیهای مختلف و سایر موراد بیاهمیت جلوگیری کنید.
Robots.txt. به نظر من دستکاری و اعمال تغییرات در فایل Robots.txt به مانند یک شمشیر دو لبه است. این موضوع نه فقط به این دلیل است که با تغییری کوچک در این فایل امکان حذف تمام صفحات ایندکس شده برای سایت وجود دارد بلکه به دلیل اتفاقات ناشی از قوانین سخت گیرانهی خزش crawling است.
ممکن است که صفحهای از سایت شما که حاوی عبارتی نامطلوب در نشانی اینترنتیاش (URL) بوده در گوگل رتبه بندی شود و گوگل بر اساس آن با دامنهی اصلی سایت شما و کلمهی کلیدی موجود در نشانی وب شما رفتار کند. برای مثال نشانی وب زیر را در نظر بگیرید:
exampledomain.com/directory/undesirablekeywordphrase
از آنجا که قوانین موجود در robot.txt از خزش واقعی گوگل در صفحه جلوگیری میکنند، گوگل مجبور میشود که به نشانی صفحه اعتماد کرده و آن را «خوب» در نظر بگیرد و آن را رتبه بندی کند.
این مورد برای سایتهای چندرسانهای بیش از سایر سایتها روی میدهد. برای سایر سایتها، یکی از روش های مهم کاهش خطر، جلوگیری از خزش و ایندکس شدن صفحات توسط موتور جستجو است. در ادامه چند توصیه به شما ارائه میشود که بدون در نظر گرفتن سامانهی مدیریت محتوای شما قابل استفاده است:
Disallow: /search/
Disallow: /*?s=
Disallow: /*?q=
فایل Robots.txt مناسب فقط باعث جلوگیری از ایندکس شدن صفحات کم کیفیت نمیشود. برای اینکه کارایی خزش صفحات شما بالا برود، بسیار مهم است که به موتور جستجو بگویید که کدام صفحات را خزش کرده و کدامها را خزش نکند. این کار از به دام افتادن رباتهای خزنده و تلف شدن وقت آنها جلوگیری میکند. انجام این کار در وردپرس به نسبت آسانتر است و این سامانه زیرساختهای لازم برای اعمال تغییرات در صفحات مورد نظر را را در خود دارد:
Disallow: *&preview=
Disallow: *?p=
Disallow: *&p=
تخریب. خیر! من به شما پیشنهاد نمیدهم که از محتوای تخریبی در جهت حفاظت از خودتان استفاده کنید؛ دقیقا برعکس. شما باید در استفاده از سامانههای حفاظت از محتوا فعال باشید و از عدم استفاده بیاجازهی سایرین از تصاویر و متون اختصاصی شما در دنیای وب اطمینان حاصل کنید.
در حالی که گوگل این روزها در یافتن سایتهای منبع بهتر شده است، اما هنوز هم مشکلاتی در استفاده از دامنههای معتبر به عنوان میزبانهای نامناسب دارد.
فرد مهاجم به طور پیوسته با بهره گیری از نقشهی سایت، وبسایت شما را بررسی میکند. سپس چند ثانیه پس از انتشار محتوا توسط شما، محتوای خودش را در میزبان نامطمئنی که شما محتوای خود را در آن بارگذاری کردهاید منتشر میکند.
از سرویسهایی نظیر Copyscape یا Plagium برای یافتن محتواهای این چنینی استفاده کنید. اگر آنها در سرقت محتوای شما موفق باشند، شما باید با شرکت میزبان تماس گرفته و درخواست حذف محتوای مذکور را بدهید و یا از قوانین DMCA استفاده کنید.
لینکهای بد
لینکهای خروجی مربوط به محتوای تولید شده توسط کاربران (UGC). همانطور که در بخش قبلی نیز به آن اشاره کردیم، من طرفدار نظردهی آزاد در وبسایت نیستم، دلیلش هم این است که امکان سوء استفاده از آن وجود دارد. اما در مورد سایر منابع محتوای تولید شده توسط کاربران چطور؟
اگر بخش انجمنی در سایت خود دارید که اعضا در آن امکان فعالیت دارند، به شما استفاده از یکی از این موارد را پیشنهاد میکنم:
- از صفت nofollow برای تمامی لینکها استفاده کنید
- تمامی لینکهای خروجی را مجبور به بازنشانی از طریق لینکی داخلی کنید تا ارزش لینک خروجی کاهش یابد
- همهی موارد را noindex کنید
- همهی لینکهای خروجی را تعدیل کنید
لینکهای خروجی تزریقی. این مشکل نسبت به سایر موارد کمی زیرکانهتر است و بیشتر عملکرد واکنشی شما را برمیانگیزد تا کنشی. به هر حال شما باید به طور مستمر بر لینکهای خروجی گزارش شده در کنسول جستجوی گوگل خود نظارت کنید و لینکهایی که شما قرار ندادهاید را بیابید.
یکی دیگر از روشهای بررسی لینکهای خروجی تزریق شده به سایت استفاده از اسکریپتهای خزش دارای عوامل کاربری چندگانه (گوگل و غیر گوگل) برای یافتن لینکها و محتواهایی است که وجود دارند اما نباید وجود داشته باشند. این مورد توسط مهندسی معکوس نرم افزارهای مخفی سازی برای جلوگیری از مخفی شدن لینکهای تزریقی قابل انجام است.
برای انجام این کار، عامل خزش خود را در کروم یا فایرفاکس به گونهای تنظیم کنید که شبیه به ربات گوگل باشد، حتی میتوانید به صورت دستی این کار را انجام دهید و یا از افزونههای تعویض کاربر استفاده کنید. اگر به سایت خود از هر دو دیدگاه ربات گوگل و کاربر واقعی نگاه کنید، لینکهایی که فقط برای ربات گوگل قابل مشاهدهاند را یافته و میتوانید آنها را از حالت مخفی خارج کرده و حتی حذف کنید.
لینکهای ورودی (لینکهای داده شده به سایت شما توسط سایرین). لینکهای ورودی به نسبت لینکهای خارجی مشکلات بیشتری برای شما ایجاد میکنند. چرا؟ چون شما نمیتوانید کاری که دیگران انجام میدهند را کنترل کنید.
فقط چند توصیه وجود دارد که میتوانید آن را امتحان کرده و سایت خود را از لینکهای ورودی بد حفاظت کنید:
- لینکهای زیادی به دست آورید. همواره برای دستیابی به لینکهای ورودی با کیفیت بیشتر تلاش کنید و لینکهای ورودی باکیفیت را به بخش اعظمی از تعداد لینکهای خود بدل کنید. شاید این روش به نظرتان قدیمی باشد اما روش درستی است. اگر به طور مداوم بر تولید بهترین محتوای ممکن متمرکز شوید، به طور مداوم لینکهای خوبی به دست میآورید. اگر شما تعداد کمی لینکهای باکیفیت داشته باشید و کسی برای اعمال سئوی منفی به سایت شما نزدیک شده و دهها هزار لینک بد را به سوی سایت شما روانه کند، گوگل به احتمال بسیار زیاد با شما رفتار خوبی نخواهد داشت. در هنگام حملهی سئوی منفی، هرچه از روشهای غیر پولی برای افزایش تعداد لینکهای ورودی خود استفاده کنید، بهتر است.
- انکر تکست خود را رصد کنید. یکی از سادهترین فیلترهای قابل اعمال، بهینه سازی بیش از حد انکر تکست است. بنابراین اگر توانستید تعداد زیادی لینک عالی را به خود جذب کنید، مطمئن شوید که انکر تکست شما به تعداد کمی عبارت محدود نشود. اگر مشاهده کردید که انکر تکست شما شروع به فشرده شدن کرده است، به دنبال سایر نشانههای تهاجم سئوی منفی باشید. اشاره کردن به انکرهای عبارات مشابه نیز یکی از سادهترین و ارزانترین راهها برای آغاز کارزار سئوی منفی است.
- Disavow. پیش از این نیز گفتهام که شخصا علاقهای به ابزارهای Disavow ندارم زیرا به من احساس حاکم بودن فضای «گناهکار تا زمانی که بیگناهی ثابت شود» برای گوگل را میدهد. اما از آنجا که این موضوع حقیقت دارد، شما بایستی از روشهای انکاری در فعالیتهای کاهش خطر خود استفاده کنید. به یاد داشته باشید که فقط لینکهای سایتهای دارای محتوای بزرگسال و قمار نیستند که باید در راهبرد انکار قرار بگیرند، بلکه هر گونه سایتی که به نظر میرسد بخشی از یک حملهی مجازی غیرقانونی است نیز باید مردود اعلام شود.
سیگنالهای کاربران
تنها چند فاکتور وجود دارند که در این مورد ایفای نقش میکنند و متأسفانه کار زیادی نیز برای انجام دادن در قبال آنها وجود ندارد.
شاخصها. نرخ کلیک (CTR)، زمان سپری شده در سایت و نرخ بازگشت شاخصهایی هستند که از سوی گوگل به عنوان سیگنالهایی قابل اعتماد تلقی میشوند. آگاهی از آمار پایهی سایت شما در کنسول جستجوی گوگل و گوگل آنالیتیکس در اینجا اهمیت زیادی دارد، چراکه استخدام چند ربات اینترنتی و چند هزار میکرو کارگر (Micro Worker) و استفاده از آنها برای جستجو، کلیک روی سایت و افزایش نرخ بازگشت کار آسانی است.
میکرو کارگرها البته قادرند که با ارسال گزارش به گوگل بگویند، سایت مشاهده شده توسط آنها سایت با کیفیتی نبوده است. کاری که از دست شما بر میآید این است که متوجه روندهای عجیب موجود شده و برای جبران آن تلاش کنید. اگر مورد مشاهده شده یک ربات اینترنتی بود، آن را در سرور یا سامانهی تحویل محتوا (CDN) خود مسدود کنید. اگر مورد مشاهده شده تعدادی کاربر تهییج شده علیه شما بودند، تنها کاری که میتوانید انجام دهید مدیریت شرایط به همان شیوهای است که در بخش لینکهای ورودی تشریح شد. در این حالت ایجاد تجربهای رضایت بخش برای کاربران را هدف خود قرار دهید و به دنبال کسب ترافیکی باشید که اثر این شاخصهای ضعیف را کاهش دهد.
سرعت. برای پیشگیری از استفادهی سرعت پایین سایت علیه شما، از میزبانهای نامعتبر استفاده نکنید. اگر امکانش را دارید، استفاده از CDN را برای محافظت از خود در مقابل حملات DDos (حمله محرومسازی از سرویس( در نظر بگیرید. همچنین مطمئن شوید که سرور شما به روز است و مشکلات ابتدایی نظیر قرارداد دادهنگار کاربر (UDP)، اسلولوریس و سایر حملات را نداشته است.
علاوه بر این، باید تمامی راههایی که افراد میتواند از آنها برای از بین بردن پهنای باند شما نظیر استفاده از لینک دادن مستقیم به تصاویر سایت شما در سطح سرور را بررسی کنید، افزونههای بیاستفاده در CMS خود را حذف کنید و از سامانهی کَش مناسبی استفاده کنید.
بدافزار. بدافزار به عنوان سیگنال کاربر؟ مطمئنا! هرچند میتوان این مورد را به عنوان مشکلی در محتوا نیز در نظر گرفت. هیچ چیز مانند بازنشانی کاربر به یک سایت کلاه برداری به دلیل وجود یک کد جاوای تزریق شده در سایت تجربهی بدی را برای کاربران رقم نمیزند. برای پیشگیری از ایجاد چنین شرایطی بایستی از اسکنرهای بدافزار برای بررسی سایت و سرور خود دائما استفاده کرده و بدافزارها را حذف کنید.
هر چه سریعتر مشکل را پیدا کنید، بهتر است. خوشبختانه گوگل در هنگام رسیدگی به مسائل مربوط به بدافزارهای مشهور بسیار مهربان است، اما از آنجا که آنها همهی بدافزارها را کشف نمیکنند، امکان دسترسی کاربران به محتوای مشکل دار به جای محتوای معمولی وجود دارد.
نتیجه
پوشش تمامی موارد مربوط به سئوی منفی در این مقاله غیرممکن است اما به نظر من، بخش مهمی از موارد در این مقاله پوشش داده شده و نگرشی کلی به چگونگی بررسی و محافظت از سایت شما در مقابل سئوی منفی ارائه شده است.
در مقالهی بعدی از این مجموعه، دربارهی روشهای مقابله با سئوی منفی در میانهی حملات بحث خواهیم کرد.