1. Thế nào là SEO tiêu cực?

SEO tiêu cực đưa ra phương án làm tác động lên công cụ tìm kiếm làm hạ chất lượng của các site đối thủ và làm cho các site mục tiêu hoạt động kém hiệu quả. Trước đây, người ta chỉ nghĩ đến việc chèn link chất lượng thấp vào site cạnh tranh nhưng thực tế hiện nay còn nhiều thủ thuật phức tạp hơn thế. Chúng được đầu tư khoản tiền lớn và cạnh tranh bằng cách lách luật. Trong nhiều trường hợp, luật pháp còn chưa có quy định cụ thể nên các mối đe dọa từ SEO tiêu cực ngày càng phát triển nhanh chóng.

 

2. Một số thủ thuật SEO tiêu cực

a) Tấn công Slow Loris

Đây là hình thức tấn công sử dụng phần mềm do Rovert “RSnake viết, từ duy nhất một máy sẽ gửi tới máy chủ với một lượng thông tin rất ít làm ảnh hưởng tới các pot và dịch vụ không liên quan và có khả năng làm máy chủ ngừng hoạt động.
Bạn có thể phát hiện loại hình tấn công này trong khoảng từ 1 đến 2 giờ và có biện pháp phòng tránh. Tuy nhiên, sau đó vài tuần, tình trạng tấn công sẽ tái diễn, lặp lại liên tục vài tháng đến vài năm mà không thể xác định được nó bắt đầu từ lúc nào. Hậu quả là thu nhập SEO của công ty bạn sẽ giảm đi nhanh chóng.
Để thực hiện thủ thuật này, những kẻ tấn công đã dùng phần mềm Googlebot để tính toán thời gian thực hiện thủ thuật crawl, các đường dẫn vào server chứa phần mềm Googlebot sẽ bị lỗi 500 mà các trang web bị lỗi 500 sẽ bị Googlebot loại ra khỏi kết quả tìm kiếm và sẽ không được Googlebot đánh giá xếp hạng trong khoảng thời gian tương ứng. Sau khi được Google đánh giá xếp hạng lại và được xác nhận trang web không bị lỗi, thứ hạng của trang web đó thậm chí còn bị đánh giá thấp hơn so với trước đó. Muốn trang web quay về thứ hạng cũ cũng phải mất tới 2 tuần.
Điểm mấu chốt quyết định thành bại của phương thức này là sự thống nhất thời gian tấn công và thời gian thực hiện thủ thuật crawl, hacker có thể thực hiện được bằng cách:

1. Giám sát bộ nhớ cache, chỉ cần cập nhật mốc thời gian của bộ nhớ là có thể biết được khoảng thời gian Googlebot chạy crawl.
2. Phân tích ngày giờ bộ nhớ cache, Googlebot sẽ ước tính được thời gian chạy lại crawl.
3. Để xem được User agent cần phải kích hoạt script giữa các site.
4. Tấn công liên tục để khớp thời gian với nhau

b) Tấn công gián đoạn Googlebot( Googlebot Interruption Attack)

Đây là hình thức tấn công mà hacker sẽ thu thập những domain“ bẩn”, tức là những domain đã từng bị phạt, sau đó dùng DNS để thiết lập vào trang web mục tiêu làm trang web này phải chịu tác động, ít nhất trong khoảng thời gian ngắn, từ những án phạt đó. Tồi tệ nhất là trang web mục tiêu sẽ bị một lượng rất lớn các domain bẩn nhắm vào.
Hoặc tương tự như vậy, trang web mục tiêu sẽ bị các domain” bẩn” thiết lập tự động chuyển hướng trang. Các back link thu thập domain” bẩn” sẽ tác động lên các URL đang hoạt động bình thường. Cái nguy hại của cách tấn công này là ở chỗ nếu hacker thay đổi chuyển hướng trang, các domain này có thể tái sử dụng lại.
Ngoài ra, hacker còn nhắm tới các trang không được thiết lập tag canonical bằng cách thêm vào anchor text hoặc URL parameter giả, dù đang chạy nhưng Google vẫn không phát hiện ra được. Đến một lúc nào đó, URL giả thậm chí còn có thứ hạng cao hơn URL gốc thì link cho URL giả đã được thiết lập. Mức độ PR của link gốc sẽ trờ nên thấp đi và bị coi là có nội dung trùng lặp, thứ hạng sẽ bị đánh tụt xuống. Cho đến lúc Google đánh giá xếp hạng lại một lần nữa thì link gốc vẫn sẽ bị đánh giá thấp.

 

3. Phương pháp duy nhất đối phó với SEO tiêu cực

Đó là tính toán chính xác thu nhập từ SEO và phải có kế hoạch giám sát định kỳ. Tuy Conversion rate( phần trăm khách mua hàng so với tổng số khách ghé thăm trang web) là quan trọng nhưng việc kiểm tra sự lành mạnh của SEO và giám sát thu nhập từ SEO cũng là một việc quan trọng không kém. Thu nhập từ SEO được tạo thành bởi rất nhiều nhân tố như chỉ số index, Ranking( xếp hạng), Traffic (lưu lượng giao tiếp của website), Conversion rate( phần trăm khách mua hàng so với tổng số khách ghé thăm trang web) …Dù việc kiểm soát được Conversion rate là quan trọng nhưng do không có phương châm hoạt động nhất quán nên việc kiểm soát SEO tiêu cực là rất khó. Bên cạnh đó log cũng rất quan trọng. Nhờ xác nhận được log của lỗi crawl của webmaster ta có thể hiểu được những vấn đề mà Googlebot đã gặp phải.

1. Nhiều lỗi 500 khơi gợi tính năng “Tấn công cản trở của Googlebot”
2. Nhiều lỗi 404 chỉ thị chuyển hướng trang từ những domain” bẩn”
3. Nhiều lỗi URL không rõ nguyên nhân và lỗi nội dung trùng lặp
4. Xuất hiện dấu vết hacking trong Weblog

Để giảm thiểu nguy hại từ SEO tiêu cực, quan trọng nhất là phải phát hiện ra sớm. Một khi đã nảy sinh vấn đề thì đã không còn cách nào giảm thiểu nó nữa. Ta có thể phát hiện được SEO tiêu cực bằng cách xác nhận thu nhập một cách chi tiết. Nếu tổn thất chỉ xuất hiện từ Google thì đó là một gợi ý quan trọng. Còn nếu do lỗi 500, lỗi 404 hoặc do URL bất thường trong log hoặc màn hình kết quả tìm kiếm thì chắc chắn trang web của bạn đã bị tấn công.

Tóm lại, trong thời gian ngắn không thể tìm được ngay ra cách để triệt hạ được SEO tiêu cực. Có những phát hiện liên đến SEO cũng có nội dung nhất định. Tuy vậy các thí nghiệm thành công của SEO hacker mũ đen cũng phải tạo ra nhiều lỗ hổng, để hạ bậc xếp hạng cần phải tạo ra bẫy, làm tổn hại đên traffic, gây tổn thất về thu nhập. Vì thế chỉ dùng các biện pháp thông thường thôi thì không thể phát hiện ra SEO tiêu cực được. Từ tấn công Slow Loris, parameter giả đến chèn link xấu, các thủ thuật xâm nhập Toolbox của SEO hacker mũ đen không chỉ có một. Vì thế cần thiết phải có nhiều phương pháp giám sát nguy cơ, phán đoán thành công của SEO đối với SEO mình đang quản lý. Để hạn chế rủi ro đến mức tối đa, bạn có thể áp dụng các biện pháp sau:

1. Người phụ trách hệ thống và người quản lý network phải có mối quan hệ mật thiết, cả hai phải hiểu được cách thức tìm hiểu các loại tấn công có thể xảy ra.
2. Nếu lỗi crawl và lỗi server có những hình thức bất thường thì phải kiểm chứng toàn bộ.
3. Phải sử dụng phân tích quan sát trong traffic có xuất hiện các parameter bất thường không.
4. Phải sử dụng tag cacnonical, tạo ra các URL chuẩn để tránh việc tạo..

Đánh giá: