Thứ Năm, 15 tháng 8, 2013

5 công cụ Seo mà tôi mới update vào bộ sưu tập của mình?

Đến bây giờ, tôi cũng đã có 1 số bài post về các công cụ: 1 bài là "Doing a Site Audit Using Google Webmaster Tools" (thực hiện kiểm toán website bằng sử dụng Google Webmster Tools), ngoài ra còn có "8 Alternative Ways To Use Screaming Frog for SEO’’ (8 cách khác nhau để sử dụng Screaming Fog cho SEO), và gần đây nhất là "Simple Tools to Get More Done’’ (Các công cụ đơn giản giúp bạn thành công hơn). Và hôm nay tôi sẽ chỉ ra cho bạn 2 công cụ còn lại trong số 5 công cụ tôi ưa thích sử dụng:

Chart Inteligence Plugin (Plugin đồ thị thông minh)

Công cụ này được phát minh bởi Bridget Randolph trong quá trình ông ấy kiểm tra giúp 1 khách hàng xem có bị ảnh hưởng bởi bất kì update Panda nào không. Thông thường tôi chỉ sử dụng trang SEOmoz Google Algorithm Change History (lịch sử những thay đổi thuật toán Google của Seomoz) nhưng đã có quá nhiều update đến nỗi tôi cảm thấy vô cùng phiền phức khi phải chuyển qua chuyển lại giữa các cửa sổ để kiểm tra liên tục. Plugin này đồng nghĩa rằng với việc tôi sẽ không cần làm những điều đó nữa. Đó là 1 plugin dành cho Chrome và có thể được tìm thấy ở đây https://chrome.google.com/webstore/d...ajajceag?hl=en. Nó sẽ hiển thị tất cả các update của Google thông qua các dữ liệu trên Google Analytics. Dưới đây bạn có thể thấy những dữ liệu mẫu cùng với các update của Google:


chart-intelligence

Mũi tên màu đỏ chỉ vào biếu tượng mà hiển thị trong giao diện của nó khi plugin này đã được cài đặt. Click vào nó sẽ giúp bạn nhận thấy rất nhiều tùy chọn khác nhau, và ngoài tính năng hữu dụng nhất là giải quyết với các update của Google thì nó còn có thể được sử dụng để chỉ ra các ngày nghỉ lễ hay thậm chí là cả những dữ liệu riêng của bạn nếu bạn muốn.

chart-intelligence-2

Link Research Tools (công cụ nghiên cứu liên kết)

Nếu sau khi bạn sử dụng 1 công cụ nào đó giống như Chart Intelligence Plugin và bạn nhận thấy rằng website của bạn bị ảnh hưởng bởi penalty – ví dụ như update Penguin thì quá trình quyết định xem liên kết nào nên được loại bỏ có thể diễn ra chậm chạp và không chắc chắn. Để giải quyết tình trạng này thì gần đây tôi vẫn đã và đang sử dụng Link Reseach Tools. Để giải thích tất cả các tính năng của công cụ này thì có thể tốn cả 1 blog nhưng tôi chỉ cần dùng tới 1 tính năng đặc biệt đó là Link Detox. Với Link Detox, nó sẽ giúp bạn hiển thị tất cả các backlink hướng tới website của bạn trong 1 hồ sơ liên kết và chỉ ra cho bạn liên kết nào thì có khả năng là liên kết xấu.

Chúng sử dụng rất nhiều phương pháp để làm điều này nhưng cơ bản nhất là việc kiểm tra liệu 1 domain có được đánh chỉ mục hay không và trang đó có được xếp hạng ở PageRank hay không. Sau đó các liên kết này được phân loại theo 3 mức độc hại(Toxic), nghi ngờ(Suspicious) và tốt(Healthy). Kết quả đầu ra của công cụ này được hiển thị dưới đây:

Link-Detox-Summary

Không có 1 công cụ phân loại liên kết nào mà hoàn hảo như vậy , nó luôn luôn đưa ra những kết quả chính xác cho các liên kết độc hại. Nhưng với tôi, sự chắc chắn là trên hết nên tôi luôn nhập lại các liên kết độc hại này vào để kiểm tra lại lần nữa.

Rmoov

Bước tiếp theo là bạn sẽ phải loại bỏ càng nhiều liên kết độc hại cũng như các liên kết bị nghi ngờ càng tốt. Đây là 1 quá trình thủ công và rất tốn thời gian vậy nên tôi luôn cố gắng tìm ra những công cụ mà giúp tự động hoặc đẩy nhanh tốc độ cho nó. Nhờ Cyrus Shepard đã post 1 bài viết trên blog của anh ấy về cách làm sách liên kết dễ dàng nên tôi đã biết tới Rmoov.

Rmoov

Rmoove là 1 công cụ giúp quản lí toàn bộ quá trình làm sách liên kết. Từ việc gửi email tới các website có liên kết xấu tới bạn, ghi lại các câu trả lời từ họ tới việc thực hiện các yêu cầu để loại bỏ, hầu hết đều được tiến hành tự động. Khi bạn đã đăng kí sử dụng, bạn sẽ được hướng dẫn thực hiện tất cả các thiết lập để loại bỏ những liên kết bạn cho rằng độc hại hoặc nghi ngờ. Sau đó nó sẽ cố gắng liên lạc với những website sở hữu các liên kết này và thông báo cho bạn biết website nào nó không thể tìm thấy. Bước cuối cùng là nhập địa chỉ email của bạn vào và cho phép nó được gửi và nhận các email từ công cụ này. Sau khi tất cả các bước trên được thực hiện, chiến dịch của bạn sẽ bắt đầu. Một trong những đặc điểm tôi thấy thích nhất ở công cụ này là: nếu không có bất cứ phản hồi nào được nhận thấy trong khoảng thời gian cố định bạn đã chọn (tôi chọn 3 ngày) thì nó vẫn sẽ tự động gửi cho bạn 1 email. Kết quả có lẽ trông như này:

- 1 lượng lớn các địa chỉ email hoặc các website không có bất cứ phản hồi nào.
- 1 lượng nhỏ các website đồng ý loại bỏ các liên kết này.
- 1 lượng nhỏ website đồng ý loại bỏ các liên kết này nếu nhận được 1 khoản phí.

Tất cả thông tin này sẽ đi kèm cùng với các ghi chú về chủ thể và thời gian bạn đã gửi email cho và được lưu lại trong 1 file doc – thứ sẽ chứng cớ giúp bạn thực hiện các yêu cầu loại bỏ.

Deep Crawl (trình thu thập dữ liệu)

Khi nói đến việc thu thập dữ liệu website, tôi chính là 1 big fan của Screaming Fog nhưng gần đây do 1 nhược điểm là hiệu suất máy tính của tôi bị hạn chế nên tôi đã gặp khó khăn khi phải thu thập dữ liệu gần 100k trang. Và thật may mắn khi tôi tìm thấy DeepCrawl. Thật không công bằng khi cho rằng Screaming Fog kém hơn DeepCrawl bởi vì DeepCrawl là 1 công cụ khó sử dụng hơn nhiều.

DeepCrawl là 1 trình thu thập dữ liệu dựa trên phương pháp điện toán đám mây mà cho phép bạn thu thập dữ liệu hàng triệu trang mà không cần dùng tới sức mạnh xử lí của máy tính của bạn hoặc thậm chí là cả địa chỉ IP văn phòng của bạn nữa. Giao diện thì rất dễ sử dụng và điều tôi cảm thấy thích nhất ở nó là khả năng share các vấn đề tới cả thành viên trong văn phòng của tôi cũng như các đồng nghiệp khác ở mọi vị trí địa lí để cùng giải quyết. Ví dụ nếu tôi có 1 list các trang gặp lỗi 404 và nếu có 1 ai đó có thể sửa nó thì họ cần phải biết được các trang này được liên kết từ đâu tới. Với DeepCrawl tôi có thể dễ dàng copy và paste những liên kết này vào 1 bản báo cáo và những người khác không chỉ có thể nhìn thấy các trang gặp lỗi 404 này mà còn có thể click vào nó để biết được những trang này được liên kết từ đâu cùng 1 số thông tin khác nữa. Tôi cảm thấy rất hài lòng với nó.

Hỉnh ảnh dưới đây sẽ chỉ ra 1 bản báo cáo mẫu bạn sẽ nhận được sau 1 lần thu thập dữ liệu bằng DeepCrawl

deep-crawl

Scrapebox

scrapebox1

Tôi đã đề cập ngắn gọn tới Scrapebox trong bài post trước của tôi http://www.distilled.net/blog/seo/li...re-still-live/. Như tôi đã nói, ScrapeBox được xem là 1 công cụ spam nổi tiếng và nó có rất nhiều tính năng có thể giúp bạn thực hiện nhứng chiến thuật spam tuyệt vời nhưng tôi sẽ chỉ sử dụng 1 vài tính năng của nó. Tuy nhiên chừng đó cũng là đủ để tôi biết được rằng nó là 1 công cụ tiết kiệm rất nhiều thời gian hoàn hảo để phát hiện việc đánh chỉ mục và phạt penalty cho khách hàng của tôi. Tôi sẽ chỉ ra những tính năng mà tôi đã sử dụng ngay dưới đây:

1. Kiểm tra liệu xem các liên kết độc hại có còn tồn tại hay không

Trước, trong và sau 1 dự án loại bỏ liên kết bạn luôn muốn kiểm tra xem liệu các liên kết độc hại đã thực sự được loại bỏ hay nó vẫn còn tồn taij hay không. Thực hiện công việc này thủ công khá tốn thời gian nhưng bạn vẫn phải làm. Scrapebox có 1 plugin gọi là ‘’Do Follow Test’’. Nó cho pháp bạn tải 1 file văn bản cùng với các URL của những liên kết độc hại này mà bạn đang muốn kiểm tra. Sau đó bạn cần thêm domain của bạn vào nữa và nhấn START. Sau đó nó sẽ tiến hành kiếm tra từng URL của các liên kết và chỉ ra cho bạn liệu các liên kết đó còn tồn tại hay không và chúng đã được nofollow hay chưa. Bạn có thể nhìn thấy 1 ví dụ về điều này dưới đây:

scrapebox

2.Kiểm tra việc đánh chỉ mục và xếp hạng PageRank

Như tôi đã đề cập ngay phần đầu mục Link Research Tools, 2 trong số các kiểm tra cơ bản nhất là kiếm tra xem 1 liên kết có độc hại hay không và kiểm tra 1 domain có được đánh chỉ mục và giúp trang được xếp hạng tại Pagerank hay không. Và ScrapeBox có 1 tính năng thực hiện cả 2 kiểm tra này 1 cách nhanh chóng:

scrapebox2

Chỉ cần dán danh sách các URL cần kiểm tra vào hộp URLs và nhấn vào 1 trong những nút được hiển thị phía bên phải hình ảnh trên. Danh sách đầy đủ sẽ được xuất ra.

3. Sitemap Scraper

Tính năng cuối cùng tôi sử dụng ở ScraperBox là Sitemap Scraping Plugin. Sửu dụng tính năng này kết hợp với tính năng kiểm tra chỉ mục trên sẽ giúp bạn phát hiện được các vấn đề về định hướng và đánh chỉ mục của 1 website. Để sử dụng nó, chỉ cần paste vị trí của sơ đồ website của bạn vào hộp URLs sau đó download Sitemap Scraping Plugin từ thanh menu chọn. Khi bạn down xong và mở nó ra, bạn sẽ thấy 1 tùy chọn "import/export’’ ở phía cuối góc bên phải và click vào import. Sau đó đợi nó tải những URL của sơ đồ website bạn vừa paste vào bên trên và bạn có thể nhấn nút Start được rồi. Kết quả có lẽ sẽ trông thế này:

scrapebox3

Kết quả sẽ được xuất ra thành 1 tài liệu dạng văn bản và trong trường hợp của tôi là kết quả của quá trình kiểm tra xem tất cả các trang đã được đánh chỉ mục hay chưa. Để thực hiện điều này tôi nhấn vào "show extracted links’’ trong hộp URL , chọn tất cả và copy toàn bộ list URL.

Sau đó tôi sẽ quay lại ScrapeBox và paste lại toàn bộ list này vào hộp URL và nhấn vào ‘’Check indexed’’ và tôi sẽ nhận được 1 list tất cả các trang đã được đánh chỉ mục hay không được đánh chỉ mục, như những gì hiển thị dưới đây:

index-checker 
Bài viết của Craig Bradford (Distill...)

Không có nhận xét nào:

Đăng nhận xét