KHÁM PHÁ BÀI VIẾT MỚI NHẤT TRÊN BLOG

Các bài viết sau có thể hữu ích cho tìm kiếm của bạn!

Hiển thị bài đăng được sắp xếp theo mức độ liên quan cho truy vấn robots.txt. Sắp xếp theo ngày Hiển thị tất cả bài đăng
Hiển thị bài đăng được sắp xếp theo mức độ liên quan cho truy vấn robots.txt. Sắp xếp theo ngày Hiển thị tất cả bài đăng

Robots.txt chuẩn cho Blogger/Blogspot 2018

Robots.txt là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào lên các máy chủ tìm kiếm.

Các con bọ tìm kiếm đều phải tuân thủ nội dung trong Robots.txt trước khi lập chỉ mục các nội dung trong website.

Việc thiết lập Robots.txt chuẩn cho công cụ lập chỉ mục (index) nhanh chóng hoặc index các nội dung không muốn cho lập chỉ mục.
Robot.txt chuẩn cho Blogspot 2018
Robots.txt chuẩn cho Blogspot 2018

Robots.txt mà Toilaquantri.com đang dùng

Bạn thay link https://www.toilaquantri.com/ ở các code bên dưới nhé!
Hoặc tham khảo robots.txt mà toilaquantri đang dùng tại https://toilaquantri.com/robots.txt

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=10
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500

Giải thích cách hoạt động của Robot.txt

  • User-agent: Mediapartners-Google
  • Disallow: //Mình chặn index các trang đối tác của Google (Google Adsense)
  • User-agent: * //Khai báo cho tất cả bộ máy tìm kiếm (SE)
  • Allow: /        //Cho phép đọc trang domain.com/ (Khác với domain.com không có / phía sau .com)
  • Disallow: /search* //Chặn trang tìm kiếm
  • Allow: /search  //Cho phép đọc trang bài viết mới
  • Disallow: *archive.html //Chặn index trang lưu trữ
  • Disallow: *?m=0 // chặn index trang có giá trị domain.com?m=0
  • Allow: /search/label/   //Cho phép index trang nhãn
  • Allow: *max-results=10 //Cho phép Index trang nhãn có max-results=10 (vì mình muốn như thế)
Dành cho các site không index các trang *max-results=*
Disallow: *max-results=*  // Chặn index đuôi max-results=10, max-results=20, max-results=xxx. Thường dùng cho code phân trang.

Riêng đối với Blogger sử dụng cấp dữ liệu qua atom và mỗi lần cấp là tối đa 500 bài nên ta mới khai báo sitemap: như sau

Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500
Sitemap: https://www.toilaquantri.com/p/map.html

Trong đó các link sau:

Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500

= Được khai báo trong Google Webmaster Tools

Sitemap: https://www.toilaquantri.com/p/map.html
Sitemap dành cho người dùng nhưng cũng khai báo link để Google (SE) vào đó đọc link cho nhanh.

Cách khai báo Robots.Txt

1. Cho phép dò và index toàn bộ trang và các thư mục, các file

Allow: /

2. Chặn không cho phép tất cả bot (SE) truy cập và index toàn bộ

Disallow: /

3. Chặn toàn bộ một thư mục và các file, thư mục con trong nó

Disallow: /abc/

4. Chặn một trang cố định

Disallow: /abc.html

5. Chặn một loại file cố định từ một bot của công cụ tìm kiếm

User-agent: Googlebot
Disallow: /*.doc$ (thay doc bằng jpg hoặc bất kì file nào muốn chặn)

6. Chặn một hình không cho Googlebot-Image index

User-agent: Googlebot-Image
Disallow: /abc/def.jpg

7. Chặn không cho một bot bất kì truy cập:

User-agent: Googlebot
Disallow: /

Lưu ý khi sử dụng và tạo file Robots.txt

  1. Phân biệt chữ hoa, chữ thường
  2. Không được viết thừa hoặc thiếu khoảng trắng
  3. Mỗi lệnh viết trên một dòng
  4. Không tự ý thêm các ký tự đặc biệt dễ gây nhầm lẫn cho bot
  5. Hết sức thận trọng khi sử dụng khi bạn chưa hiểu thường tận
  6. Kiểm tra thường xuyên file robots.txt

Hướng dẫn cài đặt Robots.txt tối ưu dành riêng cho Template TinhDauOnline

Vào phần Cài đặt -> Tùy chọn tìm kiếm.

1. Phần Robots.txt tùy chỉnh.

Bạn bật và dán đoạn code robot.txt bên dưới vào. Robots.txt được tối ưu dành riêng cho template TinhDauOnline Premium

Thêm code bên dưới vào ô robots.txt

Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger

Như trong bài viết trước có hướng dẫn cho bạn 3 phương pháp submit link lên Google căn bản nhất. Bạn xem lại tại: https://www.toilaquantri.com/2016/11/3-cach-giup-noi-dung-cua-ban-nhanh-index-len-google.html

Nhưng trong bài này chúng ta sẽ làm việc submit là Sitemap.xml, Sitemap Atom và khai báo trong Robots.txt.
Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger
Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger

Tối ưu Trùng Lặp Nội Dung - Seo Audit #3

Trùng lặp nội dung là hiện tượng Google Index nhiều trang trên một Website có nội dung giống nhau hoặc trùng phần lớn nội dung.

Qua tìm hiểu thì trùng nội dung này xuất hiện là do phần lớn bạn không am hiểu đến nền tảng Website mà bạn đang sử dụng nên sử dụng các hàm gọi tiêu đề (tiêu đề website, tiêu đề bài viết)/ mô tả (meta description).. y chang nhau ở nhiều trang mà không phân điều kiện hiển thị ở từng trang...

Một phần nữa là phân trang, hay sắp xếp nội dung thông qua các tham số xuất hiện trong URL nên tự động sản sinh ra URL mới được Google cập nhật.

Trùng lặp nội dung phổ biến nhất (hầu hết mọi nền tảng)

  1. Trùng lặp tiêu đề/mô tả trên các phân trang tin tức (lỗi phổ biến nhất xuất hiện hầu hết các nền tảng)
  2. Trùng lặp nội dung trên các trang Catelogy/Label
  3. Tham số url sinh ra để lọc và sắp xếp nội dung
Chủ yếu loanh quanh về Tiêu đề và Mô tả Meta Description.

Hiện trượng trùng tiêu đề Mô tả tại các phân trang thuộc trường hợp 1

Giải đáp 99 thuật ngữ SEO mới nhất 2017

SEO
Cẩm nang SEO kiến thức SEO, thuật ngữ về SEO cho người mới bắt đầu - by Huỳnh Phụng Blogger
Nhằm có một kiến thức tổng quan nhất về SEO tôi sẽ 99 thuật ngữ, thắc mắc, cũng như các câu hỏi liên quan thường gặp nhất khi làm SEO bằng kinh nghiệm cá nhân.

Bài viết không chỉ đơn thuần nêu ra ý nghĩa các thuật ngữ trong SEO mà đồng thời có trích dẫn ở các bài viết khác

  • Gần 90% người dùng internet hiện đang dùng Google làm công cụ tìm kiếm chính nên mặc định bạn thường sẽ nghe là SEO Google. Khoảng 85-90% người dùng chỉ đọc các bài viết nằm trong trang nhất kết quả tìm kiếm của Google (4 vị trí trên cùng của Adwords, 10 vị trí của SEO và 3 vị trí Adwords dưới cùng) do vậy bạn thường nghe đến SEO top 10 vì không nằm ở trang nhất thì bạn đã bỏ qua đến 90% khách hàng tiềm năng.
  • Nhờ các kỹ thuật tối ưu công cụ tìm kiếm (SEO) này sẽ giúp đẩy thứ hạng từ khóa lên cao tiếp cận với người người dùng.
  • Ngoài ra còn có một số công cụ tìm kiếm khác như: Bing (Microsoft)Cốc cốc Search (Cốc cốc)Yahoo (Yahoo Inc), Asked
99 thuật ngữ SEO mới nhất 2017
99 thuật ngữ SEO mới nhất 2017

Fix lỗi trùng lặp nội dung, tiêu đề mô tả chuẩn trong Blogger

Blogger là nền tảng "Trùm" nổi tiếng về lỗi trùng lặp nội dung. Tức là 2 hay nhiều URL cùng nhận tiêu đề/ mô tả/ nội dung y như nhau và để cho Google Index.
Nếu khái niệm Canonical khai báo cho Google biết đâu là URL muốn index là link chính nhưng quá nhiều trang sinh ra như vậy thì ta dùng biện pháp chặn index các link còn lại mà không thể dùng Canonical được. Bạn có thể xem phương pháp này tại Fix lỗi trùng lặp nội dung bằng Canonical mà mình chia sẻ trước đó.
Hiện nay cụm từ "Trùng lặp nội dung" theo dân Viết Content và cách nhiều người hiểu là nội dung đi copy 100% của trang khác dẫn đến trùng nội dung, không Unique 100%. Xong ít ai biết trùng lặp nội dung còn tự trùng lặp trên chính trang web của mình.

lỗi trùng lặp nội dung, tiêu đề mô tả
lỗi trùng lặp nội dung, tiêu đề mô tả

22 tiêu chuẩn SEO Onpage, 7 tiêu chuẩn SEO Website, 6 việc trong SEO Audit

Căn cứ vào Plugin SEO Quake đề xuất 22 tiêu chuẩn để đánh giá 1 Page chuẩn SEO. Dưới đây chúng ta liệt kê 22 tiêu chuẩn này.
Và bonus thêm:
7 tiêu chuẩn chuẩn_SEO dành riêng cho Website chủ yếu đánh vào tốc độ tải trang và content.
6 công việc quan trọng trong SEO Audit đối với Webmaster/Admin web.


22 tiêu chuẩn SEO Onpage
22 tiêu chuẩn SEO Onpage

Xử lý trùng nội dung phân trang bằng Tham số URL

Giả sử mình có 29 bài viết thuộc Label/Catelogy về "Kinh Nghiệm SEO". Lúc đó mình phân mỗi trang hiển thị 10 bài viết.
Cấu trúc link phân nội dung nâng cao
Cấu trúc link phân nội dung nâng cao

Link phân trang muốn SEO: https://www.toilaquantri.com/search/label/Kinh%20Nghiệm%20SEO?&max-results=10

Đối với Website của mình sử dụng nền tảng Blogger nên sẽ có cấu trúc phân trang với
1. Tham số max-results 
2. Giá trị là 10 // Nghĩa là mỗi phân trang hiển thị 10 bài viết
  • Trang 1: Bài 1-10 sẽ có cấu trúc phân trang như sau
Cấu trúc link Trang 1: https://www.toilaquantri.com/search/label/Kinh%20Nghiệm%20SEO?&max-results=10

  • Trang 2: Bài 11-20 sẽ có cấu trúc phân trang như sau
Cấu trúc link Trang 2: 

Blogger sử dụng nên tảng là blog theo timeline nên cấu trúc link luôn gắng thêm thời gian nên ta thấy cả link bài viết và link phân trang sẽ chứa thêm thời gian (/năm/tháng..). Điều này chưa phù hợp với với SEO hiện đại.

Mục tiêu khi thực hiện phương pháp này:
  1. Mục đích 1 là SEO URL của phân trang 1. Dùng tiếp trang 2 và trang 3 làm Trust Page để hỗ trợ cho trang 1.
  2. Việc này còn nhằm khai báo cho Google hiểu là Trang 2 và Trang 3 là phân trang của Trang 1. Và nội dung ở Phân Trang 2, 3 sẽ hỗ trợ SEO cho phân trang 1
  3. Mục đích thứ 3 là để cho Google không đánh nhầm 3 URL trên trùng Tiêu đề với Mô tả.

Có 4 giải pháp xử lý ở phân trang

1. Dùng Canonical (Biết code) (xem thêm về: Canonical)
2. Dùng Cấu hình tham số URL phân trang trong Search Console (Khuyên dùng)
3. Dùng rel='Next' cho phân trang tiếp theo và rel='Prev' cho phân trang trước (Biết code)
4. Chặn index trong Robots.txt các phân trang từ 2 trở đi (Khi bạn không quan tâm đến việc SEO dành cho trang tin tức thôi): WP thì thêm: disallow: */page trong robots.txt

Bản thân mình dùng kết hợp cả 3 phương pháp đầu tiên là Canonical, Cấu hình tham số Url và thẻ Rel="next", Rel="prev" ở phân trang luôn. Tuy nhiên bạn dùng cho mình phương pháp 3 là được rồi.

Google đã có hướng dẫn cụ thể ở đường link sau:
>> Xem thêm từ Google: https://support.google.com/webmasters/answer/6080550?hl=vi 
Trước đây mình áp dụng phương pháp chặn hết Index trong các phân trang ở các Label, trang Lưu trữ và phân trang bài viết mới cho nhẹ đầu. Vì thực ra Blogger rất yếu phần này nên chả cần SEO đâu. Nên gần đây mình thực sự chú ý thêm phân trang và tối ưu thêm nó xem có kết quả khả thi không?. Hy vọng rằng các Label này sẽ có hỗ trợ SEO cho SEO bài viết vốn rất mạnh trên Blogger.
Đối với Wordpress thì bạn cần nghiên cứu kĩ phần này nhé. Sẽ có nhiều Plugin hỗ trợ việc này nhưng khi nghiên cứu sâu về Wordpress mình sẽ có 1 bài chi tiết về xử lý trùng lặp nội dung ở tất cả các trang.

Lưu ý trước khi áp dụng Tham số URL

  1. Hãy chắc chắn là bạn hiểu cấu trúc phân trang trong Website của bạn
  2. Đối với phân trang tin tức ta dùng Sắp xếp nhé thay vì dạng phân trang. Vì phân trang được Google giải thích là áp dụng cho bài viết dài mà phân trang ra từng phần nhỏ.
  3. Đối với phân trang khác bạn nghiên cứu dạng Thu hẹp, Phân trang, Chỉ định...vv Thường dành cho web có tính năng lọc sản phẩm theo màu sắc, giá bán, cấu hình..vv. Vận dụng trên Web bán điện thoại máy tính, Quần áo..vv
  4. Khi áp dụng thì đảm bảo tất cả phân trang đều phải được Google Index thì mới chuyển độ trust cho phân trang chính. Khác với cách chặn hết index của phân trang 2 trở đi trề tránh trùng lặp (khác nhau về SEO là nằm ở đây)
  5. Áp dụng khi bạn muốn đẩy mạnh SEO cho trang tin tức. Nhưng khi áp dụng phương pháp này cần áp dụng trang Tin tức là là một Web con thay vì chỉ phân trang theo Label hoặc Catelogy hay Phân trang tin tức chung chung đơn thuần -> Tham khảo cách làm của TGDD tại đây
Thực hiện:

Xử lý trùng lặp nội dung bằng cấu hình tham số URL

Truy cập Search Console -> Thu thập dữ liệu -> Tham số URL

Bước 1: Xác định tham số phân trang của Website bạn

  1. Ở Wordpress thường là Page
  2. Ở Blogger thường là PageNo hoặc Max-results
Thường thì các tham số Google phát hiện được nên sẽ liệt kê trong Search Console và là sẽ để tự động cho Google Bot tự quyết định. 

Xong ta cần thiết lập lại cho chính xác luôn. Nếu Google chưa thu thập được tham số URL trong website của bạn thì ta sẽ thêm tham số mới.

Dưới đây là ví dụ Google phát hiện ra rất nhiều tham số trong Url và cần mình định nghĩa để cho Google biết khi cái giá trị của tham số thay đổi.

Xác định tham số URL
Xác định tham số URL

Bước 2: Xác định giá trị của tham số

Phần này mình phân vân khi lựa chọn. Ở đây mình chọn mọi URL là nhằm cho Google index tất cả URL có tham số max-results để những URL đó mang Trust Google về Page 1.
  1. Nếu muốn an toàn bạn để 10 với Blogger tham số max-results
  2. Hoặc tham số Page với Wordpress giá trị mọi URL (Chỉ dùng cho tham số phân trang tin tức thôi nhé)
Thiết lập tham số URL
Thiết lập tham số URL

Còn về phương pháp dùng Canonical chắc là qua quen thuộc rồi nhưng mình sẽ nói thêm về Rel='next' và Rel='Prev'. Mình chỉ mô tả bằng hình ảnh là các bạn tự hiểu nhé

rel next và rel prev
Xử lý phân trang bằng Rel='next' rel='prev'

Nếu website của bạn có chứa một nội dung lớn và tình trang trùng lặp nội dung nặng nề nhất là web code tay thì có thể liên hệ với tôi qua 0932.913.631 sẽ có cách khắc phục triệt để xử lí linh hoạt, mỗi trang có nhiều phương pháp khác nhau chứ không chỉ riêng những phương pháp này!

Phần này có thể ảnh hưởng đến 30-40% kiến trúc SEO của website của bạn đấy và hãy quan tâm nó đặc biệt nhé!

Template bán hàng Blogger TinhDauOnline Premium 2019

Name template: TinhDauOnline Premium Template Blogger (https)
  • Phiên bản: 6.6 (cập nhật lần cuối vào 2/3/2018)
  • Loại template: Bán hàng / Blogger (Không dùng cho Wordpress)
  • Designed by: https://www.toilaquantri.com
  • Phí: (350K) còn 250k (Vẫn chưa tăng giá)
  • Liên hệ để sở hữu: 0932.913.631
  • Giao diện Demo: https://www.tinhdauonline.com.vn (Bản gốc mới nhất)
Giao diện tinhdauonline V6.2

[Chia sẻ] Quy trình SEO Audit 2018 (by Huỳnh Phụng Blogger)

Quy trình SEO Audit này sẽ hướng dẫn bạn các làm SEO theo hướng mới từ năm 2018.
Đây là phiên bản rút gọn trong SEO Audit thiên hướng về SEO tổng thể, còn các kỹ thuật tối ưu SEO Audit bạn theo dõi trong file để check list các mục cần tối ưu.


Xem trong file SEO Audit
Quy tình SEO Audit 2018

Danh sách các bước trong Quy trình SEO Audit 2018

Chúng tôi sẽ tiếp tục cập nhật thêm thông tin

#9 Làm sao để biết bài viết chuẩn SEO với SEOquake

Bài viết chuẩn SEO về mặt cơ bản có nhiều yếu tố để đánh giá. 
Trước tiên là tiêu đề bài viết phải chứa từ khóa, từ khóa ở đây là người dùng tìm kiếm ở Google.com nếu những từ tìm kiếm đó giống với tiêu đề hoặc giống với nội dung có trong bài viết thì sẽ được Google đề xuất.
bài viết có chuẩn SEO
bài viết chuẩn seo
Nếu bạn chưa biết tiêu chí nào để xác định một bài viết chuẩn SEO hơn nữa thì mình đã chia sẻ trong 2 bài viết này: