Hiển thị các bài đăng có nhãn Blogger-co-ban. Hiển thị tất cả bài đăng
Hiển thị các bài đăng có nhãn Blogger-co-ban. Hiển thị tất cả bài đăng

02/08/2018

Danh sách mã code status (mã trạng thái HTTP)

Danh sách mã code status (mã trạng thái HTTP)

Khi truy cập 1 trang web nào đó thường xuyên bạn sẽ gặp một số vấn đề khi không truy cập được và nhận về các code status HTTP (mã phản hồi) mà trình duyệt nêu ra. 

Nếu không hiểu ý nghĩa của các mã trạng thái này bạn sẽ không hiểu nguyên nhân gì mà bạn không truy cập được.

Mã code status phổ biến nhất mà bạn thường thấy là 404 (không tìm thấy được trang mà bạn truy cập).. Vậy còn những mã phản hồi Http nào khác và ý nghĩa của các mã khác là như thế nào?

Ví dụ như: 200, 301, 302, 500 ???

Sau đây chúng ta sẽ cùng tìm hiểu ý nghĩa của các mã trạng thái HTTP này!


I. Ý Nghĩa Các HTTP Status Code Thông Dụng

Các HTTP status code có 3 chữ số mang một nhóm ý nghĩa nào đó để thông báo cho người dùng về vấn đề truy cập được và không truy cập được..

HTTP Status Code 1xx: Phản hồi thông tin

Các status code loại này dùng để đơn giản thông báo với client rằng server đã nhận được request. Thường thì bạn cũng không cần quan tâm mã này.

HTTP Status Code 2xx: Xử lí thành công

Các status code loại này có ý nghĩa rằng request được server nhận , hiểu và xử lý thành công.

Các request mang mã 200 là được server xử lí tốt.

HTTP Status Code  3xx: Chuyển Tiếp

Các status code loại này có ý nghĩa rằng server sẽ chuyển tiếp request hiện tại sang một request khác và client cần thực hiện việc gửi request tiếp theo đó để có thể hoàn tất. 
Thông thường khi trình duyệt nhận được status code loại này nó sẽ tự động thực hiện việc gửi request tiếp theo để lấy về kết quả.

HTTP Status Code  4xx: Lỗi Từ Phía Client (Người truy cập)

Các status code loại này có ý nghĩa rằng đã có lỗi từ phía client trong khi gửi request. Ví dụ như sai URL, sai HTTP method, không có quyền truy cập vào trang...

HTTP Status Code 5xx: Lỗi Từ Phía Server

Các status code loại này có ý nghĩa rằng server đã có lỗi từ phía server trong khi xử lý request. Ví dụ như databse chết hoặc server bị hết bộ nhớ...

Hãy "kiểm tra phần tử" xem trong phần "network" và kiểm tra các request nào trong website của bạn đang gặp trục trặc cần phải xử lí nhé!

II. Các Status Code thông dụng

Ở phần này chúng ta sẽ cùng nhau tham khảo các status code hay sử dụng khi xây dựng web service (hoặc sử dụng API).

2xx: Thành Công (Truy cập thành công)

Trong các HTTP status code thuộc loại 2xx thì 200 OK là status code thường được sử dụng nhiều. Các request được xử lý thành công bởi server thường sử dụng status là 200.

204 Không có nội dung: Máy chủ đã xử lý thành công yêu cầu và không trả lại bất kỳ nội dung nào

3xx: Chuyển Tiếp

Trong các HTTP status code thuộc loại 3xx thì có một vài loại thông dụng mà nhất là SEOer và các Webmaster Tools cần biết

  1. 301 Moved Permanently (Đã chuyển hướng vĩnh viễn sang trang mới chuyển luôn giá trị SEO)
  2. 302 Found (Chuyển hướng sang trang mới tạm thời cho người dùng xem, không chuyển giá trị SEO)

Do vậy khi thực hiện SEO nếu link/trang cũ bị lỗi thì bạn nên chuyển hướng 301 sang trang mới để giữ nguyên giá trị SEO.
Còn chuyển hướng 302 thường dùng khi bạn muốn nâng cấp website mà muốn người dùng của bạn có thể truy cập trang website tạm thời trên một hosting mới.

4xx: Lỗi Từ Phía Client (Lỗi từ người dùng)

Trong các HTTP status code thuộc loại 4xx thì 400 Bad Request, 401 Unauthorized, 403 Forbidden và 404 Not Found là status code thường được sử dụng nhiều.

Trong đó:
  • 400 có ý nghĩa rằng server đã nhận được request nhưng phía client đã gửi một request lỗi. Một trong số lỗi có thể kể đến như lỗi cú pháp như upload tập tin không đúng format hoặc quá lớn, hoặc thiếu dữ liệu cần thiết...
  • 401 có ý nghĩa rằng server đã nhận được request nhưng phía client không có quyền truy cập. Các request trả về status code 401 sẽ thay đổi nếu phía client thực hiện việc đăng nhập xác minh quyền.
  • 403 có ý nghĩa rằng server đã nhận được request nhưng từ chối việc xử lý request, truy cập bị cấm. Ví dụ cấm truy cập 1 file trong thư mục nào đó trong hosting đối với người dùng dù có được link.
  • 404 có ý nghĩa rằng server đã nhận được request nhưng không tìm thấy nội dung nào trả về với URL nhận được.

5xx: Lỗi Từ Phía Server (Lỗi từ Server/máy chủ)

Status code 500 là một status với ý nghĩa chung nói rằng server đã gặp phải lỗi khi xử lý request mà không đưa ra lý do cụ thể.

Trên đây bạn đã tham khảo các HTTP status code thường hay sử dụng nhất. Để tham khảo chi tiết tất cả các HTTP status code bạn có thể tham khảo địa chỉ này.

https://developer.mozilla.org/en-US/docs/Web/HTTP/Status

Kết luận:

Như vậy khi truy cập 1 website những request trả về các mã phản hồi (Status code) thì bạn có thể hiểu và xử lý chúng.


19/07/2018

Kinh nghiệm tối ưu ảnh trên iphone 6/7/8 trên Blogger

Kinh nghiệm tối ưu ảnh trên iphone 6/7/8 trên Blogger

Tối ưu ảnh là kỹ thuật gọi ảnh vừa với kích thước hiển thị ra ngoài màn hình, nhờ vào kĩ thuật này bạn sẽ gọi ra được ảnh có kích thước phù hợp vừa làm giảm dung lượng ảnh vừa giúp website tải nhanh hơn.

Vẫn là lời khuyên cũ. Trước khi sử dụng ảnh trên Website bạn phải nén ảnh lại trước khi up lên bằng:
  1. https://compressnow.com/ (với ảnh JPG)
  2. https://gifcompressor.com/vi/ (với ảnh GIF)
  3. https://compresspng.com/vi/ (với ảnh PNG)

Cách 1: Dùng Javascript để cắt ảnh vừa với kích thước hiển thị

Cách này thì thường áp dụng cho gọi bài viết theo nhãn, có sử dụng javascript

18/07/2018

Hướng dẫn thiết kế 2 giao diện (Mobile/Desktop) cho Blogger

Hướng dẫn thiết kế 2 giao diện (Mobile/Desktop) cho Blogger

Đối với Blogger khi truy cập trên thiết bị có độ phân giải màn hình từ 600px trở xuống sẽ chuyển ngay sang truy cập link trên mobile có dạng url.html?m=1

Đối với giao diện này các điều kiện trên mobile bắt đầu hoạt động.
<b:if cond='data:blog.isMobileRequest == &quot;true&quot;'><!-- nội dung muốn hiển thị trên di động --></b:if>

<b:if cond='data:blog.isMobileRequest == &quot;false&quot;'><!-- Nội dung không muốn hiển thị trên di động --></b:if>

Do vậy khi khi xem trên máy tính với kích thước màn hình lớn thì không thể nào tự chuyển sang url?m=1 được mà ta phải có button cho chuyển 2 chế độ. Sẽ được thêm ?m=1 vào cuối url.


Như cách mình làm thì ở chế độ Mobile sẽ tự động ẩn Sidebar-wrapper đi và để #main-wrapper{width:100%!important}

11/06/2018

Tối ưu SEO trang Label cho Blogger

Tối ưu SEO trang Label cho Blogger

SEO trang Label cho Blogspot vốn là yếu điểm trên nền tảng Blogger khi Google không có tùy chỉnh cho trang Label mà đơn thuần đây chỉ là trang lọc ra các bài viết cùng nhãn.

Để rõ hơn mình cho bạn 1 ví dụ như sau:

Ví dụ mình có 1 url trang Label:
https://www.toilaquantri.com/search/label/Blogger-co-ban

Trang nhãn Blogger có yếu điểm về SEO như sau:
  1. Không cho thêm tiêu đề tùy chỉnh
  2. Không cho thêm Meta Description
  3. Không cho thêm text mô tả
Cho nên ta thêm code khai báo thủ công vào từng trang nhãn
Trang Label chưa được tối ưu

Trang này không có chỗ viết tiêu đề và Meta Description để tối ưu SEO thì chúng ta sẽ làm thủ công như sau:

Code:
<b:if cond='data:blog.url == "https://www.toilaquantri.com/search/label/Blogger-co-ban"'>
<meta content='Viết đoạn meta Description' name='Description'/>
<h1 class='cssh1' style='color:#000;clear:both;width:100%'>Viết tiêu đề cho trang Nhãn</h1>
<p>Viết đoạn mô tả ngắn khoảng 3-5 dòng</p>
<p>Viết đoạn mô tả ngắn khoảng 3-5 dòng</p>
<p>Viết đoạn mô tả ngắn khoảng 3-5 dòng</p>
<p>Viết đoạn mô tả ngắn khoảng 3-5 dòng</p>
<p>Viết đoạn mô tả ngắn khoảng 3-5 dòng</p>
</b:if>
 Kết quả:
Thêm tiêu đề và mô tả để tăng tỉ lệ text và từ khóa

Sau đó kiểm tra trang nhãn bằng SeoQuake phần nào còn đỏ thì fix nốt.

20/04/2018

Fix lỗi trùng lặp nội dung, tiêu đề mô tả chuẩn trong Blogger

Fix lỗi trùng lặp nội dung, tiêu đề mô tả chuẩn trong Blogger

Blogger là nền tảng "Trùm" nổi tiếng về lỗi trùng lặp nội dung. Tức là 2 hay nhiều URL cùng nhận tiêu đề/ mô tả/ nội dung y như nhau và để cho Google Index.
Nếu khái niệm Canonical khai báo cho Google biết đâu là URL muốn index là link chính nhưng quá nhiều trang sinh ra như vậy thì ta dùng biện pháp chặn index các link còn lại mà không thể dùng Canonical được. Bạn có thể xem phương pháp này tại Fix lỗi trùng lặp nội dung bằng Canonical mà mình chia sẻ trước đó.
Hiện nay cụm từ "Trùng lặp nội dung" theo dân Viết Content và cách nhiều người hiểu là nội dung đi copy 100% của trang khác dẫn đến trùng nội dung, không Unique 100%. Xong ít ai biết trùng lặp nội dung còn tự trùng lặp trên chính trang web của mình.

lỗi trùng lặp nội dung, tiêu đề mô tả
lỗi trùng lặp nội dung, tiêu đề mô tả

25/03/2018

Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger

Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger

Như trong bài viết trước có hướng dẫn cho bạn 3 phương pháp submit link lên Google căn bản nhất. Bạn xem lại tại: https://www.toilaquantri.com/2016/11/3-cach-giup-noi-dung-cua-ban-nhanh-index-len-google.html

Nhưng trong bài này chúng ta sẽ làm việc submit là Sitemap.xml, Sitemap Atom và khai báo trong Robots.txt.
Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger
Hướng dẫn Submit Google Sitemap (xml và Atom) với nền tảng Blogger

20/03/2018

Khai báo siêu cấu trúc dữ liệu (Structure Data Schema): Áp dụng tất cả Website

Khai báo siêu cấu trúc dữ liệu (Structure Data Schema): Áp dụng tất cả Website

Công cụ kiểm trahttps://search.google.com/structured-data/testing-tool

Cấu trúc dữ liệu là các thành phần khai báo bố cục trang website để Google dễ dàng xác định đâu là Header, Body, Main, Siderbar, Footer cũng như cung cấp Profile (Liên kết tới các mạng xh), Khai báo dịch vụ, Sản phẩm, Bản đồ, kinh độ, vĩ độ, giờ đóng cửa mở cửa của cty....
  1. Nhờ vào cấu trúc này mà website sẽ trở nên thân thiện với anh Google
  2. Khi triển khai xong theo dõi trong Google Webmaster Tools
  3. Thực thế khi triển khai tất cả thứ hạng từ khóa thăng hạng tốt hơn, gia tăng traffic cao hơn.
Schema cho trang chủ

19/03/2018

Robots.txt chuẩn cho Blogger/Blogspot 2018

Robots.txt chuẩn cho Blogger/Blogspot 2018

Robots.txt là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào lên các máy chủ tìm kiếm.

Các con bọ tìm kiếm đều phải tuân thủ nội dung trong Robots.txt trước khi lập chỉ mục các nội dung trong website.

Việc thiết lập Robots.txt chuẩn cho công cụ lập chỉ mục (index) nhanh chóng hoặc index các nội dung không muốn cho lập chỉ mục.
Robot.txt chuẩn cho Blogspot 2018
Robots.txt chuẩn cho Blogspot 2018

Robots.txt mà Toilaquantri.com đang dùng

Bạn thay link https://www.toilaquantri.com/ ở các code bên dưới nhé!
Hoặc tham khảo robots.txt mà toilaquantri đang dùng tại https://toilaquantri.com/robots.txt

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=10
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500

Giải thích cách hoạt động của Robot.txt

  • User-agent: Mediapartners-Google
  • Disallow: //Mình chặn index các trang đối tác của Google (Google Adsense)
  • User-agent: * //Khai báo cho tất cả bộ máy tìm kiếm (SE)
  • Allow: /        //Cho phép đọc trang domain.com/ (Khác với domain.com không có / phía sau .com)
  • Disallow: /search* //Chặn trang tìm kiếm
  • Allow: /search  //Cho phép đọc trang bài viết mới
  • Disallow: *archive.html //Chặn index trang lưu trữ
  • Disallow: *?m=0 // chặn index trang có giá trị domain.com?m=0
  • Allow: /search/label/   //Cho phép index trang nhãn
  • Allow: *max-results=10 //Cho phép Index trang nhãn có max-results=10 (vì mình muốn như thế)
Dành cho các site không index các trang *max-results=*
Disallow: *max-results=*  // Chặn index đuôi max-results=10, max-results=20, max-results=xxx. Thường dùng cho code phân trang.

Riêng đối với Blogger sử dụng cấp dữ liệu qua atom và mỗi lần cấp là tối đa 500 bài nên ta mới khai báo sitemap: như sau

Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500
Sitemap: https://www.toilaquantri.com/p/map.html

Trong đó các link sau:

Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500

= Được khai báo trong Google Webmaster Tools

Sitemap: https://www.toilaquantri.com/p/map.html
Sitemap dành cho người dùng nhưng cũng khai báo link để Google (SE) vào đó đọc link cho nhanh.

Cách khai báo Robots.Txt

1. Cho phép dò và index toàn bộ trang và các thư mục, các file

Allow: /

2. Chặn không cho phép tất cả bot (SE) truy cập và index toàn bộ

Disallow: /

3. Chặn toàn bộ một thư mục và các file, thư mục con trong nó

Disallow: /abc/

4. Chặn một trang cố định

Disallow: /abc.html

5. Chặn một loại file cố định từ một bot của công cụ tìm kiếm

User-agent: Googlebot
Disallow: /*.doc$ (thay doc bằng jpg hoặc bất kì file nào muốn chặn)

6. Chặn một hình không cho Googlebot-Image index

User-agent: Googlebot-Image
Disallow: /abc/def.jpg

7. Chặn không cho một bot bất kì truy cập:

User-agent: Googlebot
Disallow: /

Lưu ý khi sử dụng và tạo file Robots.txt

  1. Phân biệt chữ hoa, chữ thường
  2. Không được viết thừa hoặc thiếu khoảng trắng
  3. Mỗi lệnh viết trên một dòng
  4. Không tự ý thêm các ký tự đặc biệt dễ gây nhầm lẫn cho bot
  5. Hết sức thận trọng khi sử dụng khi bạn chưa hiểu thường tận
  6. Kiểm tra thường xuyên file robots.txt