SEO là gì ?

Tối ưu hóa công cụ tìm kiếm (SEO) viết tắt của từ Search Engine Optimization là quá trình nâng cao thứ hạng của toàn website hoặc một trang của website trên công cụ tìm kiếm và nằm trong kết quả tìm kiếm tự nhiên. SEO có thể nhắm mục tiêu tìm kiếm bao gồm cả tìm kiếm hình ảnh, tìm kiếm địa phương, tìm kiếm video và tìm kiếm theo chiều dọc(vertical search).
Là một kênh marketing online chiến lược, SEO là cách xem xét cách vận hành của công cụ tìm kiếm và những gì mọi người tìm kiếm. Tối ưu hóa một trang web có thể bao gồm chỉnh sửa nội dung, HTML, phương thức lập trình để gia tăng sự liên quan của nó đến từ khóa cụ thể và để loại bỏ các rào cản đối với các hoạt động lập chỉ mục của công cụ tìm kiếm. Quảng bá một trang web để tăng số lượng backlinks , hoặc liên kết Inbound, là một chiến thuật SEO khác.
Tối ưu hóa công cụ tìm kiếm SEO có thể cung được cấp như một dịch vụ độc lập hoặc là một phần của một chiến dịch tiếp thị rộng hơn. Để làm SEO hiệu quả có thể phải thay đổi mã nguồn HTML của trang web nên SEO có thể được kết hợp từ lúc bắt đầu thiết kế và phát triển trang web. Thuật ngữ “thân thiện với công cụ tìm kiếm(friendly with search engine)” có thể được dùng để mô tả trong việc thiết kế trang web, các menu chính, hệ thống quản lý nội dung , hình ảnh, video, giỏ mua hàng , và các yếu tố khác đã được tối ưu hóa cho mục đích giúp với công cụ tìm kiếm dễ dàng tiếp xúc với website.
Một loại kỹ thuật khác của SEO, được gọi là SEO mũ đen hoặc spamdexing , sử dụng các phương pháp như link farm , nhồi từ khoá và copy nội dung làm suy giảm cả sự liên quan của kết quả tìm kiếm và kinh nghiệm người dùng công cụ tìm kiếm. Công cụ tìm kiếm sẽ loại bỏ các trang web có sử dụng các kỹ thuật này ra khỏi chỉ mục.
SEO web lên top
SEO là gì?

Lược sử

Webmaster và các nhà thiết kế bắt đầu tối ưu hóa các trang web cho công cụ tìm kiếm vào giữa những năm 1990 khi đó các công cụ tìm chủ yếu là liệt kê các danh mục. Ban đầu, tất cả các webmaster gửi địa chỉ của một trang, hoặc URL , đến các công cụ tìm kiếm khác nhau, các công cụ tìm kiếm sẽ gửi một “con nhện” (web spider) để thu thập thông tin của trang đó và trích xuất các liên kết đến các trang khác từ nó, các thông tin sẽ được lưu và tìm thấy trên công cụ tìm kiếm sau khi được lập chỉ mục . Quá trình liên quan bao gồm một spider của công cụ tìm kiếm tải một trang web và lưu trữ nó trên máy chủ riêng của công cụ tìm kiếm, kế tiếp một chương trình thứ hai được biết đến như là một indexer , chiết xuất các thông tin về trang web, chẳng hạn như những từ ngữ nó chứa, vị trí của các từ này, số lượng từ cụ thể, và tất cả các liên kết có trong trang, sau đó hệ thống tự động sẽ thiết lập thời gian để quay lại trang đó thu thập thêm các dữ liệu mới.
Chủ sở hữu trang web bắt đầu nhận thấy giá trị của việc trang web của họ được xếp hạng cao trong kết quả công cụ tìm kiếm, tạo ra một cơ hội cho cả hai “mũ trắng” và “mũ đen” hành nghề SEO. Theo nhà phân tích ngành công nghiệp Danny Sullivan , cụm từ “tối ưu hóa công cụ tìm kiếm” được đưa vào sử dụng vào năm 1997.
Những phiên bản đầu tiên của công cụ tìm kiếm sử dụng các thuật toán mà chủ yếu dựa vào webmaster cung cấp thông tin như các từ khoá của thẻ meta , hoặc tập tin chỉ mục trong các công cụ như ALIWEB . Thẻ Meta cung cấp một tài liệu hướng dẫn cho từng nội dung của trang. Dần dần thông tin dữ liệu các trang có trong chỉ mục được tìm thấy ít đáng tin cậy hơn, vì webmaster dùng rất nhiều các từ khóa trong thẻ meta và có nhiều từ khóa không thể hiện chính xác nội dung của một trang được tìm thấy. Sự không chính xác, không đầy đủ, và dữ liệu không nhất quán trong các thẻ meta và các trang đã gây ra xáo trộn, tạo ra các trang có xếp hạng cao trong các máy tìm kiếm nhưng nội dung không liên quan. Nội dung web cũng bị chế tác một số thuộc tính trong mã nguồn HTML cố gắng để xếp hạng tốt trong công cụ tìm kiếm.
Bằng cách dựa quá nhiều vào các yếu tố như mật độ từ khóa được độc quyền trong vòng kiểm soát của một webmaster, công cụ tìm kiếm bắt đầu bị lạm dụng và thao tác xếp hạng. Để cung cấp kết quả tốt hơn cho người sử dụng, công cụ tìm kiếm đã phải thích ứng để đảm bảo các trang kết quả cho ra các kết quả tìm kiếm có liên quan nhất, hơn là các trang không liên quan với nhiều từ khoá được nhồi nhét bởi webmaster. Khi mà sự thành công và phổ biến của một công cụ tìm kiếm được xác định bởi khả năng cho ra các kết quả có liên quan nhất cho bất kỳ tìm kiếm nào, và việc cho ra những kết quả sai sẽ khiến người dùng chuyển sang các nguồn tìm kiếm khác. Công cụ tìm kiếm phản ứng bằng cách phát triển phức tạp hơn các thuật toán xếp hạng, có tính đến các yếu tố bổ sung khác đã khó khăn hơn cho các webmaster trong việc thao túng thứ hạng website.
Là sinh viên ở Đại học Stanford , Larry Page và Sergey Brin đã phát triển “backrub”, một công cụ tìm kiếm dựa trên thuật toán toán học để đánh giá độ nổi trội của các trang web. Số lượng tính bằng thuật toán được gọi là PageRank , là một chức năng tính số lượng và sức mạnh của các liên kết Inbound . PageRank ước lượng khả năng một trang web nào đó có thể được xuất hiện người nhiên ngẫu trước một người dùng khi lướt web, và cho phép các liên kết từ một trang này đến trang khác được tìm thấy. Trong thực tế, điều này có nghĩa rằng một số liên kết mạnh hơn những liên kết khác, cũng như là một trang PageRank cao hơn sẽ có nhiều khả năng được người dùng tìm thấy cao hơn.
Page và Brin thành lập Google vào năm 1998. Google đã thu hút một lượng lớn người dùng Internet ngày càng tăng, những người thích thiết kế đơn giản của nó. Các yếu tố ngoài trang “off page” (như PageRank và phân tích siêu liên kết) cũng như các yếu tố trên trang “on page” (như tần xuất từ khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) cho phép Google tránh những loại thao tác thường thấy trong các công cụ tìm kiếm mà chỉ xem xét các yếu tố trên trang cho thứ hạng của họ. Mặc dù PageRank là khó chơi hơn, các webmater đã phát triển các công cụ liên kết và sự sắp đặt có hệ thống và đã gây ảnh hưởng đến công cụ tìm kiếm Inktomi, và những phương pháp này tỏ ra có thể áp dụng tương tự đối với PageRank. Nhiều trang web tập trung vào việc trao đổi, mua và bán hàng ngàn liên kết thường xuyên trên một quy mô lớn. Trong số này bao gồm việc lập ra một hệ thống website, hoặc các trang trại liên kết , liên quan đến việc tạo ra hàng ngàn các trang web cho mục đích duy nhất là liên kết rác .
Đến năm 2004, công cụ tìm kiếm đã kết hợp một loạt các yếu tố không được tiết lộ trong các thuật toán xếp hạng của mình để giảm tác động của các thao tác liên kết. Google cho biết họ sử dụng hơn 200 tín hiệu khác nhau để xác định thứ hạng của một website. Các công cụ tìm kiếm hàng đầu, Google và Yahoo , không tiết lộ các thuật toán họ dùng để xếp hạng các trang. Những nhà cung cấp dịch vụ SEO, như Rand Fishkin, Barry Schwartz , Aaron Wall và Jill Whalen , đã nghiên cứu các cách tiếp cận khác nhau để tìm kiếm cách tối ưu hóa website, và đã công bố ý kiến của mình trên nhiều diễn đàn và blog . Các học viên SEO cũng có thể tham gia các khóa học đươc tổ chức bởi công cụ tìm kiếm để đạt được cái nhìn sâu sắc trong các thuật toán.
Năm 2005, Google bắt đầu cá nhân hoá kết quả tìm kiếm cho mỗi người dùng. Tùy thuộc vào lịch sử của họ tìm kiếm trước đây, Google lưu lại kết quả cho người sử dụng đăng nhập tài Google. Năm 2008, Bruce Clay nói rằng “xếp hạng là chết” vì tìm kiếm được cá nhân hoá. Nó sẽ trở thành vô nghĩa để thảo luận làm thế nào một trang web xếp hạng, bởi vì thứ hạng của nó có khả năng sẽ khác nhau cho mỗi người dùng và mỗi tìm kiếm.
Trong năm 2007 Google đã công bố một chiến dịch chống lại các liên kết trả tiền để tăng PageRank. Ngày 15 tháng sáu 2009, Google công bố rằng họ đã thực hiện các biện pháp để giảm thiểu những ảnh hưởng của PageRank áp dụng bằng việc sử dụng thuộc tính nofollow trên các liên kết. Matt Cutts , một kỹ sư phần mềm nổi tiếng tại Google, thông báo rằng Google Bot sẽ không còn nhận định liên kết nofollowed theo cùng một cách. Để đáp lại điều trên các nhà cung cấp dịch vụ SEO đã nghĩ ra một thủ thuật khác nhằm thay thế nofollow tag bằng obfuscated Javascript và cho phép PageRank được tính. Ngoài ra một số giải pháp đã được đề xuất bao gồm việc sử dụng iframes , Flash và Javascript.
Tháng 12 năm 2009 Google đã công bố sẽ sử dụng lịch sử tìm kiếm web của mọi người sử dụng để cho ra kết quả tìm kiếm. Tìm kiếm thời gian thực được giới thiệu vào cuối năm 2009 trong một nỗ lực để làm cho kết quả tìm kiếm kịp thời và có liên quan. Với sự phát triển của mạng xã hội và blog, các công cụ tìm kiếm hàng đầu đã thay đổi thuật toán của họ để cho phép nội dung mới được xếp hạng một cách nhanh chóng trong kết quả tìm kiếm. Cách tiếp cận này tạo ra một tầm quan trọng đối trong việc tạo ra nội dung mới và độc nhất