Tối ưu hóa tìm kiếm bằng AI đã trở thành một ngành công nghiệp trị giá hàng tỷ đô la. Các nhà đầu tư mạo hiểm đang đổ tiền vào vô số công ty khởi nghiệp hứa hẹn tăng cường khả năng hiển thị thương hiệu, trong khi các nhà tư vấn bán dịch vụ của họ với mức giá cao. Nhưng giữa sự ồn ào này, ngày càng khó phân biệt giữa các chiến lược thực sự hiệu quả và những chiêu trò quảng cáo đơn thuần.
Là một nhà tư vấn tăng trưởng độc lập chuyên giúp các doanh nghiệp nâng cao khả năng hiển thị thương hiệu thông qua các kênh lưu lượng truy cập tự nhiên (bao gồm cả tìm kiếm truyền thống và tìm kiếm AI), tôi liên tục thử nghiệm, kiểm tra và chứng kiến những gì thực sự hiệu quả cũng như những gì chỉ là chiêu trò. Và thị trường thực sự tràn ngập thông tin sai lệch.
Bài viết này sẽ làm sáng tỏ bốn quan niệm sai lầm cốt lõi về tối ưu hóa tìm kiếm bằng AI, giúp bạn tập trung năng lượng vào những gì thực sự quan trọng thay vì lãng phí thời gian vào các hành động vô nghĩa.
Khi mọi người nói "ChatGPT đã giết chết SEO", họ thực sự muốn nói rằng ChatGPT đã giết chết tìm kiếm Google, chứ không phải bản thân SEO. Hãy nhớ rằng, SEO là viết tắt của "Search Engine Optimization" (Tối ưu hóa Công cụ Tìm kiếm) và không đề cập đến một công cụ tìm kiếm cụ thể nào. Tuy nhiên, bởi vì SEO từ lâu đã gắn liền với Google và các tiêu đề như "SEO đã chết" thực sự thu hút sự chú ý hơn, nên quan niệm sai lầm này đã lan truyền kể từ khi ChatGPT ra mắt.
Trên thực tế, dữ liệu cho thấy điều hoàn toàn ngược lại. Một nghiên cứu của Semrush về 260 tỷ dòng dữ liệu phân tích từ tháng 1 năm 2024 đến tháng 6 năm 2025 đã chỉ ra rằng: các công cụ tìm kiếm như ChatGPT không giết chết tìm kiếm Google mà đang mở rộng nó. Sự phổ biến của ChatGPT không chỉ không làm giảm lượng sử dụng tìm kiếm Google mà còn tăng nhẹ.
Một nghiên cứu khác của Ahrefs cho thấy Google vẫn chiếm gần 90% thị phần trong lĩnh vực tìm kiếm có sự hỗ trợ của AI. Vì các "AI Overviews" của Google (tóm tắt AI) vẫn trích xuất thông tin từ các trang xếp hạng cao của Google, nên đây là thời điểm tốt nhất để duy trì hoặc thậm chí tăng cường đầu tư vào SEO truyền thống.
Các nhà phê bình có thể nói: "Được rồi, ChatGPT chưa giết chết Google lúc này, nhưng chỉ là vấn đề thời gian cho đến khi nhiều người sử dụng nó để tìm kiếm hơn." Cốt lõi của quan điểm này là quan niệm sai lầm tiếp theo mà chúng ta sẽ thảo luận.
Bạn đã nghe bao nhiêu lần trên mạng xã hội, bài viết blog, video YouTube hoặc từ đồng nghiệp: "Nếu bạn không thích ứng với cách làm SEO mới, bạn sẽ bị bỏ lại phía sau"? Tôi muốn nói với bạn rằng cái gọi là "cách làm SEO mới" thực chất chỉ là sự trở lại các nguyên tắc cơ bản của SEO - có thể gọi đó là sự "phục hưng của SEO cổ điển".
Nếu bạn tin vào lời nói của hầu hết mọi người trên internet, bạn sẽ nghĩ rằng mức độ chồng chéo giữa SEO Google và SEO AI rất thấp. Nhưng dựa trên kinh nghiệm thực tế và dữ liệu hiện có, sự thật là: SEO hầu như bao gồm hoàn toàn SEO AI.
Sự nhầm lẫn này xuất phát một phần từ việc mọi người coi ChatGPT như một hộp đen bí ẩn, với phương thức thu thập và lập chỉ mục dữ liệu web độc đáo của riêng nó, hoàn toàn độc lập với một phương pháp bí mật nào đó của Google. Điều này tự nhiên khiến mọi người nghĩ rằng cần phải tối ưu hóa cho phương thức thu thập thông tin của ChatGPT.
Tuy nhiên, nhiều thử nghiệm cho thấy các trợ lý AI gần như hoàn toàn dựa vào hệ thống chỉ mục truyền thống hiện có. Các thử nghiệm không thể chối cãi của Lee từ Backlinko đã chứng minh rằng ChatGPT trực tiếp sử dụng chỉ mục của Google. Trong khi đó, Claude sử dụng chỉ mục của Brave Search – một giải pháp thay thế Google chú trọng quyền riêng tư hơn – để truy xuất và trình bày dữ liệu.
Theo hiểu biết của tôi, công ty AI duy nhất hiện đang xây dựng chỉ mục web nội bộ của riêng mình là Perplexity. Ngay cả như vậy, kết quả của họ vẫn tương tự một cách đáng kinh ngạc với kết quả tìm kiếm của Google. Vì vậy, không quá lời khi nói rằng các trợ lý AI này phần lớn chỉ là các trình bao bọc AI cho các công cụ tìm kiếm hiện có.
Bây giờ chúng ta đã làm sáng tỏ bộ mặt thật của ChatGPT – về cơ bản nó chỉ sử dụng Google – chúng ta có cái nhìn rõ ràng hơn về các chiến thuật xếp hạng cho tìm kiếm AI. Trên thực tế, tôi chưa tìm thấy bất kỳ chiến lược tối ưu hóa tìm kiếm AI nào không áp dụng được cho SEO truyền thống. Nếu bạn có quan điểm khác, vui lòng để lại bình luận bên dưới, tôi sẵn sàng thay đổi ý kiến.
Các phương pháp được quảng cáo là "chiến lược SEO AI mới" phần lớn chỉ là các thực tiễn tốt nhất mà các chuyên gia tìm kiếm đã sử dụng trong hơn một thập kỷ. Ví dụ:
• Ngôn ngữ bao hàm ngữ cảnh: Tóm tắt các quan điểm đầy đủ trong các phần, đoạn văn và câu để các mô hình ngôn ngữ lớn dễ dàng trích xuất? Đây là điều chúng ta đã làm kể từ năm 2014 cho các đoạn trích nổi bật (Featured Snippets).
• Phân tán truy vấn (Query Fanout): AI thực hiện các tìm kiếm ẩn ở chế độ nền? Theo nghiên cứu của Yakub, cách giải quyết phân tán truy vấn và xếp hạng tìm kiếm truyền thống hoàn toàn giống nhau – bằng cách xây dựng thẩm quyền chủ đề xung quanh các nhóm trang cốt lõi nhắm mục tiêu các từ khóa tương tự. Chúng ta gọi đây là các cụm chủ đề (Topical Clusters). Yakub phát hiện ra rằng 84% các truy vấn phân tán là "hàng xóm truy vấn", nghĩa là chúng chia sẻ cùng một URL trong kết quả tìm kiếm của Google. Do đó, một trang được viết tốt, tuân thủ các thực tiễn tốt nhất về SEO, có tiềm năng xếp hạng cho nhiều thuật ngữ phân tán truy vấn này.
• Đề cập thương hiệu: Mặc dù tầm quan trọng của việc đề cập thương hiệu thực sự đang quay trở lại (điều này tôi cho là tốt cho toàn bộ internet vì mọi người không phải lúc nào cũng liên kết tự nhiên đến các thương hiệu khác khi viết), việc gọi nó là "mới" là không chính xác. Việc có các đề cập thương hiệu không liên kết (Unlinked Brand Mentions) trên internet luôn giúp tăng khả năng hiển thị thương hiệu, ngay cả trước khi tìm kiếm bằng AI xuất hiện. Nó đã tồn tại trong nhiều năm như một chiến lược SEO ngoài trang web hiệu quả.
Đối với các doanh nghiệp muốn nhanh chóng xây dựng cơ sở hạ tầng nội dung SEO, các nền tảng như SEOInfra có thể giúp bạn tạo hàng loạt bài đăng blog gốc tuân thủ tiêu chuẩn SEO dựa trên các nguồn nội dung chất lượng cao (video YouTube, thảo luận ngành, phân tích đối thủ cạnh tranh, v.v.) và tích hợp cấu trúc kỹ thuật phù hợp, đảm bảo nội dung vừa có thể được lập chỉ mục bởi các công cụ tìm kiếm truyền thống vừa có thể được các trợ lý AI hiểu và trích dẫn.
Vào tháng 9 năm 2024, nhà phát triển Jeremy Howard đã xuất bản một bài viết đưa ra một tiêu chuẩn mới cho các trang web có tên llms.txt. Ý tưởng là chủ sở hữu trang web đặt một tệp văn bản có tên llms.txt ở thư mục gốc của miền, cung cấp hướng dẫn cho các mô hình ngôn ngữ lớn để giúp chúng hiểu và thu thập dữ liệu trang web tốt hơn. Về cơ bản, đó là một tệp sitemap.xml cho tìm kiếm AI.
Đề xuất này tự nó thực sự khá hay, nhưng bằng cách nào đó thì trò chơi "tam sao thất bản" mất kiểm soát trên internet đã chiếm đoạt tất cả. llms.txt đã biến từ một tiêu chuẩn đề xuất thành một thứ "bắt buộc phải thực hiện ngay để xếp hạng". Đây là lý do tại sao chúng ta không thể có những điều tốt đẹp – mọi người trên internet thích nói quá.
Cho đến ngày nay, quan niệm sai lầm về llms.txt vẫn còn tồn tại, mặc dù không có dữ liệu có ý nghĩa nào cho thấy khả năng hiển thị AI có mối tương quan tích cực với tệp này. Để chấm dứt tin đồn này, Mark Williams Cook đã tạo ra một tiêu chuẩn hoàn toàn hư cấu, vô nghĩa gọi là cats.txt và viết đề xuất riêng cho nó. Quả nhiên, trình thu thập dữ liệu LLM đã lấy dữ liệu từ nó và Mark đã thành công trong việc thuyết phục AI rằng cats.txt rất quan trọng cho việc xếp hạng.
Thử nghiệm này rất thú vị, nhưng nó chứng minh hai điểm quan trọng:
• Tệp llms.txt về cơ bản là lãng phí thời gian (mặc dù thiết lập chỉ mất vài phút và sẽ không gây hại cho trang web của bạn, vì vậy bạn có thể thử nếu muốn).
• Bạn không thể hoàn toàn tin tưởng các đề xuất về SEO hoặc tìm kiếm AI từ ChatGPT, Claude, Perplexity hoặc Grok. Xét cho cùng, chúng chỉ là các hệ thống dự đoán ngôn ngữ và rõ ràng có thể bị lừa.
Đã là năm 2025 rồi, chúng ta có thể thẳng thắn với nhau không? Ít nhiều, tất cả chúng ta đều đang sử dụng AI trong quy trình sáng tạo nội dung. Điều quan trọng là tránh "rác nội dung AI" (AI Slop) – thường dùng để chỉ các bài viết blog được tạo ra hoàn toàn chỉ bằng một cú nhấp chuột từ ChatGPT hoặc Claude.
Nhiều người tin rằng loại nội dung này không chỉ có hại cho người đọc (thường là đúng) mà còn thực sự bị Google phạt. Quan niệm sai lầm này phổ biến đến mức Google thậm chí còn thêm một lưu ý vào hướng dẫn về đánh giá chất lượng của họ: "Việc chỉ sử dụng các công cụ AI tạo sinh không tự quyết định mức độ nỗ lực hoặc xếp hạng chất lượng trang. Các công cụ AI tạo sinh có thể được sử dụng để tạo ra nội dung chất lượng cao và chất lượng thấp."
Nói cách khác, nội dung tốt là nội dung tốt, bất kể nó được tạo ra như thế nào.
Theo quan điểm của tôi, phương pháp tốt nhất là áp dụng quy trình kết hợp, kết hợp tốc độ và hiệu quả của AI với sự sáng tạo và kỹ năng độc đáo của con người. Khi AI làm cho nội dung trở nên hàng hóa, thành công sẽ thuộc về các thương hiệu tập trung vào việc tạo ra nội dung thực sự có giá trị, chất lượng cao – bất kể có sự hỗ trợ của AI hay không.
Đối với các nhóm muốn hệ thống hóa khả năng sản xuất nội dung của họ, SEOInfra cung cấp một giải pháp thông minh: nó không chỉ là một công cụ viết AI đơn thuần, mà giúp bạn chuyển đổi các nguồn thông tin chất lượng cao như video YouTube, quan điểm của chuyên gia trong ngành, nội dung của đối thủ cạnh tranh, v.v. thành các bài đăng blog gốc, có thể lập chỉ mục, đồng thời đảm bảo cấu trúc kỹ thuật SEO phù hợp, bố cục từ khóa hợp lý và hỗ trợ xuất bản chỉ bằng một cú nhấp chuột lên các nền tảng như WordPress, Webflow hoặc Shopify. Loại hình sáng tạo dựa trên các nguồn nội dung chất lượng cao này là chìa khóa để tránh rác nội dung AI và đạt được đầu ra chất lượng cao có quy mô.
Dữ liệu hiện tại cho thấy điều ngược lại. Sự phổ biến của ChatGPT thực sự đã làm tăng nhẹ việc sử dụng tìm kiếm Google, thay vì giảm. Google vẫn chiếm gần 90% thị phần tìm kiếm có sự hỗ trợ của AI, và các chiến lược SEO truyền thống vẫn có hiệu quả và quan trọng.
Hầu như không có sự khác biệt. Các trợ lý AI chủ yếu dựa vào chỉ mục của các công cụ tìm kiếm truyền thống như Google, vì vậy các thực tiễn tốt nhất về SEO truyền thống cũng áp dụng cho tối ưu hóa tìm kiếm AI. Các phương pháp được quảng cáo là "chiến lược SEO AI mới" phần lớn là các nguyên tắc cơ bản mà các chuyên gia SEO đã sử dụng trong nhiều năm.
Hiện tại không có dữ liệu có ý nghĩa nào cho thấy tệp llms.txt có mối tương quan tích cực với khả năng hiển thị tìm kiếm AI. Mặc dù thiết lập tệp này sẽ không gây hại cho trang web, nhưng về cơ bản nó là lãng phí thời gian và không nên được coi là một hành động cần thiết để cải thiện thứ hạng.
Không. Google nêu rõ rằng việc chỉ sử dụng các công cụ AI không ảnh hưởng đến xếp hạng chất lượng nội dung. Điều quan trọng là nội dung có mang lại giá trị cho người dùng hay không, có chất lượng cao hay không, chứ không phải là phương pháp tạo ra nó. Thực tiễn tốt nhất là kết hợp hiệu quả của AI với khả năng sáng tạo của con người để tạo ra nội dung thực sự có giá trị.
Tránh hoàn toàn dựa vào AI để tạo nội dung chỉ bằng một cú nhấp chuột. Áp dụng quy trình kết hợp, tận dụng AI để tăng hiệu quả, nhưng duy trì sự phán đoán sáng tạo và kiểm soát nội dung của con người. Dựa trên các nguồn thông tin chất lượng cao (như quan điểm của chuyên gia trong ngành, nội dung video chất lượng cao, nghiên cứu sâu sắc) để tái cấu trúc ban đầu, thay vì để AI tạo nội dung từ hư không.
大纲