Những lời khuyên xoay quanh AI search đang trở nên quá đơn giản hóa. Lợi thế thực sự lại đến từ knowledge graph, các expert entity và mức độ ảnh hưởng trong những tập dữ liệu đáng tin cậy.
Một bài viết gần đây trên Harvard Business Review phản ánh đúng sự thay đổi mà chúng ta đang thấy trong ngành Search Engine Optimization. Ở cấp độ vĩ mô, các Large Language Models và những tính năng SERP sử dụng AI của Google, chẳng hạn như AI Overviews, không chỉ tạo ra một môi trường zero-click mà còn làm thay đổi hành trình và hành vi của người dùng.
Chúng đang rút gọn những hành trình khách hàng từng cần nhiều điểm chạm thành một câu trả lời tổng hợp duy nhất.
Nếu cần một hình ảnh ẩn dụ trực quan hơn, “khối nguyên khối” của Search đang bắt đầu sụp đổ.
Khi điều đó xảy ra, các thương hiệu sẽ mất đi nhiều điểm chạm mà trước đây họ từng sở hữu và chiến lược marketing của bạn buộc phải thay đổi theo. HBR đã nắm bắt khá tốt thời điểm chuyển dịch này khi cho rằng marketing giờ đây có một “khán giả” mới và các thuật toán ngày càng định hình ấn tượng đầu tiên của người dùng.
Tuy vậy, dù bài viết chỉ đúng hướng ở cấp độ xu hướng tổng thể, các khuyến nghị mang tính chiến thuật của nó lại khá chung chung và quay về những tactic nông.
Phần lớn hướng dẫn quay trở lại những ý tưởng quen thuộc trong playbook marketing. Chúng nghe có vẻ chiến lược và đổi mới nhưng lại thiếu chiều sâu vận hành thực tế. Khoảng trống này rất quan trọng đối với tính bền vững và lâu dài của khả năng hiển thị.
Câu chuyện này có thể dễ hiểu và dễ trình bày ở cấp độ lãnh đạo nhưng nó đã lược bỏ những thay đổi mang tính cấu trúc sâu hơn mà bạn thực sự cần thực hiện để thích nghi với hệ sinh thái tìm kiếm mới.
Vấn đề của “flock tactics”
Bài viết của HBR tập trung vào schema, tín hiệu tác giả và các khái niệm thương hiệu. Những khuyến nghị này có nguy cơ trở thành thứ mà tôi gọi là “flock tactics”.
Đây là những ý tưởng lan truyền rất nhanh vì chúng dễ giải thích nhưng lại mang lại rất ít lợi thế cạnh tranh bền vững khi tất cả mọi người đều áp dụng chúng.
Schema
Schema là một trong những chủ đề được tranh luận nhiều nhất trong tối ưu hóa LLM và AI. Microsoft cho biết Bing sử dụng schema cho các LLM của mình nhưng mối quan hệ giữa các mô hình của Google và những LLM bên thứ ba không đơn giản như vậy.
Việc khuyến nghị sử dụng schema như một phần trong các hoạt động tối ưu hóa tìm kiếm tổng thể (SEO và AI) không hẳn là sai. Tuy nhiên, nếu coi nó như một tactic bắt buộc phải có thì sẽ bỏ qua quy luật lợi ích giảm dần khi đối thủ cũng triển khai các markup tương tự và nó trở thành tiêu chuẩn chung.
Một khoảng trống khác nằm ở vai trò của các hệ thống tri thức bên ngoài, chẳng hạn như Wikidata hoặc các nhà xuất bản có thẩm quyền. Phần lớn thông tin mà LLM sử dụng đến từ những nguồn này chứ không chỉ từ website của một công ty riêng lẻ.
Điều này khó hiểu, khó giải thích và khó thể hiện như một hạng mục đơn giản trong bảng theo dõi hoạt động nhưng đó là những sắc thái mà giờ đây bạn buộc phải xử lý dù muốn hay không.
Ngoài ra, bài viết cũng chưa đề cập hoặc thậm chí chưa nhắc tới cách các mô hình thu thập và ưu tiên dữ liệu có cấu trúc so với rất nhiều tín hiệu phi cấu trúc mà chúng dựa vào.
E-E-A-T: tín hiệu tác giả ở mức bề mặt
Việc gắn tên, thông tin chuyên môn và tiểu sử của các chuyên gia thật vào nội dung là cách tiếp cận quen thuộc theo logic của E-E-A-T và cũng là một thực hành cơ bản hợp lý.
Vấn đề là cách triển khai thường vẫn khá hời hợt. Nó dễ khiến bạn tập trung vào những tín hiệu mang tính hình thức như tiểu sử, ảnh chân dung hay danh sách bằng cấp mà không thực sự củng cố hệ thống chuyên môn đứng phía sau nội dung.
Có một sự khác biệt lớn giữa việc đặt tiểu sử tác giả trên một trang và việc xây dựng một expert entity thực sự, người có công trình xuất hiện trong hội nghị, các ấn phẩm bên thứ ba, các ủy ban tiêu chuẩn hoặc các dự án hợp tác học thuật.
Chỉ trường hợp thứ hai mới tạo ra những tín hiệu mà các mô hình có nhiều khả năng nhận diện và tin cậy.
Vanity concepts
Bài viết cũng gợi ý rằng các doanh nghiệp nên tạo ra những framework hoặc khái niệm mang thương hiệu riêng, ví dụ như một thứ kiểu “Acme Index”, nhằm giúp các mô hình liên kết ý tưởng với công ty của bạn. Về lý thuyết điều này nghe khá hấp dẫn, nhưng trong thực tế việc triển khai lại cực kỳ khó.
Trừ khi những ý tưởng đó lan rộng vào các tập dữ liệu đáng tin cậy mà Large Language Models thường ưu tiên, chúng hiếm khi đạt được sức lan tỏa thực sự.
Bạn cần các khái niệm và framework đó được áp dụng và thảo luận bởi những thực thể khác ngoài chính mình, bao gồm các tạp chí học thuật, các tiêu chuẩn kỹ thuật, các hệ sinh thái phần mềm được sử dụng rộng rãi và những thực thể nổi bật khác trong cùng lĩnh vực.
Điều thường xảy ra là sự bùng nổ của các nhãn hiệu khái niệm mang thương hiệu riêng nhưng lại gần như vô hình đối với các mô hình mà chúng được tạo ra để tác động.
Những điểm mù mang tính cấu trúc
Bên cạnh những vấn đề mang tính chiến thuật này, phân tích trong bài viết còn bỏ qua các thách thức cấu trúc sâu hơn. Nó xem AI chủ yếu như một sự thay đổi nền tảng bên ngoài.
Hàm ý ở đây là doanh nghiệp chỉ cần thích nghi với nó thay vì chủ động định hình môi trường của chính mình.
Đưa hạ tầng AI vào nội bộ
Harvard Business Review không thực sự xem xét nghiêm túc khả năng tích hợp AI vào hạ tầng của chính doanh nghiệp. Bạn hoàn toàn có thể triển khai trợ lý AI, hệ thống Retrieval-Augmented Generation và các agent chuyên biệt theo lĩnh vực ngay trong sản phẩm hoặc trải nghiệm khách hàng của mình.
Những hệ thống này hoạt động trong các bối cảnh đăng nhập và giao dịch, nơi dữ liệu first-party và các giao diện được kiểm soát vẫn đóng vai trò cực kỳ quan trọng.
Trong các môi trường đó, những mối quan tâm truyền thống như kiến trúc website, dữ liệu có cấu trúc và thiết kế sản phẩm vẫn rất quan trọng, dù cách chúng vận hành khác với tối ưu hóa tìm kiếm công khai.
Không chỉ là SEO
Bài viết cũng đang nhìn Search Engine Optimization chủ yếu như một vấn đề xếp hạng trang gắn với discovery.
Góc nhìn này bỏ lỡ sự chuyển dịch lớn hơn sang quản lý tri thức ở cấp độ entity, tức là tập trung vào thực thể thay vì chuỗi ký tự.
Khả năng hiển thị trong các LLM ngày càng phụ thuộc vào cách bạn cấu trúc entity, taxonomy và knowledge graph, cũng như cách những hệ thống đó kết nối với các nguồn dữ liệu bên ngoài.
Phần lớn các LLM không xử lý dữ liệu ở quy mô petabyte như Google dùng để hiểu mối quan hệ giữa các entity. Có một mối tương quan khá rõ rằng khi một nội dung xếp hạng tốt trên Google, các LLM bên thứ ba thường có xu hướng tương quan và “tin tưởng” tín hiệu của Google về việc nên hiển thị thương hiệu nào, trong ngữ cảnh nào và vào thời điểm nào.
Cụm từ “engineering recall” mà HBR đề cập thực ra đang chỉ trực tiếp tới lớp công việc sâu hơn liên quan đến kỹ thuật dữ liệu, nhưng những hàm ý của nó lại chưa được khai thác đầy đủ.
Sự đa dạng của các mô hình LLM
Một thiếu sót lớn khác là sự đa dạng của chính các hệ thống AI.
Các trợ lý AI và mô hình khác nhau dựa vào những bộ dữ liệu huấn luyện khác nhau, chu kỳ cập nhật khác nhau, cơ chế truy xuất dữ liệu khác nhau và các lớp an toàn khác nhau.
Sự khác biệt này có nghĩa là bạn không thể giả định một chiến lược tối ưu hóa duy nhất sẽ hoạt động trên tất cả các bề mặt AI.
Phân tích cũng không xem xét rủi ro của những cách tiếp cận quá tổng quát. Nếu bạn cố gắng tăng mức độ hiển thị trong các mô hình AI mà không tính đến các bộ lọc an toàn, lỗi gán nguồn hay hiện tượng hallucination, bạn có thể đạt được sự hiển thị theo những cách không chính xác hoặc thậm chí gây tổn hại đến danh tiếng thương hiệu.
Các tactic bề mặt sẽ không xây dựng được khả năng hiển thị trong AI
Bài viết của Harvard Business Review hoạt động khá tốt như một lời giải thích ở cấp độ tổng quan về cách AI đang thay đổi marketing. Nó giúp bạn nhận ra rằng chỉ dựa vào Search Engine Optimization truyền thống là không còn đủ và rằng bạn cần suy nghĩ thêm về cách các hệ thống AI nhìn nhận và mô tả thương hiệu của mình.
Tuy nhiên, nếu xem như một hướng dẫn thực tiễn thì những lời khuyên trong bài lại khá mỏng. Phần lớn khuyến nghị tập trung vào các tactic ở mức bề mặt mà nhiều công ty có thể nhanh chóng sao chép. Điều này vô tình củng cố “buồng vang” của những flock tactics, tức các chiến thuật dễ bán, dễ đo lường nhưng lại khiến doanh nghiệp tập trung vào các kết quả ngắn hạn thay vì chiến lược dài hạn.
Thách thức thực sự nằm ở tầng sâu hơn. Bạn cần định nghĩa entity rõ ràng, xây dựng các hệ thống tri thức có cấu trúc như Knowledge Graph, đảm bảo dữ liệu đáng tin cậy xuất hiện trong những nguồn mà Large Language Models sử dụng, kiểm thử cách các mô hình khác nhau thể hiện thương hiệu của bạn và phát triển các trải nghiệm AI ngay trong chính sản phẩm của mình.
Việc “chiến thắng” trong kỷ nguyên AI sẽ phụ thuộc ít hơn vào các cải tiến SEO mang tính hình thức và phụ thuộc nhiều hơn vào những công việc mang tính cấu trúc khó khăn hơn diễn ra phía sau hậu trường.