Google đã công bố một bài nghiên cứu về việc xây dựng một bộ dữ liệu đầy thách thức nhằm huấn luyện các AI agent phục vụ cho hoạt động nghiên cứu chuyên sâu (deep research). Bài nghiên cứu này cung cấp những góc nhìn quan trọng về cách AI agent thực hiện deep research, từ đó hàm ý nhiều insight giá trị cho việc tối ưu nội dung.
SAGE là viết tắt của Steerable Agentic Data Generation for Deep Search with Execution Feedback.
Cặp câu hỏi và trả lời tổng hợp (Synthetic Question And Answer Pairs)
Các nhà nghiên cứu cho biết những bộ dữ liệu huấn luyện AI tiên tiến trước đây (như Musique và HotpotQA) chỉ yêu cầu tối đa bốn bước suy luận để trả lời câu hỏi. Về số lượt tìm kiếm cần thiết để đưa ra câu trả lời, Musique trung bình cần 2.7 lượt tìm kiếm cho mỗi câu hỏi, còn HotpotQA trung bình là 2.1 lượt. Một bộ dữ liệu phổ biến khác là Natural Questions (NQ) thậm chí chỉ cần trung bình 1.3 lượt tìm kiếm cho mỗi câu hỏi.
Những bộ dữ liệu này được sử dụng để huấn luyện AI agent đã tạo ra một khoảng trống trong quá trình đào tạo đối với các tác vụ deep search đòi hỏi nhiều bước suy luận hơn và số lượng tìm kiếm lớn hơn. Làm thế nào để huấn luyện một AI agent xử lý các tác vụ nghiên cứu chuyên sâu, phức tạp trong thế giới thực nếu trước đó nó chưa từng được huấn luyện để giải quyết những câu hỏi thực sự khó?
Các nhà nghiên cứu đã tạo ra một hệ thống mang tên SAGE, có khả năng tự động tạo ra các cặp câu hỏi và câu trả lời phức tạp, chất lượng cao nhằm huấn luyện các AI search agent. SAGE là một hệ thống “dual-agent”, trong đó một AI đóng vai trò viết câu hỏi và một AI thứ hai, gọi là “search agent”, sẽ cố gắng giải quyết câu hỏi đó, đồng thời cung cấp phản hồi về mức độ phức tạp của câu hỏi.
Mục tiêu của AI thứ nhất là tạo ra một câu hỏi đủ thách thức, đòi hỏi nhiều bước suy luận và nhiều lần tìm kiếm mới có thể giải được.
Mục tiêu của AI thứ hai là đánh giá xem câu hỏi đó có thể trả lời được hay không, đồng thời tính toán mức độ khó của nó (tức số bước tìm kiếm tối thiểu cần thiết).
Điểm cốt lõi của SAGE nằm ở cơ chế phản hồi: nếu AI thứ hai giải được câu hỏi quá dễ dàng hoặc trả lời sai, toàn bộ các bước thực hiện và tài liệu mà nó đã tìm thấy (execution trace) sẽ được gửi ngược lại cho AI thứ nhất. Nhờ phản hồi này, AI thứ nhất có thể xác định một trong bốn “lối tắt” (shortcuts) đã giúp AI thứ hai giải câu hỏi với ít bước hơn.
Chính những “lối tắt” này mang lại những insight quan trọng về cách tối ưu để xếp hạng tốt hơn cho các tác vụ deep research.
Bốn cách khiến Deep Research bị “né tránh”
Mục tiêu của bài nghiên cứu là tạo ra các cặp câu hỏi – trả lời khó đến mức AI agent phải thực hiện nhiều bước suy luận và tìm kiếm mới giải được. Tuy nhiên, phản hồi từ hệ thống cho thấy có bốn yếu tố khiến AI không cần thực hiện thêm nhiều lượt tìm kiếm để tìm ra đáp án.
Bốn lý do khiến Deep Research trở nên không cần thiết
Information Co-Location (Đồng vị trí thông tin)
Đây là “lối tắt” phổ biến nhất, chiếm 35% các trường hợp không cần deep research. Hiện tượng này xảy ra khi hai hoặc nhiều mảnh thông tin cần thiết để trả lời câu hỏi cùng nằm trong một tài liệu. Thay vì phải tìm kiếm hai lần, AI có thể tìm thấy toàn bộ câu trả lời chỉ trong một “hop”.
Multi-query Collapse (Sụp đổ đa truy vấn)
Chiếm 21% trường hợp. Nguyên nhân là một truy vấn tìm kiếm đủ thông minh có thể thu thập lượng thông tin cần thiết từ nhiều tài liệu khác nhau để giải quyết nhiều phần của vấn đề cùng lúc. Điều này “nén” một quy trình nhiều bước thành chỉ một bước duy nhất.
Superficial Complexity (Độ phức tạp bề ngoài)
Chiếm 13% trường hợp. Câu hỏi có vẻ dài và phức tạp với con người, nhưng công cụ tìm kiếm (mà AI agent sử dụng) có thể nhảy thẳng đến câu trả lời mà không cần suy luận qua các bước trung gian.
Overly Specific Questions (Câu hỏi quá cụ thể)
Chiếm 31% các trường hợp thất bại. Những câu hỏi chứa quá nhiều chi tiết đến mức đáp án trở nên hiển nhiên ngay từ lần tìm kiếm đầu tiên, loại bỏ nhu cầu điều tra “chuyên sâu”.
Các nhà nghiên cứu phát hiện rằng có những câu hỏi trông có vẻ khó nhưng thực tế lại khá dễ vì thông tin được “co-located” trong cùng một tài liệu. Nếu một agent có thể trả lời một câu hỏi 4-hop chỉ trong 1 hop nhờ một website đủ toàn diện để cung cấp toàn bộ đáp án, thì dữ liệu đó bị xem là thất bại trong việc huấn luyện khả năng suy luận. Tuy nhiên, trong thực tế, điều này hoàn toàn có thể xảy ra và agent sẽ tận dụng lợi thế khi tìm thấy toàn bộ thông tin trên một trang duy nhất.
Một vài điều rút ra từ nghiên cứu trên
Chúng ta có thể rút ra một số insight về loại nội dung có khả năng đáp ứng tốt các tác vụ deep research. Đây không hẳn là “chiến thuật” để xếp hạng cao hơn trong môi trường agentic AI deep search, nhưng cho thấy những tình huống khiến AI agent tìm được toàn bộ hoặc phần lớn câu trả lời trên một trang web.
“Information Co-location” có thể là lợi thế SEO
Nghiên cứu cho thấy khi nhiều mảnh thông tin cần thiết để trả lời một câu hỏi cùng xuất hiện trong một tài liệu, số bước tìm kiếm sẽ giảm xuống. Với publisher, điều này đồng nghĩa việc hợp nhất các dữ kiện “rải rác” vào một trang duy nhất sẽ ngăn AI agent phải “nhảy” sang website đối thủ để tìm phần còn lại của câu trả lời.
Kích hoạt “Multi-query Collapse”
Tác giả nghiên cứu chỉ ra hiện tượng khi thông tin từ nhiều tài liệu có thể được truy xuất thông qua một truy vấn duy nhất. Bằng cách cấu trúc nội dung để trả lời đồng thời nhiều câu hỏi phụ, bạn cho phép agent tìm thấy lời giải đầy đủ nhanh hơn trên chính trang của mình, từ đó “rút ngắn mạch” chuỗi suy luận dài mà agent vốn phải thực hiện.
Trở thành “Shortcut” (Lấp đầy Reasoning Gap)
Bài nghiên cứu cho biết hệ thống tạo dữ liệu thất bại khi vô tình tạo ra một “lối tắt” dẫn đến đáp án. Từ góc nhìn SEO, mục tiêu của bạn chính là trở thành lối tắt đó — cung cấp các dữ kiện cụ thể như phép tính, ngày tháng, tên riêng hoặc số liệu chính xác để giúp agent đi đến đáp án cuối cùng mà không cần tiếp tục tìm kiếm thêm.
Mục tiêu vẫn là xếp hạng trên tìm kiếm truyền thống
Đối với SEO và publisher, những “lối tắt” này nhấn mạnh giá trị của việc xây dựng một tài liệu toàn diện, vì điều đó giúp loại bỏ nhu cầu khiến AI agent phải “nhảy” sang nơi khác để tìm thêm thông tin. Tuy nhiên, điều này không có nghĩa là nên nhồi nhét toàn bộ thông tin vào một trang. Nếu mang lại trải nghiệm hợp lý cho người dùng, việc liên kết từ trang này sang trang khác để bổ sung thông tin liên quan vẫn là cần thiết.
Lý do tôi nói vậy là vì AI agent vẫn đang thực hiện tìm kiếm theo cơ chế truyền thống để tìm câu trả lời. Do đó, mục tiêu cốt lõi vẫn là tối ưu trang web cho tìm kiếm truyền thống. Hơn nữa, trong nghiên cứu này, AI agent lấy dữ liệu từ ba trang web có thứ hạng cao nhất cho mỗi truy vấn mà nó thực hiện. Tôi không chắc liệu môi trường tìm kiếm AI agent ngoài thực tế có hoạt động chính xác như vậy hay không, nhưng đây là một yếu tố đáng cân nhắc.
Thực tế, một trong những thử nghiệm của nhóm nghiên cứu đã sử dụng Serper API để trích xuất kết quả tìm kiếm từ Google.
Khi muốn xếp hạng trong agentic AI search, hãy cân nhắc:
-
Có thể nên xem trọng mục tiêu lọt vào top 3 kết quả tìm kiếm.
-
Tối ưu trang web cho tìm kiếm truyền thống.
-
Không tối ưu riêng cho “AI search”.
-
Nếu có thể xây dựng nội dung toàn diện, bám sát chủ đề và đạt top 3, hãy làm điều đó.
-
Liên kết nội bộ đến các trang liên quan để hỗ trợ chúng xếp hạng tốt trong tìm kiếm truyền thống, lý tưởng nhất vẫn là top 3 để an toàn.
Có thể trong thực tế, agentic AI search sẽ không chỉ lấy dữ liệu từ top 3 kết quả tìm kiếm truyền thống. Tuy nhiên, việc đặt mục tiêu đạt top 3 trên tìm kiếm truyền thống và tối ưu các trang khác có thể tham gia vào chuỗi multi-hop deep research vẫn là một chiến lược hợp lý.
Bài nghiên cứu được Google công bố ngày 26 tháng 1 năm 2026, dưới dạng PDF với tiêu đề: SAGE: Steerable Agentic Data Generation for Deep Search with Execution Feedback.
Tài liệu tham khảo
https://www.searchenginejournal.com/googles-sage-agentic-ai-research-what-it-means-for-seo/566215/