Cloudflare đang có những động thái cứng rắn nhằm hạn chế việc các AI bot tự do thu thập nội dung từ web mà không xin phép hay trả phí. Giám đốc điều hành Matthew Prince nhấn mạnh: “Muốn giải quyết tận gốc, các công ty AI lớn cần phải hợp tác — nhưng khả năng họ làm vậy là rất thấp.”
Cloudflare vừa giới thiệu cơ chế mới:
thu phí theo lượt truy cập đối với các AI bot, đặc biệt là những công ty AI liên tục “hút dữ liệu” từ Internet để huấn luyện mô hình mà không hề đóng góp gì trở lại. Matthew Prince cho rằng các công ty này đang khai thác giá trị từ nội dung người khác và cần phải
trả tiền để tiếp tục làm vậy.
Google Gemini AI bị Cloudflare chặn mặc định
Prince tiết lộ thêm rằng
bot của Google Gemini đã bị Cloudflare chặn mặc định, thể hiện rõ sự phản kháng với việc các công ty lớn sử dụng bot AI mà không kiểm soát.
Ngoài ra, Cloudflare cũng đang gây sức ép buộc Google
cung cấp một cách để các website có thể chặn riêng bot AI, nhưng vẫn cho phép bot của công cụ tìm kiếm Google thu thập dữ liệu bình thường. Điều này giúp các trang web vẫn hiển thị trên Google Search nhưng không bị các AI như Gemini “hút sạch nội dung”.
Cloudflare phát triển công cụ giúp phân biệt người dùng và bot AI
Prince cho biết Cloudflare đang phát triển
các công cụ hỗ trợ quản trị viên web dễ dàng chặn bot AI, mà không làm ảnh hưởng đến người dùng thật hoặc các bot tìm kiếm thông thường. Đây là bước tiến quan trọng để chủ website
bảo vệ nội dung trước làn sóng AI.
“Internet không nhấp chuột” đang bào mòn giá trị nội dung gốc
Ông cũng cảnh báo về sự phát triển của “
zero-click Internet” — tức là người dùng không còn truy cập trang web gốc nữa, mà chỉ xem nội dung được AI hoặc nền tảng hiển thị lại. Điều này
làm giảm lượng truy cập, doanh thu và ảnh hưởng trực tiếp đến người sáng tạo nội dung.
Dù Cloudflare muốn giải quyết bằng công nghệ và đối thoại, Prince cũng thừa nhận rằng
luật pháp có thể là biện pháp cuối cùng, nếu các công ty AI không chịu hợp tác. Ông đề xuất nên có quy định pháp lý buộc
tách biệt bot AI và bot tìm kiếm thông thường, điều mà về mặt kỹ thuật “không hề khó”.
Trong bối cảnh AI ngày càng phát triển, việc các mô hình trí tuệ nhân tạo phụ thuộc vào dữ liệu web đang đặt ra bài toán công bằng. Cloudflare đang đứng về phía các trang nội dung, giúp họ giành lại quyền kiểm soát những gì mình tạo ra.
Liệu tương lai sẽ có một file ai-robots.txt riêng biệt?
Liệu các trang web có thể phân biệt rõ ràng “cho AI hút” hay “chặn AI” như từng làm với Googlebot?