Cloudflare bulut altyapısının lideri ile yapay zeka araştırma şirketinin şaşkınlığı arasında bir kamu savaşı patlak verdi, her iki taraf da, sektördeki analistlerin, şirketlerin içerikleri veri koleksiyonundan koruma biçiminde temel kusurları ortaya çıkardığını teyit ettikleri anlaşmazlıkta.
Tartışma, Cloudflare, web sitesi bloklarını yenmek ve sitenin sahiplerinin AI’nın oluşumundan açıkça uzak durmak istediği içeriği kazımak için maskeli web tarayıcılarını kullanarak “görünmez tarama” ile ilgili korkutucu bir teknik rapor yayınladığında başladı. Düşüncelik, CloudFlare’yi “reklam akrobasi” yaratmakla suçlayarak, hatalı bir şekilde, pazarlama çabalarını artırmak için ilgisiz hizmetlerden milyonlarca web talebi yapmakla suçlandı.
Sektördeki uzmanlar, ısıtmalı değişimin mevcut bot algılama araçlarının meşru yapay zeka hizmetleri ile sorunlu tarayıcı arasında ayrım yapamadığını ve şirketleri güvenilir koruma stratejileri olmadan bıraktığını iddia ediyor.
Cloudflare’nin teknik suçlamaları
Cloudflare’nin soruşturması, müşteriler robot.txt dosyaları ve güvenlik duvarı kuralları aracılığıyla bilinen tarayıcılarını engellemesine rağmen, şaşkınlıkların hala içeriğine eriştiğinden şikayet ettikten sonra başladı. Bunu test etmek için Cloudflare, yeni markalı alanlar oluşturdu, tüm yapay zeka paletini engelledi ve bu nedenle bu siteler hakkında şaşkınlık sordu.
“Şaşkınlığın hala bu sınırlı alanların her birinde barındırılan içerik hakkında ayrıntılı bilgi sağladığını keşfettik”, Cloudflare bir blog gönderisinde bildirildi. Diyerek şöyle devam etti: “Bu verilerin paletli tarafından geri kazanılabilir olmasını önlemek için gerekli tüm önlemleri aldığımız için bu cevap beklenmedikti.”
Şirket, ilan edilen şaşkınlık tarayıcısı engellendiğinde, muhtemelen macOS’ta Chrome gibi görünecek şekilde tasarlanmış genel bir tarayıcı kullanıcı aracısına gittiğini keşfetti. Bu iddia edilen görünmez paletli, on binlerce web sitesinde 3-6 milyon talepte bulunurken, tartışılan şaşkınlık, günde 20-25 milyon talep yönetti.
Cloudflare, bu davranışın temel web ilkelerini ihlal ettiğini vurguladı: “Son otuz yılda bildiğimiz gibi İnternet hızla değişiyor, ancak bir şey sabit kalıyor: Güven üzerine inşa ediliyor. Trailin şeffaf olması, açık bir amaca hizmet etmesi ve her şeyden önce web sitesinin yöneticilerini ve tercihlerini takip etmek için açık tercihler var.”
Aksine, Cloudflare Openi’nin chatgpt’i aynı engellenen alanlarla test ettiğinde, “ChatGPT kullanıcılarının robot dosyasını aldığını ve ziyaret edildiğinde sürünmeyi bıraktık. Diğer kullanıcı ajanlarından veya üçüncü taraf robotlardan takip şeritlerini gözlemlemedik.”
Şaşkınlığın “hubisitesi” suçlaması
Şaşkınlığın hiçbir şeyi yoktu. Bir LinkedIn Post Bu delinmedi, şirket Cloudflare’yi müşterisini pazarlama avantajı için kasıtlı olarak hedeflemekle suçladı.
Yapay Zeka Şirketi, Cloudflare raporu için iki olası açıklama önerdi: “Cloudflare, akıllı reklamcılık anı ve ABD-uygun müşteri-bunları almak için yararlı bir isim” ya da “Cloudflare temelde, otomatik göz atma hizmetinden perspleksite hizmetinden günlük istekleri”.
Şaşkınlık, tartışmalı trafiğin aslında şaşkınlık kullandığı üçüncü taraf bir bulut tarayıcı hizmeti olan BrowserBase’den geldiğini ve görünmez kabineye atfedilen 3-6 milyon bulutflare ile karşılaştırıldığında günlük taleplerinin 45.000’den az olduğu belirtildi.
“Cloudflare temel olarak otomatik tarayıcı tarayıcı hizmetinden günlük 3-6 milyonluk talepleri şaşkınlığa bağladı, bu da temel işi web trafiğini anlamak ve sınıflandırmak olan bir şirket için utanç verici olan trafiğin analizi üzerine temel bir iflas, şaşkınlık yarattı.
Şirket ayrıca Cloudflare’nin modern yapay zeka asistanlarının çalışma şeklini yanlış anladığını savundu: “Şaşırtıcıdan mevcut bilgi gerektiren bir soru sorduğunuzda – diyelim:” Bu yeni restoran için en son incelemeler nelerdir? ” – Yapay Zekanın bir yerlerde bir veritabanında zaten böyle bilgileri yok.
Şaşkınlık, Cloudflare’nin yetkinliğine doğrudan hedef aldı: “Zararlı bir kazıyıcıdan yararlı bir dijital asistan söyleyemezseniz, muhtemelen meşru web trafiğini neyin oluşturduğuna karar vermemelisiniz”.
Uzmanların analizi daha derin problemler ortaya koyuyor
Sektör analistleri, tartışmaların, bu tek tartışmanın ötesine geçen şirket içeriğinin koruma stratejilerinde daha geniş güvenlik açıkları ortaya koyduğunu söylüyor.
Forrester Başkan Yardımcısı ve ana analisti Charlie Dai, “Bazı bot algılama araçları, meşru yapay zeka hizmetlerini zararlı tarayıcıdan ayırt etmede tutarsız performanslarla vurgulandığı gibi, yüksek pozitif yanlış ve kaçış taktiklerine duyarlılık da dahil olmak üzere önemli güvenilirlik problemleri göstermektedir.” Dedi.
Greyhound Research analisti ve CEO’su Sanchit Vir Gogia, tartışmaların “kurumsal güvenlik ekipleri için acil bir esnek nokta bildirdiğini iddia etti: statik web prawler ve volumetric-non-non-non-non-non-non-non-non-non-non-quined otomasyon için geleneksel konstitüe edilmiş botların algılama araçları” kullanıcı için daha fazla donatılmıştır “.
Teknik zorluk soluklaştı, Gogia şöyle açıkladı: “Gelişmiş yapay istihbarat asistanları, kukla veya oyun yazarı gibi otomasyon resimlerini kullanarak bu veri verilerine arşivleme veya eğitmek için bir kullanıcı-scidance sorgusu için içeriği gerçek zamanlı olarak kurtardı.
Yeni standartlara giden yol
Bu mücadele sadece teknik detaylarla ilgilenmez: AI-Web etkileşimi için kurallar belirleme meselesidir. Şaşkınlık daha fazla sonuç hissetti: “Sonuç, erişiminizin ihtiyaçlarınıza bağlı olmadığı, seçilen araçların altyapı denetleyicileri tarafından kutsanması gerçeğine bağlı olduğu iki seviyeli bir internettir”.
Sektördeki resimler ortaya çıkıyor, ancak yavaş. “Maturous standartları 2026’dan önce olası değildir, bu arada bazı şirketler çözümler geliştirmektedir: Openi, web botu auth aracılığıyla kimlik pilotluk yapıyor ve web sitelerinin şifrelenmiş temsilcilerin isteklerini şifrelemesine izin veriyor.
Gogia daha geniş sonuçlar hissetti: “Risk, sadece ana altyapı tedarikçilerine uygun olarak kabul edilen satıcıların tarihi operatörleri desteklediği ve açık inovasyonu dondurduğu bir Balkan ağıdır”.