ChatGPT’nin geçen yıl Kasım ayında piyasaya sürülmesi, Yapay Zeka sistemleri hakkında dünya çapında bir tartışmayı ateşledi. Big Tech’in bu AI sistemlerinin günlük yaşamlarımızda devrim yaratacağına dair beyanlarının ortasında, şirketler düzenlemeleri sulandırmak için şiddetli bir lobicilik savaşına giriyor.
Nisan 2021’de AB komisyon üyeleri Margarethe Vestager ve Thierry Breton bir teklif sundu AI konusunda bir Avrupa yasal çerçevesi için. AI’yı düzenlemeye yönelik ilk küresel girişim olarak kutlandı – bir teknoloji olarak komisyon gözlendi“insanların önümüzdeki yıllarda yaşama ve çalışma biçimleri üzerinde muazzam bir etkisi olacaktır.”
Ancak AI aynı zamanda büyük bir iştir. ChatGPT’nin yaratıcısı OpenAI, Microsoft’un 10 milyar doları akıtmasıyla değeri ikiye katladı [€9.44bn]. Google, AB ile yapılan görüşmelerde, “tüm ürünlerini yapay zeka yönlendiren” bir “önce yapay zeka şirketi” olarak sunuldu.
Öyleyse, şaşırtıcı olmayan bir şekilde, Avrupa Birliği’nin düzenlemeye yönelik çabası, politika oluşturma sürecinin her aşamasında yoğun kurumsal lobicilik girişimleriyle karşı karşıya kaldı.
A Corporate Europe Observatory’nin yeni raporu Big Tech’in AI Yasasını nasıl yavaş yavaş ayırabildiğini ortaya koyuyor.
Yıllarca süren doğrudan baskı, gizli gruplar, teknoloji tarafından finanse edilen uzmanlar ve ABD hükümetinin son bir hamlesi sayesinde teknoloji şirketleri güvenlik yükümlülüklerini azalttı, insan hakları ve ayrımcılıkla mücadele endişelerini bir kenara bıraktı ve bazı hisseleri için ödemeleri güvence altına aldı. anahtar yapay zeka ürünleri.
Zaman çizelgelerimizde gördüğümüz sosyal medya beslemelerinden yapay zeka ile çalışan tıbbi cihazlara kadar, yapay zeka giderek artan bir şekilde günlük hayatımızın bir parçası haline geliyor.
Yapay zekanın bazı kullanımları faydalı olsa da, bu sistemler aynı zamanda ciddi riskler de taşır. Yapay zeka sistemleri genellikle amaçlandığı gibi çalışmaz ve sorumlu tutulamaz hale gelebilir. Cinsiyete, engelliliğe veya ırka dayalı ayrımcılık yapabilirler. Gerçekten de, eşitsizliği şiddetlendirme potansiyeli AB Temel Haklar Ajansı tarafından eleştirildi ve BM İnsan Hakları Yüksek Komiserliği.
Belki de en iyi bilinen örnek, şu anda rezil olan Hollandalı SyRI sistemidir. aileleri haksız yere sosyal yardım dolandırıcılığıyla suçladıAvrupa İnsan Hakları Sözleşmesi’ni ihlal ediyor.
Avrupa’nın yapay zekayı düzenleme yaklaşımını bilgilendiren bu suistimal olasılığıdır. Risk arttıkça yapay zeka sistemleri daha katı kurallara uymak zorundadır. Bu, sosyal puanlama tamamen yasaklanırken, sohbet robotlarının sınırlı bir risk olabileceği anlamına geliyordu. Yaklaşık yüzde 10-15’i yüksek riskli kabul edilir.
Ancak AB kurumları düzenlemeyi tartışırken bir soru ortaya çıktı: hem düşük hem de yüksek riskli çok çeşitli uygulamalar için kullanılabilen sistemler hakkında ne yapılmalı?
Bunlar, daha uzmanlaşmış yapay zekanın temelini oluşturan ve ses, video, metin ve fiziksel verileri işleyebilen “genel amaçlı yapay zeka sistemleri” olarak bilinir hale geldi. Gereken bellek, veri ve donanımın ölçeği ve miktarları nedeniyle, genel amaçlı yapay zeka sistemleri öncelikle aşağıdakiler gibi Amerikan teknoloji devleri tarafından geliştirilir: Google Ve Microsofthangisi ChatGPT’yi tüm Office ürünlerine ekleyeceğini duyurdu.
AB kurumlarının yaklaşan Yapay Zeka Yasasına genel amaçlı yapay zekayı dahil edeceklerini açıkladığında, bunun birçok alarm zilini çalması şaşırtıcı değil. Big Tech’in iyi finanse edilen Avrupa lobi ağları.
Gölgeli lobicilik taktikleri
Devam eden bu lobicilik çabalarının ölçeği hakkında sadece bir fikir vermek için, yeni raporumuz, Avrupa Parlamentosu Üyeleri ve ticari çıkarlar arasında AI Yasası hakkında en az 565 toplantı belgeliyor.
Yapay zeka eylemini ortadan kaldırma çabaları her zaman açıkta değil, KOBİ’leri veya gerçekte Big Tech’in çizgisini papağan gibi tekrar eden yeni kurulan şirketleri temsil ettiğini iddia eden çıkar gruplarının finanse edilmesi yoluyla yürütülür.
Bu gölgeli lobicilik taktikleri giderek daha tartışmalı hale geldi.
Şubat ayında CEO ve LobbyControl, Avrupa Parlamentosu Üyelerinden oluşan taraflar arası ittifakın desteğiyle lobbyleaks.eu’yu başlattıtam olarak bu tür Büyük Teknoloji müdahalesini ortaya çıkarmak için bir sızıntı kutusu.
Sam Amca’dan yardım
Konsey’de işler pek iyi değil. Meta, özel olarak, AI Yasası konusunda üye devletlerle “temas halinde” olduğunu kabul etti, ancak Konsey lobi toplantıları hakkında hiçbir veri mevcut değil. bir Konsey’in Çek başkanlığına açık mektupMicrosoft, “Yapay Zeka Yasasında belirli bir bölümün bulunmasına gerek olmadığını” gördü. [general purpose AI].”
En önemlisi, Big Tech, ABD hükümetinin konumunu desteklemesini sağladı. Teknoloji şirketleri 2021’de ABD Kongresi’nde lobi yapmak için 70 milyon dolar harcadı ve 2022 AI lobiciliği için bir “altına hücum” olarak tanımlandı ABD’de.
ABD hükümeti, Eylül 2022’de Avrupa yasalarının yapılmasına alışılmadık derecede açık bir müdahale sergileyerek bir ortak görüş paylaştı: Çek cumhurbaşkanlığı ile “kağıt dışı” genel amaçlı yapay zekanın dışlanması ve daha dar bir yapay zeka tanımı için baskı yapmak. Hepsi, Big Tech’in pozisyon belgelerindekilere çok benzeyen taleplerdi.
Halihazırda, lobi saldırısı istenen sonuçları verdi. Konsey, son konumlarında, genel amaçlı yapay zekanın düzenlenmesine ilişkin tartışmayı erteledi. Kurumlar aynı zamanda AI sistemlerinin tanımını daralttıincelemenin uygulanacağı sistem sayısını sınırlıyor.
Yapay Zeka Yasası artık son aşamalarına yaklaşıyor. gizli üçlü müzakereler. Hangi uzlaşmaya varılacağı belirsizliğini koruyor. Ancak üçleme sürecinin opak doğası, özellikle iyi bağlantıları olan ve iyi finanse edilen lobiciler için faydalıdır ve bu da Big Tech’in AI eylemini daha fazla sulandırması için bolca alan bırakır.
Temel hakların iyi bir şekilde korunduğundan emin olmak artık Avrupa Parlamentosu’na düşüyor. Big Tech’in bu sefer başka bir toksik iş modeli ortaya koymasına izin vermemeliyiz.