Mayıs ayında, Avrupa Parlamentosu’nun yapay zeka kullanımını düzenlemeye yönelik dünyanın ilk kapsamlı girişimi olan dönüm noktası niteliğindeki Yapay Zeka Yasasını oylaması planlanıyor.
Bununla birlikte, yasanın kilit yönlerinin – yapay zeka sistemlerinin “yüksek riskli” uygulamalarıyla ilgili olanların – pratikte nasıl uygulanacağına çok daha az dikkat edildi. Bu maliyetli bir gözden kaçırmadır, çünkü öngörülen mevcut süreç temel hakları önemli ölçüde tehlikeye atabilir.
Teknik standartlar — kim, ne ve neden önemlidir?
Yasanın mevcut versiyonuna göre, yüksek riskli yapay zeka teknolojilerinin sınıflandırılması, eğitim, çalışan işe alımı ve yönetimi, kamu yardımı faydaları ve hizmetlerinin sağlanması ve kanun yaptırımında kullanılanları içerir. Yasak olmamakla birlikte, Avrupa pazarına yüksek riskli bir AI teknolojisi getirmek isteyen herhangi bir sağlayıcının, yasanın “temel gerekliliklerine” uyum sağladığını göstermesi gerekecektir.
Ancak yasa, bu gerekliliklerin gerçekte uygulamada neleri kapsadığı konusunda muğlaktır ve AB milletvekilleri bu sorumluluğu az bilinen iki teknik standartlar kuruluşuna devretmeyi amaçlamaktadır.
Avrupa Standardizasyon Komitesi (CEN) ve Avrupa Elektroteknik Standardizasyon Komitesi (CENELEC), AI Yasasında kabul edilebilir yüksek riskli AI teknolojileri için teknik çerçeveleri, gereklilikleri ve spesifikasyonları belirleyen standartlar geliştirmek için kilit organlar olarak tanımlanmıştır.
Bu organlar neredeyse tamamen AB üye devletlerini temsil eden mühendislerden veya teknoloji uzmanlarından oluşur. İnsan hakları uzmanlarının veya sivil toplum kuruluşlarının çok az temsiliyle veya hiç temsil edilmemesiyle, bu organların, amaçlanan amacı olan insanların temel haklarını korumak olan, AI Yasasının nasıl uygulanacağını belirleme konusunda fiili güce sahip olma tehlikesi vardır. haklar – gerçekten karşılandı.
-de MADDE 19, İnternet Mühendisliği Görev Gücü (IETF), Elektrik ve Elektronik Mühendisleri Enstitüsü (IEEE) ve Uluslararası Telekomünikasyon Birliği dahil olmak üzere teknik standardizasyon kurumlarında insan haklarının dikkate alınmasını oluşturmak ve güçlendirmek için yarım on yılı aşkın bir süredir çalışıyoruz. (İTÜ). Deneyimlerimizden biliyoruz ki, bu düşüncelerle anlamlı bir şekilde ilgilenmek için kurulmamışlardır.
Teknoloji söz konusu olduğunda, teknik tasarım seçimlerini bireylerin ve toplulukların hakları üzerindeki gerçek dünyadaki etkilerden tamamen ayırmak imkansızdır ve bu özellikle CEN ve CENELEC’in mevcut şartlar altında ele alması gereken yapay zeka sistemleri için geçerlidir. hareket.
Ürettikleri standartlar muhtemelen veri yönetişimi, şeffaflık, güvenlik ve insan gözetimi ile ilgili gereklilikleri belirleyecektir.
Tüm bu teknik unsurların, insanların mahremiyet hakları üzerinde doğrudan bir etkisi olacak ve protesto, yasal süreç, sağlık, çalışma ve sosyal ve kültürel yaşama katılım hakları üzerinde zincirleme etkileri olacaktır. Ancak, bu etkilerin ne olduğunu anlamak ve etkili bir şekilde ele almak için mühendislik uzmanlığı yeterli değildir; sürecin bir parçası olmak için insan hakları uzmanlığına da ihtiyacımız var.
Avrupa Komisyonu yapmış olmasına rağmen bu uzmanlığa olan ihtiyaca özel referanslardiğer kamu çıkarlarının temsilinin yanı sıra, uygulamada başarılması zor olacaktır.
Küçük bir istisna dışında, CEN ve CENELEC üyeliği, AB üye devletlerinin çıkarlarını temsil eden ulusal standart kuruluşları dışındaki kuruluşların katılımına kapalıdır. İnsan hakları uzmanlarının bağımsız olarak katılmalarının sağlam bir yolu olsa bile, bu süreçte, özellikle bu hususlar iş dünyası veya hükümetle çatıştığında, temel hakların dikkate alınmasının onaylanmasını sağlayacak herhangi bir taahhüt veya hesap verebilirlik mekanizması mevcut değildir. ilgi alanları.
Politik bir eylem olarak standart belirleme
CEN ve CENELEC, Kanunun temel gerekliliklerinde açık bırakılan en karmaşık sorulardan bazılarını yanıtlamakla görevlendirileceğinden, tamamen teknik bir alıştırmadan çok uzak olan standardizasyon, büyük olasılıkla oldukça politik olacaktır – sorular açık yoluyla daha iyi ele alınacak sorular. , şeffaf ve istişari politika ve düzenleyici süreçler.
Aynı zamanda, Avrupa Parlamentosu, Avrupa Komisyonu tarafından zorunlu kılınan standartları, bu standartların ayrıntıları daha fazla demokratik inceleme veya yasama yorumu gerektirse bile veto etme yetkisine sahip olmayacaktır. Sonuç olarak, bu standartlar AI Yasasının uygulanmasını önemli ölçüde zayıflatabilir ve onu temel haklarımızı tehdit eden teknolojilere karşı etkisiz hale getirebilir.
AB, yapay zekayı insan haklarına saygı duyacak şekilde düzenleme taahhüdü konusunda ciddiyse, bu hususları teknik kurumlara yaptırmak çözüm değildir.
Daha iyi bir yol, bir “temel haklar etki değerlendirmesi” çerçevesinin oluşturulmasını ve tüm yüksek riskli AI sistemlerinin piyasaya sürülme koşulu olarak bu çerçeveye göre değerlendirilmesini gerektirebilir. Böyle bir süreç, bu teknolojilerin doğru bir şekilde anlaşılmasını, analiz edilmesini ve gerekirse duruma göre hafifletilmesini sağlamaya yardımcı olabilir.
AB’nin AI Yasası, AI teknolojilerinin en zararlı kullanımları etrafında çok ihtiyaç duyulan bazı kırmızı çizgileri çizmek ve AI sistemlerinin yaşam döngüsü boyunca hesap verebilirliği sağlamak için en iyi uygulamaları devreye sokmak için kritik bir fırsattır. AB milletvekilleri, temel insan haklarını koruyan ve insanlara öncelik veren sağlam bir sistem oluşturmayı amaçlıyor. Ancak, teknik standart kuruluşlarına bu kadar çok yetki vererek, bu sürecin bütünlüğünü baltalıyorlar.