etrafındaki tartışmayı görmezden gelmek zor. Açık mektup gelişmiş AI sistemlerinin geliştirilmesinde bir duraklama için tartışıyor. Tehlikeli mi? İnsanlığı yok edecekler mi? Birkaçımız dışında hepimizi sıkıcı, yoksullaştırılmış hayatlara mı mahkum edecekler? Bunlar gerçekten karşı karşıya olduğumuz tehlikelerse, AI geliştirmeyi altı ay boyunca duraklatmak kesinlikle zayıf ve etkisiz bir önleyicidir.
AI’nın sorumlu kullanımını savunan sesleri görmezden gelmek daha kolaydır. Yapay zekayı sorumlu bir şekilde kullanmak, yapay zekanın şeffaf, adil ve mümkün olduğunda açıklanabilir olmasını gerektirir. Yapay zekayı kullanmak, adil olduklarından emin olmak için yapay zeka sistemlerinin çıktılarını denetlemek anlamına gelir; yapay zeka modellerinin davranışlarını belgelemek ve veri setlerini eğitmek anlamına gelir, böylece kullanıcılar verilerin nasıl toplandığını ve bu verilerde hangi önyargıların bulunduğunu bilir. Bu, konuşlandırıldıktan sonra sistemlerin izlenmesi, gerektiğinde güncellenmesi ve ayarlanması anlamına gelir çünkü herhangi bir model eninde sonunda “bayatlaşacak” ve kötü performans göstermeye başlayacaktır. İnsan yeteneklerini değiştirmektense geliştiren ve özgürleştiren sistemler tasarlamak anlamına gelir. Bu, yapay zeka sistemlerinin sonuçlarından insanların sorumlu olduğunu anlamak anlamına gelir; “Bilgisayarın yaptığı buydu” demekle yetinmiyor.
Bu boşluğa bakmanın en yaygın yolu, onu mevcut ve uzun vadeli sorunlar arasındaki fark etrafında çerçevelemektir. Bu kesinlikle doğru; “duraklama” mektubu, Mars’ta koloniler kurmakla veya gezegeni bir ataç yığınına dönüştürmekle, emlakta yeniden çizmek veya ceza davalarında kefaletle olduğundan çok daha fazla ilgilenen “Future of Life Enstitüsü”nden geliyor.
Ancak soruna bakmanın daha önemli bir yolu var ve bu, uzun vadeli sorunların çoğunu nasıl çözeceğimizi zaten bildiğimizi fark etmektir. Bu çözümlerin tümü, kısa vadeli adalet ve hakkaniyet konularına dikkat etmeye odaklanır. İnsani değerleri içerecek şekilde tasarlanan AI sistemleri, insanları bir makine lehine tatmin edici olmayan yaşamlara mahkum etmeyecektir. İnsan düşüncesini veya inisiyatifini marjinalize etmeyecekler. İnsani değerleri içeren AI sistemleri, dünyayı ataçlara dönüştürmeye karar vermeyecek; Açıkçası, bunun iyi bir fikir olduğunu belirleyen herhangi bir “akıllı” sistem hayal edemiyorum. Biyolojik savaş için silah tasarlamayı reddedebilirler. Ve eğer insanları Mars’a götürebilirsek, Ursula Leguin’in pek çok romanında anlatılanlar gibi zengin bir kleptokrasinin egemen olduğu koloniler değil, adil koloniler kurmamıza yardım edecekler.
Çözümün diğer bir parçası da hesap verebilirliği ve tazminatı ciddiye almaktır. Bir model hata yaptığında, bir tür insan sorumluluğu olmalıdır. birisi olduğunda yanlış yüz tanıma nedeniyle hapse atıldı, hatanın tespiti, mağdurun serbest bırakılması, sabıka kaydının düzeltilmesi ve model sorumlularına uygun cezaların uygulanması için hızlı bir süreç olması gerekir. Bu cezalar, iş yapma maliyeti olarak yazılmayacak kadar büyük olmalıdır. Bunun yanlış bir kimlik yapan bir insandan ne farkı var? Bir insan, kar amacı güden bir şirket tarafından bir polis departmanına satılmaz. “Bilgisayar öyle dedi” yeterli bir yanıt değildir ve eğer bunun ekonomik olmadığı anlamına geldiğini kabul ediyorsanız, bazı türde uygulamalar geliştirilemez, o zaman belki de bu uygulamalar geliştirilmemelidir. Polisin kullandığını bildiren makaleler beni dehşete düşürdü %90’ın üzerinde hatalı pozitif oranlara sahip yüz algılama sistemleri; ve bu raporlar beş yıllık olmasına rağmen, teknolojinin gelişmesi ihtimali beni pek rahatlatmıyor. Şaşırtıcı hata oranları karşısında bile, bu sistemlerden sorumlu insanların kullanımlarını savunma eğilimi beni daha da az rahatlatıyor.
Önyargı, ön yargı ve nefret söyleminden kaçınmak, şu anda ele alınabilecek başka bir kritik hedeftir. Ancak bu amaca, eğitim verilerini önyargıdan bir şekilde temizleyerek ulaşılamaz; sonuç hiçbir gerçeği yansıtmayan veriler üzerinden karar veren sistemler olacaktır. Hem gerçekliğimizin hem de tarihimizin kusurlu ve önyargılı olduğunu kabul etmeliyiz. Yapay zekayı önyargıyı tespit etmek ve düzeltmek, taraflı veriler karşısında adil kararlar vermesi için eğitmek ve sonuçlarını denetlemek için kullanmak çok daha değerli olacaktır. Böyle bir sistemin, insanların sonuçlarını denetleyebilmesi ve değerlendirebilmesi için şeffaf olması gerekir. Eğitim verileri ve tasarımı hem iyi belgelenmiş hem de halka açık olmalıdır. Veri kümeleri için veri sayfaları Ve Model Raporlama için Model Kartları, Timnit Gebru, Margaret Mitchell ve diğerleri bir başlangıç noktasıdır – ama yalnızca bir başlangıç noktasıdır. Bir modelin davranışını doğru bir şekilde belgelemek için çok daha ileri gitmemiz gerekecek.
Önyargılı ve önyargılı veriler karşısında tarafsız sistemler inşa etmek, ancak yazılım geliştirme projelerinden çok sık dışlanan kadınların ve her türden azınlığın katılımıyla mümkün olacaktır. Ancak tarafsız sistemler oluşturmak yalnızca bir başlangıçtır. İnsanların ayrıca, insan haklarına saldırmak için tasarlanmış yapay zeka sistemlerine karşı önlemler üzerinde çalışması ve insan refahını desteklemek için yeni teknoloji ve altyapı türleri hayal etmesi gerekiyor. Bu projelerin her ikisi de, karşı önlemler ve yeni altyapılar, neredeyse kesinlikle yeni tür yapay zeka sistemlerinin tasarlanmasını ve inşa edilmesini içerecektir.
Hangi taraf savunursa savunsun, bir düzenleme acelesinden şüpheleniyorum. Prensip olarak düzenlemeye karşı değilim. Ama ne dilediğine çok dikkat etmelisin. ABD’deki yasama organlarına baktığımda, düzenlemenin olumlu bir şeyle sonuçlanması olasılığının çok düşük olduğunu görüyorum. En iyi ihtimalle anlamsız tribünlere girerdik. En kötüsü de çok muhtemel: Kadınlara, ırksal ve etnik azınlıklara ve LBGTQ insanlarına karşı performatif zulüm uygulayan yasalar ve yönetmelikler çıkaracağız. Beyazları rahatsız ettiği için köleliği tartışmasına izin verilmeyen yapay zeka sistemlerini görmek istiyor muyuz? Bu tür bir düzenleme zaten birçok okul bölgesini etkiliyor ve bunun olacağını düşünmek saflık olur. yapay zekayı etkilemez.
Ayrıca “Duraklat” mektubunun arkasındaki sebeplerden de şüpheliyim. Bazı kötü oyunculara, kadın düşmanlığı ve diğer nefret biçimleri için bir oyun alanı olan “uyanmayan” bir yapay zeka inşa etmeleri için zaman vermek mi? Bu, dikkati adalet ve hakkaniyet gibi temel konulardan başka yöne çeviren bir histeri yaratma girişimi mi? Danah Boyd olarak mı? tartışırteknoloji liderlerinin yarattıkları yapay zeka derebeylerine tabi olarak yeni alt sınıf haline gelmekten korktuklarını mı?
Bir “AI Duraklatma”nın sonuçlarının hastalık olasılığından daha kötü olacağından korkmama rağmen, bu soruları yanıtlayamıyorum. Danah’ın yazdığı gibi, “Yapay zekayı saplantı haline getirmek, sosyoteknik gerçekliğimizle boğuşmanın etkili bir yolundan çok stratejik bir dikkat dağıtmadır.” Ya da Brian Behlendorf’un yapay zeka liderlerinin bizi yapay zekadan korkmamız konusunda uyarması hakkında yazdığı gibi1:
Cassandra olmak eğlencelidir ve tıklamalara yol açabilir…. Ama gerçekten pişmanlık duyarlarsa? Yapabilecekleri diğer şeylerin yanı sıra, aşağıdakiler için bağış yapabilir, tanıtımına yardımcı olabilir, gönüllü olabilir veya aşağıdakiler için kod yazabilirler:
Bir “Duraklatma”, kötü oyuncuların arayı kapatmasına veya öne geçmesine yardımcı olmaktan başka bir işe yaramaz. Belirsiz uzun vadeli bir gelecekte birlikte yaşayabileceğimiz bir yapay zeka oluşturmanın tek bir yolu var ve bu da adil ve tam da bugün olan bir yapay zeka oluşturmak: gerçek sorunlarla ve gerçek olayların yol açtığı zararlarla ilgilenen bir yapay zeka. insanlar, hayal edilenler değil.
Dipnotlar
- özel e-posta