Büyük felaketler endüstrileri ve kültürleri dönüştürebilir. Johnstown Tufanı, Titanic’in batması, Hindenburg’un patlaması, Katrina Kasırgası’na verilen kusurlu cevap – her birinin kalıcı bir tesiri oldu.
Felaketler fazlaca sayıda insanı öldürmese bile, çoğu zaman iyi mi düşündüğümüzü ve davrandığımızı değiştirir. 2008 mali çöküşü, bankaların ve finans kurumlarının daha sıkı bir halde düzenlenmesine yol açtı. Three Mile Island kazası, nükleer enerji endüstrisinde güvenlik iyileştirmelerine yol açtı.
Daha süratli öğrenin. Daha derin kaz. Daha uzağa bakın.
Kimi zaman bir takım negatif başlık fikri değiştirebilir ve gizlenen güvenlik açıkları mevzusundaki farkındalığımızı artırabilir. Senelerce, fena niyetli bilgisayar solucanları ve virüsleri bilim kurgu mevzusuydu. Arkasından Melissa, Mydoom ve WannaCry’ı deneyimledik. Equifax ihlali, Colonial Pipeline fidye yazılımı saldırısı, Log4j güvenlik açığı ve devasa SolarWinds hack’ini öğrenene kadar siber güvenliğin kendisi ezoterik bir arka oda teknolojisi problemi olarak görülüyordu. Vakalar bizi dikkat etmeye zorlayana kadar siber güvenliği pek önemsemiyorduk.
Suni zekanın “SolarWinds anı”, onu birçok şirkette bir yönetim kurulu problemi haline getirir. Bir suni zeka çözümü yaygın zarara niçin olursa, soruşturma kaynaklarına ve mahkeme celbi yetkilerine haiz düzenleyici kurumlar devreye girer. Yönetim kurulu üyeleri, müdürler ve şirket yetkilileri görevli tutulabilir ve kovuşturmaya maruz kalabilir. Büyük para cezaları ödeyen firmalar ve suni zekayı kötüye kullandığı için hapse girecek teknoloji yöneticileri fikri {hiç de} abartılı değil – Avrupa Komisyonu’nun önerilmiş olduğu AI Yasası, uyumsuzluk için 30 milyon Euro’ya yada %6’ya varan para cezaları içeren üç düzeyde yaptırım içeriyor. ihlalin ciddiyetine bağlı olarak dünya çapındaki toplam senelik gelir.
Birkaç yıl ilkin, ABD Senatörü Ron Wyden (D-Oregon), “şirketlerin tüketici verilerini işleyen algoritmaların doğruluk, hakkaniyet, önyargı, ayrımcılık, mahremiyet ve güvenlik üstündeki etkilerini incelemek suretiyle değerlendirmesini” gerektiren bir yasa tasarısı çıkardı. Tasarı ek olarak Federal Tecim Komisyonu’na veri kullanımları hakkında “bilerek yalan söyleyen üst düzey yöneticiler için” ağır cezalar da içeriyordu. Tasarının yasalaşması pek ihtimaller içinde olmasa da, yalnızca cezai kovuşturma ve hapis cezası olasılığını çoğaltmak, “yüksek riskli data sistemleri yada suni zeka yada makine kullananlar benzer biçimde otomatik karar sistemleri işleten ticari kuruluşlar için bahsi yükseltti. öğrenme.”
Suni Zeka + Nörobilim + Kuantum Hesaplama: Ağırlık basma Senaristliği
Siber güvenlik riskleriyle karşılaştırıldığında, suni zekanın yıkıcı gücünün ölçeği potansiyel olarak fazlaca daha büyük. Suni zeka “Güneş Rüzgarları anı” yaşadığında, tesir bir takım siber güvenlik ihlalinden fazlaca daha yıkıcı olabilir. Suni zeka uzmanlarından suni zeka ile alakalı en büyük korkularını paylaşmalarını isteyin ve muhtemelen suni zekanın nörobilim ve kuantum hesaplama ile birleştiği senaryolardan bahsetmelerini sağlayın. Suni zekanın şimdi ürkütücü bulunduğunu mu düşünüyorsun? Bir kuantum destek işlemci üstünde çalışana ve beyninize bağlanana kadar bekleyin.
İşte herhangi bir yeni teknoloji gerektirmeyen daha ihtimaller içinde bir ağırlık basma senaristliği: Devlet yada mahalli yönetimler, terbiye dışı yada anti olarak kabul edilen davranışlarda bulunan aileleri yada fertleri belirlemek, utandırmak yada kovuşturmak için AI, yüz tanıma ve plaka okuyucuları kullanıyor. -sosyal. Bu davranışlar, yasaklanmış bir kitabı teşvik etmekten kürtajın ciddi şekilde kısıtlandığı bir eyalette kürtaj yaptırmaya kadar değişebilir.
AI emekleme aşamasında, sadece saat aşama kaydediyor. İyi haber şu ki, AI topluluğundaki pek fazlaca insan AI etiği hakkında düşünüyor, konuşuyor ve yazıyor. AI ve makine öğreniminin etik kullanımları hakkında data ve kaynak elde eden kuruluşlara örnek olarak Chicago Üniversitesi İşletme Fakültesi’ndeki Uygulamalı Suni Zeka Merkezi, LA Tech4Good, McSilver’daki AI Hub, AI4ALL ve Algoritmik Hakkaniyet Ligi verilebilir. .
Haznede tavsiye edilen çözüm sıkıntısı yok. Devlet kurumları, sivil cemiyet kuruluşları, firmalar, kar amacı gütmeyen kuruluşlar, fikir kuruluşları ve üniversiteler, suni zekanın kötüye kullanılmasını sınırlayacak ve kullanılmasını sağlayacak kurallar, düzenlemeler, yönergeler, çerçeveler, ilkeler ve politikalar için üretken bir teklif akışı oluşturdu. zararlıdan fazlaca yararlı olan şekillerde. Beyaz Saray’ın Bilim ve Teknoloji Politikası Ofisi kısa sürede bir Suni Zeka Haklar Bildirgesi Planı’nı yayınladı. Plan uygulanamaz bir belgedir. Sadece, uygulanmış olduğu takdirde, düzenlemeye doğal olarak olmayan AI çözümlerinin yarattığı tehlikeleri büyük seviyede azaltacak olan canlandırıcı, köreltici beş ilke ihtiva eder. Planın beş temel ilkesi şunlardır:
- Güvenli olmayan yada etkisiz sistemlerden korunmalısınız.
- Algoritmalar tarafınca ayrımcılığa maruz kalmamalı ve sistemler eşitlikçi bir halde kullanılmalı ve tasarlanmalıdır.
- Yerleşik korumalar vesilesiyle fena niyetli veri uygulamalarından korunmalı ve hakkınızdaki verilerin iyi mi kullanıldığı mevzusunda bir yetkiye haiz olmalısınız.
- Otomatikleştirilmiş bir sistemin kullanıldığını bilmeli ve bunun sizi etkileyen sonuçlara iyi mi ve niçin katkıda bulunduğunu anlamalısınız.
- Uygun olduğu durumlarda dönem dışı bırakabilmeli ve karşılaştığınız sorunları hızla değerlendirip çözebilecek bir kişiye erişebilmelisiniz.
Beş ilkenin her birinin süreçlerden fazlaca sonuçlara yönelik bulunduğunu not etmek önemlidir. Cathy O’Neil, yazarı Matematik İmha Silahları, algoritmik önyargının niçin olduğu belirli zararları azaltmak için benzer sonuçlara dayalı bir yaklaşım önerdi. Sonuçlara dayalı bir strateji, bir AI yada ML çözümünün belirli kategoriler ve paydaş alt grupları üstündeki etkisine bakar. Bu tür detaylı bir yaklaşım, çözümün herhangi bir gruba zarar verip vermediğini belirleyebilecek istatistiksel testler geliştirmeyi kolaylaştıracaktır. Tesir belirlendikten sonrasında suni zeka çözümünü değişiklik yapmak ve zararı olan etkilerini azaltmak daha kolay olacaktır.
Oyunlaştırma yada kitle kaynaklı önyargı tespiti de etkili taktiklerdir. Dağıtılmadan ilkin, Twitter’ın suni zeka etik ekibi, şirket dışından araştırmacıların siyahları beyazlara yeğleyen otomatik bir fotoğraf kırpma algoritmasını incelemelerine olanak tanıyan bir “önyargı ödülü” yarışmasını başarıyla yürüttü.
Sorumluluğu İnsanlara Geri Döndürmek
Süreçler yerine sonuçlara odaklanmak, temel olarak mesuliyet yükünü suni zeka çözümünden onu çalıştıran insanlara kaydırdığı için tehlikeli sonuç öneme haizdir.
Berlin merkezli AI Yönetişimi için bir yazılım platformu olan AdalanAI’nin kurucusu Ana Chubinidze, “etik AI” ve “görevli AI” benzer biçimde terimler kullanmanın, onu kullanan insanlardan ziyade bir AI çözümünün önererek problemi bulanıklaştırdığını söylüyor. fena bir şey yaptığında görevli tutulmalıdır. Muhteşem bir noktaya değiniyor: AI, buluş ettiğimiz başka bir vasıta. Onu kullanırken etik davranma sorumluluğu bizdedir. Eğer yapmazsak, o vakit biz etik dışıyız, AI değil.
Kimin ya da neyin görevli olduğu niçin mühim? Mühim şu sebeple insanlarda sorumluluğu teşvik etmek ve uygulamak için aslına bakarsan yöntemlerimiz, tekniklerimiz ve stratejilerimiz var. Sorumluluğu öğretmek ve onu bir nesilden diğerine aktarmak, medeniyetin standart bir özelliğidir. Bunu makineler için iyi mi yapacağımızı bilmiyoruz. En azından hemen hemen değil.
Tamamen otonom suni zeka çağı ufukta görünüyor. Suni zekalara tam özerklik verilmesi onları kararlarından görevli kılar mı? Eğer öyleyse, karar verme süreçlerine kimin etiği rehberlik edecek? Bekçilere kim bakacak?
Google Research’ün başkan yardımcısı ve üyesi olan Blaise Aguera y Arcas, suni zekalara insani değerleri hakikaten anlamayı öğretme olasılıkları hakkında uzun, anlamlı ve iyi belgelenmiş bir yazı yazdı. başlıklı makalesi, Makineler iyi mi davranılacağını öğrenebilir mi? okumaya kıymet Bu, makinelerin bir hakkaniyet duygusu ve etik mesuliyet edinme olasılığı için kuvvetli bir gerekçe oluşturuyor. Sadece, bir cemiyet ve bir tür olarak, temel insan sorumluluklarını otonom suni zekalara teslim etmenin sonuçlarıyla başa çıkmaya hazır olup olmadığımızı sormak adil olur.
Bundan Sonrasında Olacaklara Hazırlanmak
Bugün, bir çok insan suni zekanın yapışkan ayrıntılarıyla ve onun cemiyet üstündeki uzun vadeli etkisiyle ilgilenmiyor. Yazılım topluluğu içinde, çoğu zaman suni zeka etiğiyle ilgili makaleler, makaleler ve konferanslarla dolup taşmışız benzer biçimde hissediyoruz. Chubinidze, “Fakat biz bir balonun içindeyiz ve balonun haricinde fazlaca azca farkındalık var” diyor. “Farkındalık devamlı ilk adımdır. O vakit bir sorunumuz olduğu ve onu çözmemiz gerektiği mevzusunda aynı fikir olabiliriz. İlerleme yavaş şu sebeple bir çok insan probleminin bilincinde değil.”
Sadece içiniz rahat olsun: Suni zeka kendi “SolarWinds anına” haiz olacak. Ve o kriz anı vardığında, toplumsal medyanın kişisel özgürlük, kurumsal mesuliyet, özgür piyasalar ve hükümet düzenlemeleri üstüne çekişmeli tartışmalar için bir parlama noktası haline gelmesine benzer şekilde, suni zeka hakikaten tartışmalı hale gelecek.
Zorluklara, yazı yazımına ve kurultay panellerine karşın, toplumsal medya büyük seviyede denetimsiz. Toplumsal medyadaki geçmiş performansımıza dayanarak, AI’yı etkili bir halde düzenlemek için cesareti toplayabileceğimizi beklemek mantıklı mı?
Yanıt Evet. AI’nın kamuoyu algısı, toplumsal medyanın kamuoyu algısından fazlaca farklıdır. İlk günlerinde toplumsal medya “zararsız” bir eğlence olarak görülüyordu; nefreti yaymak ve yanlış data yaymak için yaygın olarak nefret edilen bir platforma dönüşmesi birkaç yıl aldı. Öte taraftan, suni zekaya yönelik korku ve güvensizlik, onlarca senedir popüler kültürün temelini oluşturuyor.
Suni zekaya yönelik içgüdüsel düzeyde korku, hakikaten de taşma noktası gerçekleştiğinde ve insanoğlu seçilmiş yetkililerin suni zeka hakkında “bir şeyler yapmaları” için yaygara koparmaya başladığında, kuvvetli düzenlemeleri yürürlüğe koymayı ve uygulamayı kolaylaştırabilir.
Ayrıca AK’nin deneyimlerinden ders alabiliriz. Çeşitli paydaşların görüşlerini içeren AI Yasasının taslak versiyonu, sivil haklar kuruluşlarından “AI sistemlerinin daha geniş yasaklanması ve düzenlenmesi” için talepler üretti. Paydaşlar, “kamuya açık yada her insanın erişebileceği alanlarda fark gözetmeyen yada tadı olarak hedeflenen biyometri kullanımının yasaklanması ve sınır kontrolü ve tahmine dayalı polislik dahil olmak suretiyle suni zeka sistemlerinin kullanımına ilişkin engellemeler getirilmesi” çağrısında bulunmuş oldu. Taslak hakkında yorum yapanlar, “suni zekanın, duyguları tanımak için fizyolojik, davranışsal yada biyometrik verilere dayalı olarak kategorize edilmesinin yanı sıra polislik, göç, sığınma ve sınır yönetimi bağlamında tehlikeli kullanımlar için daha geniş bir yasağı teşvik ettiler. ”
Tüm bu fikirler, tavsiyeler ve teklifler, yavaş yavaş, insanoğlu düzenlenmemiş suni zekanın risklerini bugün olduğundan daha ciddiye almaya başladıklarında işe yarayacak olan temel düzeyde bir düşünce birliği oluşturuyor.
City Strategies LLC’nin CEO’su ve New York City’nin ilk baş teknoloji sorumlusu Minerva Tantoco, suni zekanın geleceğini düşünürken kendisini “iyimser ve bununla beraber pragmatist” olarak tanımlıyor. “İyi sonuçlar kendi kendine olmaz. Suni zeka benzer biçimde araçlar için etik, pozitif yönde sonuçlar, yönergeler, vasıta takımları, testler ve şeffaflık geliştirmeye yönelik etken bir yaklaşım gerektirecektir. İyimserim fakat suni zekanın kullanımını ve tesirini etken bir halde ele almalı ve sorgulamalıyız” diyor.
Tantoco, “Bir cemiyet olarak, suni zekanın sağlığımız, mali durumumuz, istihdamımız yada gördüğümüz mesajlar olsun, günlük yaşamlarımız üstündeki tesirini anlamanın hemen hemen başındayız” diyor. Gene de, “suni zekanın doğru ve adil olması için kasıtlı olarak kullanılması gerektiğine dair artan farkındalıkta bir ümit deposu” görüyor. pozitif yönde neticeleri güvence eder.”