“Varoluşsal risk olasılığı” olan bir teknolojiye başka bir örnek olarak nükleer enerji ile bir karşılaştırma yaptılar. Dünyanın nükleer bekçi köpeği olan Uluslararası Atom Enerjisi Kurumu’na (IAEA) benzer nitelikte bir otoriteye olan ihtiyacı artırıyor.
Önümüzdeki on yılda, “Yapay zeka sistemlerinin çoğu alanda uzman beceri düzeyini aşacağı ve günümüzün en büyük şirketlerinden biri kadar üretken faaliyetler yürüteceği düşünülebilir.” OpenAI ekip yazdı. “Hem potansiyel olumlu hem de olumsuz yönler açısından, süper zeka, insanlığın geçmişte uğraşmak zorunda kaldığı diğer teknolojilerden daha güçlü olacak. Çok daha müreffeh bir geleceğe sahip olabiliriz; ama oraya ulaşmak için riski yönetmek zorundayız.”
Açıklama, Altman’ın geçen hafta ABD merkezli şirketin CEO’sunun da ayrı bir düzenleyici kuruma ihtiyaç duyulduğuna tanıklık ettiği Kongre’deki yorumlarını yineledi.
Eleştirmenler, teknoloji endüstrisindeki kısıtlamalar olmaksızın sürekli gelişimden kâr elde etmeye hazır olan liderlerin düzenleme çağrılarına güvenmemeleri konusunda uyarıda bulundular. Bazıları, OpenAI’nin iş kararlarının bu güvenlik uyarılarıyla çeliştiğini söylüyor – çünkü hızlı sunumları bir AI silahlanma yarışı yarattı ve aşağıdakiler gibi şirketlere baskı yaptı: Google ana şirketi Alphabet politika yapıcılar hala risklerle uğraşırken ürünleri serbest bırakmak.
Çok az Washington milletvekili, gelişmekte olan teknoloji veya yapay zeka hakkında derin bir anlayışa sahip ve yapay zeka şirketleri, onlarla kapsamlı bir şekilde lobi yaptı. Washington Post daha önce bildirdiçünkü destekçiler ve eleştirmenler teknoloji politikası hakkındaki tartışmaları etkilemeyi umuyor.
Bazıları ayrıca ABD’nin rakiplerle, özellikle de Çin ile teknoloji üzerinde rekabet etme kabiliyetini engelleme riskine karşı uyarıda bulundu.
OpenAI liderleri, notlarında geliştirmenin durdurulmasına karşı uyarıda bulunuyor ve ekliyor: “Süper zekanın yaratılmasını durdurmak mantıksız bir şekilde riskli ve zor olacaktır. Artıları çok büyük olduğu için onu inşa etmenin maliyeti her yıl düşüyor ve onu inşa eden aktörlerin sayısı hızla artıyor.”
Geçen haftaki ilk kongre ifadesinde Altman, şirketinin teknolojiyi sunmaya devam edeceğini iddia ederken, AI’nın “dünyaya nasıl ciddi zarar verebileceği” konusunda uyarılarda bulundu.
Altman’ın milletvekilleriyle çalışmaya istekli olduğu mesajı, Kongre’de nispeten sıcak karşılandı, çünkü ülkeler dahil Birleşik Devletler gerektiğini kabul etmek gizlilik, güvenlik, işten çıkarmalar Ve yanlış bilgilendirme.
Duruşmadaki bir tanık, New York Üniversitesi fahri profesörü Gary Marcus, söz konusu olan “akıllara durgunluk veren” para meblağlarının altını çizdi ve OpenAI’yi yatırımcısı Microsoft’a “borçlu” olarak nitelendirdi. Mali baskının kısıtlamaları olmaksızın “bir bütün olarak insanlığa fayda sağlamak” için yapay zekayı ilerletme misyonundan şirketin sapması olarak tanımladığı şeyi eleştirdi.
Metin, resim veya ses oluşturan ChatGPT ve üretici yapay zeka araçlarının yaygınlaşması, kullanıcıların gözlerini kamaştırdı ve ayrıca düzenleme konusundaki tartışmaya aciliyet kattı.
Cumartesi günü G-7 zirvesindedünyanın en büyük ekonomilerinin liderleri, AI ilerlemeleri için uluslararası standartların bir öncelik olduğunu açıkça belirttiler, ancak risklerin nasıl ele alınacağına dair henüz önemli sonuçlar üretmediler.
Biden yönetimi yapay zekayı kilit bir öncelik haline getirdiğini söylese de, Amerika Birleşik Devletleri şimdiye kadar özellikle Avrupa’da diğerlerinden daha yavaş hareket etti. Washington’daki politika yapıcıların yıllardır kapsamlı teknoloji yasalarını geçirmemesi, yapay zeka endüstrisi için düzenlemeleri ne kadar hızlı ve etkili bir şekilde geliştirebileceklerine dair soruları gündeme getiriyor.
ChatGPT yapımcıları, “süper zekanın geliştirilmesinin” bu sistemlerin toplumla güvenli ve “sorunsuz entegrasyonuna” izin vermesini sağlamak için yapay zeka araştırması üzerinde çalışan şirketler arasında “bir dereceye kadar koordinasyon” çağrısında bulundu. Şirketler, örneğin, “sınırdaki yapay zeka kapasitesindeki büyüme oranının yılda belirli bir oranla sınırlı olduğu konusunda toplu olarak anlaşabilirler” dediler.
“Dünyanın dört bir yanındaki insanların, sınırlar ve varsayılanlar AI sistemleri için” diye eklediler ve “böyle bir mekanizmayı nasıl tasarlayacağımızı henüz bilmiyoruz” dediler.
Cat Zakrzewski, Cristiano Lima ve Will Oremus bu rapora katkıda bulundu.