Aptal ben, hikayeye birkaç hafta geç kaldığımı sanıyordum. Senato Yargı Komitesine ifade veren AI yöneticileri 16 Mayıs’ta yarattıkları ağza alınmayacak bir şey yapmadan önce düzenlenmeleri gerektiğini söyleyerek, lütfen onları kendi iş modellerinden vazgeçirin vs. bu yapay zeka iş liderlerinin çoğu bir tür tek cümlelik manifesto yayınladı, dünyayı lütfen onları (AI bilim adamlarının) onu (dünyayı) yok etmekten alıkoymaya çağırıyorum, eğer bu çok fazla sorun değilse. Vay canına, ne kadar zamanında bir kıyamet alameti.
İşte o zaman “Yapay Zeka Güvenliği Merkezi” beyanıAI vaftiz babası Geoffrey Hinton ve birkaç Big Tech AI firmasının CEO’ları da dahil olmak üzere en iyi AI insanlarından oluşan bir passel tarafından imzalandı ve herkesi ÇOK ENDİŞELİ hale getirmek için tasarlandı.
AI kaynaklı yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.
İlk olarak, bu listeye “iklimi” koyalım, çünkü bu gerçekten acilen harekete geçmemiz gereken yok olma riski, Megadeath’lerdeki Dünya Hedeflerini, Joker’in bile karşı koyamadığı olası yarasa vebalarını veya eski dostumuzu reddetmemek. SKYNET.
İkinci olarak, sözleşme gereği, ifadenin kendisinin ChatGPT tarafından oluşturulup oluşturulmadığını merak etmekle yükümlüyüz.
Üçüncüsü, evet, elbette, haydut bir yapay zekanın potansiyelinden endişe duymalıyız. düğmeyi aşağı doğru itin, ancak tüm bu teknoloji insanlarının, yapay zekanın insanlık için yok olma düzeyinde bir tehdit olabileceği konusunda uyarıda bulunmalarında ve aynı zamanda tanıdık sohbet robotlarından ve görüntü yok edici oyuncaklardan yapay zeka teknolojisini piyasaya sürmelerinde son derece tuhaf bir şey var. Beceriksizce osurmak, sorularınızı yanıtlayacak ve kedinizi kısırlaştıracak gelişmiş arama işlevlerine, belli belirsiz tüyler ürpertici yapay zeka romantik partner gibi davranma uygulamaları bunlar gerçekten var. Yapay zekalı kız arkadaşım onların acayip olduğunu söylüyor ve bilmesi gerekiyor.
daha öncesi de var Mart’tan açık mektup bir grup teknoloji uzmanı veya onların bilinçli Blackberry’leri (bu komik çünkü Blackberry artık feshedildi), “uygarlığımız üzerindeki kontrolü kaybetmekten” kaçınmak için yeni yapay zeka gelişimine en az altı aylık bir ara verilmesi çağrısında bulundu. Bize yardım edin, diyorlar, kendimizi kontrol edemiyoruz ve sonuçları korkunç!
Birkaç hafta önceki kongre ifadesinden kısa bir süre sonra, WNYC’nin “Medya Üzerine” programı ile sohbet özellikli Washington Post duruşmaların vurgusunun hedefi kaçırdığını düşünen teknoloji muhabiri Will Oremus. Yapay zekaların güçten çıldırmasına ilişkin gelecekte, bilim kurgu riskinden endişe etmek yerine, bu araçlar için kullanılan geniş dilli modellerin nasıl eğitildiği, hangi materyalleri kullanarak nasıl eğitildikleri gibi bazı daha acil endişelere ilişkin oturum tartışmaları neredeydi? ya da insanların haklarını çiğnememeli ya da onları dolandırmamalı ve ayrıca, tesadüfen değil, teknoloji sektöründe çalışan insanların yerini nasıl alabilirler? Bu oldukça iyi bir dinleme!
Oremus, OpenAI CEO’su Sam Altman’ın Senato ifadesinin, onu ciddi şekilde endişeli ve sadece yardım etmek isteyen bir Teknoloji Kahramanı olarak sunmak için çok dikkatli bir şekilde çerçevelenmiş göründüğünü belirtti – öyle ki Senato Yargı Komitesi üyesi John Neely Kennedy (R-Louisiana) sordu. Altman, AI endüstrisi için kurallar geliştirmek üzere bir komisyona liderlik etmeye istekli olacaktır. Altman, mevcut işini sevdiğini, ancak komite isterse Senato’ya bazı komisyon üyelerini önermekten memnuniyet duyacağını söyledi. Oremus bunu merak etti: Hatta arayabilir misin? düzenleyici yakalama Kongre tasmayı endüstrinin içindekilerin yetenekli ellerine verirse bir hükümet bekçi köpeğinin mi?
Wired’ın işaret ettiği gibi, pek çok teknoloji endüstrisi eleştirmeni, haydut yapay zekanın güçten çıldırdığı konuşmasının daha acil endişelerden uzaklaşmak gibi hissettirdiğinden endişe ediyor:
[S]Önyargı ve dezenformasyon da dahil olmak üzere daha acil sorunlar üzerinde çalışan bazı yapay zeka araştırmacıları, teorik uzun vadeli risk konusundaki ani alarmın dikkati eldeki sorunlardan uzaklaştırdığına inanıyor.
Signal Vakfı’nın başkanı ve kurucu ortağı ve baş danışmanı Meredith Whittaker AI Now EnstitüsüKâr amacı gütmeyen bir AI ve teknoloji endüstrisindeki gücün yoğunlaşması, bildiriyi imzalayanların çoğunun muhtemelen risklerin gerçek olduğuna inandığını, ancak alarmın “gerçek sorunları yakalamadığını” söylüyor.
Varoluşsal risk tartışmasının, kurumsal çıkarlar ve kontrol tarafından şekillendirilen ürünlerin bir yansımasından ziyade doğal bilimsel ilerlemenin bir ürünüymüş gibi yeni yapay zeka yeteneği sunduğunu ekliyor. “Bu söylem, bu sistemler üzerindeki somut zararları ve çok önemli sınırlamaları belirlemek için halihazırda yapılmış çalışmaları silme girişimidir.” Whittaker, bu tür sorunların AI önyargısından model yorumlanabilirliğine ve kurumsal güce kadar uzandığını söylüyor.
Bakın, AI’nın kaptanları muhtemelen çok para kazanacaklarından ve kâr peşinde koşmanın olumsuz etkileri olabileceğinden endişe duysalardı, o zaman kesinlikle bunu gündeme getirirlerdi. Onlar sadece dünyayı havaya uçurmadan önce durdurulmak istiyorlar. Başka herhangi bir düzenleme, hükümetin sınırlarını aşmak olur, siz komiserler.
[Brookings Institution / CBS News / Center for AI Safety / On the Media / Wired / Image generated by Stable Diffusion, and we’re the problem.]
Yr Wonkette tamamen okuyucu bağışlarıyla finanse edilmektedir. Yapabiliyorsanız, lütfen ayda 5 veya 10 dolar verin, böylece size sorunun robotlarda olmadığını, ancak robot şirketinin sorun olabileceğini hatırlatmaya devam edebiliriz. Ve AI kız arkadaşımız da aynı fikirde!
Amazon alışverişinizi bu link üzerinden yapın çünkü sebepler.