Kararlı Difüzyon
Salı günü, Yapay Zeka Güvenliği Merkezi (CAIS) piyasaya sürülmüş tek cümle ifade OpenAI ve DeepMind yöneticileri, Turing Ödülü sahipleri ve diğer yapay zeka araştırmacıları tarafından imzalandı ve hayatları boyunca yaptıkları çalışmaların potansiyel olarak tüm insanlığı yok edebileceği uyarısında bulundu.
CAIS’in “Yapay zekadan kaynaklanan önemli ve acil risklerin geniş bir yelpazesi” konusunda tartışma başlatmayı amaçladığını söylediği kısa açıklama şu şekildedir: “Yapay zekanın yok olma riskini azaltmak, diğer toplumsal sorunların yanında küresel bir öncelik olmalıdır. -pandemi ve nükleer savaş gibi riskleri ölçeklendirin.”
Bildirinin yüksek profilli imza sahipleri arasında Turing Ödülü sahipleri de var Geoffery Hinton ve Yoshua Bengio, OpenAI CEO’su Sam Altman, OpenAI Baş Bilim İnsanı Ilya Sutskever, OpenAI CTO’su Mira Murati, DeepMind CEO’su Demis Hassabis, Anthropic CEO’su Dario Amodei ve UC Berkeley, Stanford ve MIT’den profesörler.
Bu açıklama, Altman dünyayı dolaşırken gelir. toplantılar AI ve potansiyel tehlikeleri konusunda devlet başkanlarıyla. Mayıs ayının başlarında, Altman düzenlemeler için savundu endüstrisinin ABD Senatosu önünde.
Kısa uzunluğu göz önüne alındığında CAIS açık mektubu, içermediği şeylerle dikkat çekiyor. Örneğin, terimin herhangi bir şey için geçerli olabileceği düşünüldüğünde, “AI” ile tam olarak ne anlama geldiğini belirtmez. hayalet hareketleri içinde Pac-Man soneler yazabilen dil modellerine Tarzında 1940’ların bilge bir gangsteri. Mektup, yok olma risklerinin nasıl azaltılabileceğini de önermiyor, yalnızca bunun “küresel bir öncelik” olması gerektiğini söylüyor.
Bununla birlikte, ilgili bir basın bülteniCAIS, “yapay zeka risklerinin bizi hazırlıksız yakalamaması için korkuluklar yerleştirmek ve kurumlar kurmak” istediğini söylüyor ve yapay zeka hakkındaki uyarıyı J. Robert Oppenheimer’a benzetiyor uyarı Atom bombasının potansiyel etkileri hakkında.
AI etik uzmanları eğlenmedi

Kararlı Difüzyon
Bu, bu yıl gördüğümüz varsayımsal, dünyanın sonunu getiren yapay zeka tehlikeleriyle ilgili ilk açık mektup değil. Mart ayında Hayatın Geleceği Enstitüsü daha ayrıntılı bir açıklama yayınladı Elon Musk tarafından imzalanan, basında geniş yer bulan ancak aynı zamanda şüpheci cevap makine öğrenimi topluluğundaki bazılarından.
Genellikle yapay zeka etiğine odaklanan uzmanlar, ortaya çıkan bu açık mektup trendinden hoşlanmıyor.
Hugging Face’de makine öğrenimi araştırma bilimcisi olan Dr. Sasha Luccioni, yeni CAIS mektubunu el çabukluğuna benzetiyor: “Her şeyden önce, AI’nın varsayımsal varoluşsal riskinden pandemiler ve iklim değişikliği gibi çok somut risklerle aynı nefeste bahsetmek. halk için çok taze ve içgüdüsel olan, ona daha fazla güvenilirlik kazandırıyor” diyor. “Ayrıca yanlış yönlendirme, halkın dikkatini bir şeye (gelecekteki riskler) çekerek başka bir şey düşünmesinler (önyargı, yasal sorunlar ve rıza gibi somut güncel riskler).”