Kararlı Difüzyon
Future of Life Enstitüsü Çarşamba günü bir rapor yayınladı. açık mektup web sitesinde, yapay zeka laboratuvarlarını “yapay zeka sistemlerinin eğitimini en az 6 ay süreyle derhal duraklatmaya” çağırıyor. GPT-4Elon Musk ve birkaç önde gelen yapay zeka araştırmacısı tarafından imzalanan mektup, hızla yayılmaya başladı. dikkat çekmek basında – ve bazı eleştiri sosyal medyada
Bu ayın başlarında, OpenAI yayınlandı GPT-4, kompozisyon görevlerini yerine getirebilen ve iddiaya göre insan düzeyinde standartlaştırılmış testleri geçtiği iddia edilen bir AI modeli, ancak bu iddialar hala araştırma tarafından değerlendiriliyor. Ne olursa olsun, GPT-4 ve Bing Sohbetleri önceki AI modellerine göre yeteneklerde ilerleme bazı uzmanları korkuttu süper akıllı AI sistemlerine daha önce beklenenden daha hızlı gittiğimize inananlar.
Bu doğrultuda, Future of Life Enstitüsü, AI’daki son gelişmelerin, tahmin edilmesi veya kontrol edilmesi zor olan AI modellerini geliştirmek ve uygulamak için “kontrolden çıkmış bir yarışa” yol açtığını savunuyor. Bu AI sistemlerinin planlama ve yönetim eksikliğinin endişe verici olduğuna ve güçlü AI sistemlerinin ancak etkileri iyi anlaşıldığında ve yönetilebilir olduğunda geliştirilmesi gerektiğine inanıyorlar. Mektupta yazdıkları gibi:
Kapsamlı araştırmaların gösterdiği ve üst düzey yapay zeka laboratuvarları tarafından kabul edildiği üzere, insan-rekabet zekasına sahip yapay zeka sistemleri, toplum ve insanlık için büyük riskler oluşturabilir. Yaygın olarak onaylanan açıklamada belirtildiği gibi Asilomar Yapay Zeka İlkeleriGelişmiş yapay zeka, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve buna uygun özen ve kaynaklarla planlanmalı ve yönetilmelidir.
Mektup özellikle, “tüm işlerin” yapay zekaya verilmesi ve uygarlığın “kontrolünün kaybedilmesi” de dahil olmak üzere, bazıları yapay zeka topluluğunun bazı kesimlerinde oldukça tartışmalı olan varsayımsal senaryoları varsayan dört yüklü soru soruyor:
- “Meli makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin mi vereceğiz?”
- “Meli tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştiriyoruz?“
- “Meli sonunda sayıca üstün olabilecek, zekâsı geçebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştiriyoruz?”
- “Meli medeniyetimizin kontrolünü kaybetme riskine mi giriyoruz?”
Mektup, bu potansiyel tehditleri ele almak için AI laboratuvarlarını “GPT-4’ten daha güçlü AI sistemlerinin eğitimini en az 6 ay boyunca derhal duraklatmaya” çağırıyor. Duraklama sırasında yazarlar, yapay zeka laboratuvarlarının ve bağımsız uzmanların yapay zeka tasarımı ve geliştirmesi için ortak güvenlik protokolleri oluşturmak üzere işbirliği yapmasını öneriyor. Bu protokoller, bağımsız dış uzmanlar tarafından denetlenecek ve AI sistemlerinin “makul bir şüphenin ötesinde güvenli” olmasını sağlamalıdır.
Bununla birlikte, “GPT-4’ten daha güçlü” ifadesinin aslında pratik veya düzenleyici anlamda ne anlama geldiği açık değildir. Mektup, bir sistemin göreli gücünü ölçerek uyumluluğu sağlamanın bir yolunu belirtmez. çok modlu veya büyük dil modeli. Ayrıca, OpenAI’nin sahip olduğu özellikle kaçınılması GPT-4’ün nasıl çalıştığıyla ilgili teknik ayrıntıları yayınlamak.
Future of Life Institute, 2014 yılında biyoteknoloji, nükleer silahlar ve iklim değişikliği de dahil olmak üzere insanlığın karşı karşıya olduğu varoluşsal risklerle ilgilenen bir grup bilim insanı tarafından kurulmuş, kar amacı gütmeyen bir kuruluştur. Ek olarak, AI’dan kaynaklanan varsayımsal varoluşsal risk, grup için önemli bir odak noktası olmuştur. Binaen Reuters’eorganizasyon öncelikle Londra merkezli etkili özgecilik grubu olan Musk Vakfı tarafından finanse edilmektedir. Kurucular SözüVe Silikon Vadisi Topluluk Vakfı.
Mektubu imzalayan önemli isimler Reuters muhabiri tarafından doğrulandı bahsi geçen Tesla CEO’su Elon Musk, AI öncüleri Yoshua Bengio ve Stuart Russell, Apple kurucu ortağı Steve Wozniak, Stability AI CEO’su Emad Mostaque ve yazar Yuval Noah Harari. Açık mektup, İnternet’teki herkesin doğrulama olmaksızın imzalaması için mevcuttur; bu, başlangıçta eski Microsoft CEO’su Bill Gates, OpenAI CEO’su Sam Altman ve kurgusal karakter gibi bazı yanlış eklenmiş isimlerin dahil edilmesine yol açtı. John Wick. Daha sonra bu isimler kaldırıldı.