OpenAI ChatGPT uygulaması için karşılama ekranı, Şubat ayında Londra’da bir dizüstü bilgisayar ekranında görüntüleniyor.
Leon Neal/Getty Images
başlığı gizle
altyazı değiştir
Leon Neal/Getty Images
OpenAI ChatGPT uygulaması için karşılama ekranı, Şubat ayında Londra’da bir dizüstü bilgisayar ekranında görüntüleniyor.
Leon Neal/Getty Images
AI uzmanları Salı günü korkunç bir uyarı yayınladı: Yapay zeka modelleri yakında bizden daha akıllı ve güçlü olabilir ve insanları kontrol altına almamalarını veya dünyayı yok etmemelerini sağlamak için sınırlar koymanın zamanı geldi.
Bir grup bilim adamı ve teknoloji endüstrisi lideri, “Yapay zekanın yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır” dedi. ifade AI Güvenlik Merkezi’nin web sitesinde yayınlandı.
ChatGPT’nin arkasındaki Microsoft destekli yapay zeka araştırma laboratuvarı OpenAI’nin CEO’su Sam Altman ve yakın zamanda Google’dan ayrılan yapay zekanın sözde vaftiz babası Geoffrey Hinton, we’re imza atan yüzlerce önde gelen isim arasında yer aldı. -krizin eşiğindeki açıklama.
Kamu ve kar amaçlı işletmeler yeni nesil programları benimserken, yapay zeka sistemlerine yönelik korkuluk çağrısı son aylarda yoğunlaştı.
Mart ayında yayınlanan ve şu anda 30.000’den fazla kişi tarafından imzalanan ayrı bir bildiride, teknoloji yöneticileri ve araştırmacılar, ChatGPT sohbet robotunun en son sürümü olan GPT-4’ten daha güçlü AI sistemlerinin eğitimine altı aylık bir ara verilmesi çağrısında bulundu.
Bir açık mektup uyardı: “Gelişmiş yapay zeka, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir.”
yakın zamanda NPR ile röportajAI’nın gelişiminde etkili olan Hinton, AI programlarının yaratıcılarını herkesin tahmin ettiğinden daha hızlı geride bırakma yolunda olduğunu söyledi.
“Uzun bir süre bundan 30 ila 50 yıl uzakta olduğumuzu düşündüm. … Şimdi, bundan çok daha yakın olabileceğimizi düşünüyorum, belki de bundan sadece beş yıl uzaktayız” diye tahminde bulundu.
Yapay Zeka Güvenliği Merkezi direktörü Dan Hendrycks, twitter dizisi yakın gelecekte yapay zekanın “sistemik önyargı, yanlış bilgi, kötü niyetli kullanım, siber saldırılar ve silahlandırma” gibi acil riskler oluşturduğunu.
Toplumun yapay zekanın yarattığı tüm riskleri aynı anda ele almaya çalışması gerektiğini de sözlerine ekledi. “Toplumlar aynı anda birden fazla riski yönetebilir; ‘ya/ya da’ değil, ‘evet/ve’dir. dedi. “Risk yönetimi açısından bakıldığında, mevcut zararlara özel olarak öncelik vermek nasıl pervasızlık olacaksa, onları görmezden gelmek de pervasızlık olacaktır.”
NPR’den Bobby Allyn bu hikayeye katkıda bulundu.