AI “dünyaya önemli zarar verebilir” dedi.
Altman’ın ifadesi, yapay zekanın bilim kurgudan çıkıp ana akıma geçerek Silikon Vadisi’ni ve teknolojiyi halka yaymak için çalışan insanları bölerek dünyayı istila edip edemeyeceğine dair bir tartışma olarak geliyor.
Eskiden, makinelerin aniden insan seviyesindeki zekayı aşabileceği ve insanlığı yok etmeye karar verebileceğine dair uç inançlar ilgi görüyor. Ve alandaki en saygın bilim adamlarından bazıları, bilgisayarların insanları düşünmeyi öğrenip manipülatif hale gelebileceğini düşündükleri zaman için kendi zaman çizelgelerini hızlandırıyorlar.
Ancak birçok araştırmacı ve mühendis, Terminatör filmlerinde Skynet’i çağrıştıran öldürücü yapay zekalar hakkındaki endişelerin iyi bilimden kaynaklanmadığını söylüyor. Bunun yerine, dikkati teknolojinin çözdüğü çok gerçek sorunlardan uzaklaştırır. zaten neden oluyorAltman’ın ifadesinde anlattığı konular da dahil. Yaratıyor telif hakkı kaosuetrafındaki endişeleri artırıyor dijital gizlilik ve gözetleme, bilgisayar korsanlarının yeteneklerini artırmak için kullanılabilir. siber savunmaları kırmak ve hükümetlerin ölümcül silahlar konuşlandırmasına izin veriyor. insan kontrolü olmadan öldürmek.
Kötü yapay zeka hakkındaki tartışma, Google, Microsoft ve OpenAI’nin tümü, karmaşık konuşmalara girebilen ve basit metin istemlerine dayalı görüntüler yaratabilen çığır açan teknolojilerin herkese açık sürümlerini yayınladıkça hararetlendi.
Yakın zamanda bu riskler hakkında daha özgürce konuşmak için Google’daki işinden emekli olduğunu söyleyen AI’nın vaftiz babası olarak bilinen Geoffrey Hinton, “Bu bilim kurgu değil” dedi. Şimdi, daha önceki 30 ila 100 yıllık tahminine kıyasla, insandan daha akıllı yapay zekanın beş ila 20 yıl içinde burada olabileceğini söylüyor.
“Sanki uzaylılar inmiş ya da inmek üzereymiş gibi” dedi. “Bunu gerçekten anlayamıyoruz çünkü iyi İngilizce konuşuyorlar ve çok faydalılar, şiir yazabiliyorlar, sıkıcı mektuplara cevap verebiliyorlar. Ama onlar gerçekten uzaylılar.”
Yine de, Big Tech şirketlerinde, teknolojiyle yakın çalışan mühendislerin çoğu, anonimlik koşuluyla konuşan Big Tech çalışanları ile yapılan görüşmelere göre, AI devralmasının insanların şu anda endişelenmesi gereken bir şey olduğuna inanmıyor. dahili şirket tartışmalarını paylaşın.
Cohere for AI direktörü, yapay zeka girişimi Cohere’in araştırma laboratuvarı ve eski bir Google araştırmacısı olan Sara Hooker, “Bu disiplinde aktif olarak çalışan araştırmacılar arasında varoluşsal riskten çok mevcut riske odaklanılıyor” dedi.
Mevcut riskler arasında, web’den ırkçı ve cinsiyetçi bilgilerle eğitilmiş botların serbest bırakılması ve bu fikirlerin desteklenmesi yer alıyor. Yapay zekaların öğrendiği eğitim verilerinin büyük çoğunluğu İngilizce ve Kuzey Amerika veya Avrupa’dan yazılmıştır ve bu da potansiyel olarak interneti insanlığın çoğunun dillerinden ve kültürlerinden daha da saptırmıştır. Botlar ayrıca genellikle yanlış bilgiler uydurur ve bunları gerçekmiş gibi gösterir. Bazı durumlarda, üstlendikleri konuşma döngülerine itildiler. düşman insanlar. Teknolojinin dalgalanma etkileri hala belirsiz ve tüm endüstriler, örneğin avukatlar veya doktorlar gibi yüksek maaşlı işlerin bile değiştirilmesi gibi, bozulmaya hazırlanıyor.
Varoluşsal riskler daha keskin görünüyor, ancak birçoğu bunları ölçmenin daha zor ve daha az somut olduğunu iddia ediyor: Yapay zekanın insanlara aktif olarak zarar verebileceği veya hatta bir şekilde kurumlarımızın ve toplumlarımızın kontrolünü ele geçirebileceği bir gelecek.
“Bunu ‘Bak, bunlar sadece algoritmalar’ şeklinde gören bir grup insan var. Sadece internette gördüklerini tekrarlıyorlar.’ Google CEO’su Sundar Pichai, Nisan ayında “60 Dakika” ile yaptığı röportajda, bu algoritmaların yaratıcı olmak, akıl yürütmek, plan yapmak gibi ortaya çıkan özellikleri gösterdiği görüşü var. Buna alçakgönüllülükle yaklaşmamız gerekiyor” dedi.
Tartışma, son on yılda makine öğrenimi adı verilen bilgisayar bilimi alanında, insanlardan açık talimatlar olmadan büyük miktarda veriden yeni içgörüler çıkarabilen yazılımlar yaratan atılımlardan kaynaklanıyor. Bu teknoloji artık her yerde bulunuyor ve sosyal medya algoritmalarına, arama motorlarına ve görüntü tanıma programlarına güç veriyor.
Ardından, geçen yıl, OpenAI ve bir avuç başka küçük şirket, makine öğrenimi teknolojisinin bir sonraki aşaması olan üretken yapay zekayı kullanan araçları piyasaya sürmeye başladı. Büyük dil modelleri olarak bilinen ve internetten kazınmış trilyonlarca fotoğraf ve cümleyle eğitilen programlar, basit istemlere dayalı olarak görüntüleri ve metinleri canlandırabilir, karmaşık konuşmalar yapabilir ve bilgisayar kodu yazabilir.
Topluma yönelik varoluşsal riskleri incelemek için 2014 yılında kurulan Life of Life Enstitüsü’nün yönetici direktörü Anthony Aguirre, büyük şirketlerin çok az gözetimle daha akıllı makineler yapmak için birbirleriyle yarıştığını söyledi. AI’nın insanlığı yok etme olasılığını araştırmaya 2015 yılında Twitter CEO’su Elon Musk’tan bir hibe ile başladı ve yakından bağlantılı. etkili özgecilikzengin teknoloji girişimcileri arasında popüler olan hayırsever bir hareket.
Aguirre, AI insanlardan daha iyi akıl yürütme yeteneği kazanırsa, kendilerini kontrol etmeye çalışacaklarını söyledi – ve günümüz sorunlarıyla birlikte bu konuda endişelenmeye değer.
“Onları raydan çıkmaktan alıkoymak için gerekenler giderek daha karmaşık hale gelecek” dedi. “Bu, bazı bilimkurgunun oldukça iyi yakalamayı başardığı bir şey.”
Aguirre, Mart ayında dağıtılan ve yeni yapay zeka modellerinin eğitimine altı aylık bir ara verilmesi çağrısında bulunan kutuplaştırıcı bir mektubun oluşturulmasına öncülük etti. Kazanan kıdemli AI araştırmacısı Yoshua Bengio bilgisayar biliminin en yüksek ödülü 2018’de ve en etkili AI girişimlerinden birinin CEO’su Emad Mostaque, 27.000 imza arasında yer alıyor.
En yüksek profilli imza sahibi ve başlangıçta OpenAI’nin başlamasına yardımcı olan Musk, kendisi de bunu yapmaya çalışmakla meşgul. kendi yapay zeka şirketini bir araya getirmekson zamanlarda yapay zeka modellerini eğitmek için gereken pahalı bilgisayar ekipmanına yatırım yapıyor.
Musk, insanların süper zeki yapay zeka geliştirmenin sonuçları konusunda dikkatli olması gerektiğine olan inancını yıllardır dile getiriyor. ile Salı röportajında CNBC, Google’ın kurucu ortağı Larry Page’in yapay zeka tehdidi konusunda “şüphesiz” davrandığını hissettiği için OpenAI’ye fon sağlanmasına yardım ettiğini söyledi. (Musk, OpenAI ile bağlarını kopardı.)
Kendi yapay zeka modelini de geliştiren soru-cevap sitesi Quora’nın CEO’su Adam D’Angelo, mektup ve mektubun bir duraklama çağrısı hakkında, “İnsanların bunu önermek için çeşitli farklı motivasyonları var,” dedi. İmzalamadı.
Mektubun bazı kısımlarına katıldığını ancak “teknik nüans”tan yoksun olduğunu ve AI’yı düzenlemenin doğru yolu olmadığını söyleyen OpenAI CEO’su Altman da aynı fikirde değildi. Altman, şirketinin yaklaşımının, teknoloji daha da güçlenmeden önce sorunların tespit edilip düzeltilebilmesi için yapay zeka araçlarını erkenden halka sunmak olduğunu söyledi. AI üzerinde üç saatlik duruşma Salı günü.
Ancak katil robotlarla ilgili tartışmaya yönelik en ağır eleştirilerden bazıları, yıllardır teknolojinin olumsuz taraflarını inceleyen araştırmacılardan geldi.
2020’de Google araştırmacıları Timnit Gebru ve Margaret Mitchell ortak bir makale yazdı Washington Üniversitesi akademisyenleri Emily M. Bender ve Angelina McMillan-Major, büyük dil modellerinin insan konuşmasını taklit etme konusundaki artan yeteneğinin, insanların onları duyarlı olarak görmeleri için daha büyük bir risk yarattığını savunuyor.
Bunun yerine, modellerin “rastlantısal papağanlar” olarak anlaşılması gerektiğini ya da ne söylediklerine dair hiçbir fikre sahip olmadan saf olasılığa dayalı bir cümledeki bir sonraki kelimeyi tahmin etmede çok iyi olmaları gerektiğini savundular. Diğer eleştirmenler LLM’leri “steroidler üzerinde otomatik tamamlama” veya “bilgi sosisi”
Ayrıca modellerin rutin olarak nasıl cinsiyetçi ve ırkçı içerikler yaydığını da belgelediler. Gebru, gazetenin Google tarafından gizlendiğini söylüyor. konuştuktan sonra onu kovdu bu konuda. Şirket birkaç ay sonra Mitchell’i kovdu.
Google makalesinin dört yazarı bir kendi mektupları Musk ve diğerleri tarafından imzalanana yanıt olarak.
“Yapay zekanın etkin olduğu hayal ürünü bir ütopya veya kıyametle dikkatimizi dağıtmak tehlikelidir” dediler. “Bunun yerine, onları inşa ettiğini iddia eden, gücü hızla merkezileştiren ve sosyal eşitsizlikleri artıran şirketlerin çok gerçek ve çok güncel sömürücü uygulamalarına odaklanmalıyız.”
O sırada Google, Gebru’nun kovulması hakkında yorum yapmaktan kaçındı, ancak hala sorumlu ve etik yapay zeka üzerinde çalışan birçok araştırmacısı olduğunu söyledi.
Cohere for AI direktörü Hooker, modern yapay zekaların güçlü olduğuna şüphe yok, ancak bu onların yakın bir varoluşsal tehdit oldukları anlamına gelmiyor. Yapay zekanın kendisini insan kontrolünden kurtarmasıyla ilgili konuşmaların çoğu, yapay zeka düşmanı Skynet’in Terminatör filmlerinde yaptığı gibi, yapay zekanın kısıtlamalarının hızla üstesinden gelmesine odaklanıyor.
Hooker, “Teknolojideki çoğu teknoloji ve risk kademeli bir değişimdir” dedi. “Şu anda mevcut olan sınırlamalardan kaynaklanan çoğu risk bileşiği.”
Geçen sene, Google, Blake Lemoine’ı kovdu, bir Washington Post röportajında şirketin LaMDA AI modelinin bilinçli olduğuna inandığını söyleyen bir AI araştırmacısı. O zamanlar, sektördeki birçok kişi tarafından yuvarlak bir şekilde kovuldu. Bir yıl sonra, görüşleri teknoloji dünyasında yersiz görünmüyor.
Eski Google araştırmacısı Hinton, teknolojinin potansiyel tehlikeleri hakkındaki fikrini ancak son zamanlarda, en son yapay zeka modelleriyle çalıştıktan sonra değiştirdiğini söyledi. Bilgisayar programlarına, eğitildikleri internet verilerine dayanarak olası bir yanıtı tahmin etmek yerine, isteklerini genel olarak anlamalarını gerektiren karmaşık sorular sordu.
Ve Mart ayında Microsoft araştırmacıları, OpenAI’nin en son modeli olan GPT4’ü incelerken “AGI kıvılcımları”- veya yapay genel zeka, insanlar kadar kendileri için düşünebilen yapay zekalar için gevşek bir terim.
Microsoft, kendi Bing sohbet robotunda OpenAI ile ortak olmak için milyarlarca dolar harcadı ve şüpheciler, kamusal imajını yapay zeka teknolojisi etrafında inşa eden Microsoft’un, teknolojinin gerçekte olduğundan daha ileride olduğu izleniminden kazanacağı çok şey olduğuna dikkat çekti. dır-dir.
Microsoft araştırmacıları makalede, teknolojinin yalnızca eğitildiği metne dayalı olarak dünyanın uzamsal ve görsel bir anlayışını geliştirdiğini savundu. GPT4, tek boynuzlu atlar çizebilir ve yumurtalar da dahil olmak üzere rastgele nesnelerin, yumurtalar kırılmayacak şekilde üst üste nasıl istifleneceğini açıklayabilir.
Araştırma ekibi, “Dil ustalığının ötesinde, GPT-4 matematik, kodlama, vizyon, tıp, hukuk, psikoloji ve daha fazlasını kapsayan yeni ve zor görevleri herhangi bir özel yönlendirmeye ihtiyaç duymadan çözebilir” diye yazdı. Bu alanların birçoğunda, AI’nın yeteneklerinin insanlarla eşleştiği sonucuna vardılar.
Yine de araştırmacı, AI araştırmacılarının bir makinenin ne kadar akıllı olduğunu değerlendirmek için ölçülebilir standartlar belirlemeye yönelik diğer girişimlerine rağmen, “zekayı” tanımlamanın çok zor olduğunu kabul etti.
“Hiçbiri sorunsuz veya tartışmalı değil.”