1986’da Princeton filozofu Harry Frankfurt’un pek tanınmayan bir dergi olan Raritan’da “On Bullshit” (Saçmalık Üzerine) başlıklı bir makale yayınlamasından bu yana çok şey değişti. Yine de, daha sonra ince bir çok satan olarak yeniden yayınlanan makale, sinir bozucu bir şekilde alakalı olmaya devam ediyor. Frankfurt’un dahiyane içgörüsü, saçmalığın hakikat ve yalanlar dünyasının dışında yattığıydı. Bir yalancı, gerçeği önemser ve onu karartmak ister. Bir saçmalık, sözlerinin doğru olup olmadığına kayıtsızdır: “Amacına uygun olarak onları seçer veya uydurur.”
Tipik bir 20. yüzyıl yazarı için Frankfurt, zırvalığı “o” veya “onlar” yerine “o” olarak tanımladı. Ama şimdi yıl 2023, zırvalıktan “o” olarak bahsetmek zorunda kalabiliriz çünkü yeni nesil sohbet robotları, hayal bile edilemeyecek bir ölçekte saçmalık üretmeye hazırlanıyor.
Queensland Üniversitesi’nden bir ekonomist olan David Smerdon, önde gelen sohbet robotu ChatGPT’ye “Tüm zamanların en çok alıntı yapılan ekonomi makalesi hangisidir?” diye sorduğunda ne olduğunu bir düşünün. ChatGPT, bunun 1969’da Journal of Economic History’de yayınlanan ve o zamandan beri 30.000’den fazla alıntı yapılan, Douglass North ve Robert Thomas tarafından yazılan “A Theory of Economic History” olduğunu söyledi. Makalenin “iktisat tarihi alanında bir klasik olarak kabul edildiğini” ekledi. Bazı yönlerden iyi bir cevap. Diğer açılardan iyi bir cevap değil çünkü kağıt yok.
ChatGPT bu makaleyi neden icat etti? Smerdon şu şekilde spekülasyon yapıyor: En çok alıntı yapılan ekonomi makalelerinde genellikle “teori” ve “ekonomik” sözcükleri geçiyor; eğer bir makale “bir ekonomik teori” başlatıyorsa. . . ” Daha sonra ” . . . tarih” muhtemelen bir devamıdır. Nobel ödüllü Douglass North, çok alıntı yapılan bir ekonomi tarihçisidir ve Robert Thomas ile birlikte bir kitap yazmıştır. Başka bir deyişle, alıntı muhteşem bir şekilde makul. ChatGPT’nin ele aldığı şey gerçek değildir; inandırıcılıktır.
Ve başka türlü nasıl olabilir? ChatGPT’nin bir dünya modeli yoktur. Bunun yerine, insanların yazmaya eğilimli olduğu türden şeylere ilişkin bir modeli vardır. Bu, kulağa neden bu kadar şaşırtıcı derecede inandırıcı geldiğini açıklıyor. Ayrıca, chatbot’un oldukça basit bazı sorulara doğru yanıtlar vermeyi neden zor bulduğunu da açıklıyor.
Sadece ChatGPT değil. Meta’nın kısa ömürlü “Galactica” robotu, alıntılar icat etmesiyle ünlüydü. Ve bunlar sadece ekonomi gazeteleri değil. Geçenlerde Palo Alto belediye meclisine yeni seçilen yazar Julie Lythcott-Haims’den haber aldım. ChatGPT, zaferi hakkında bir hikaye yazdı. “Çok doğru oldu ve iyi yazılmış,” dedi bana. Ancak Lythcott-Haims bir siyah ve ChatGPT onun belediye meclisine seçilen ilk siyah kadın olduğunu fışkırarak anlattı. Tamamen makul, tamamen yanlış.
Rebooting AI kitabının yazarı Gary Marcus, Ezra Klein’ın podcast’inde şunları söyledi: “Ürettiği her şey akla yatkın geliyor çünkü hepsi insanların söylediği şeylerden türetilmiş. Ancak bir araya getirdiği şeyler arasındaki bağlantıları her zaman bilmiyor.” Bu da Klein’ın “Saçmalığın maliyetini sıfıra indirmek ne anlama geliyor” sorusunu gündeme getirdi?
Uzmanlar, konfabulasyon sorununun ne kadar ciddi olduğu konusunda hemfikir değiller. ChatGPT çok kısa bir sürede kayda değer bir ilerleme kaydetti. Belki de gelecek nesil, bir veya iki yıl içinde bu sorundan muzdarip olmayacak. Marcus aksini düşünüyor. Sözde gerçeklerin, bu yapay zeka sistemlerinin nasıl inşa edildiğine dair temel bir yeniden düşünmeden ortadan kalkmayacağını savunuyor.
Bu soru üzerinde spekülasyon yapacak yetkinliğe sahip değilim, ancak bir şey yeterince açık: Dünyada zırvalık için çok fazla talep var ve eğer yeterince ucuzsa, muazzam miktarlarda tedarik edilecek. Artık kendimizi spam, gürültü ve boş viralliğe karşı ne kadar titizlikle savunmamız gerektiğini bir düşünün. Ve çevrimiçi dünya kimsenin yazmadığı ilginç metinlerle veya var olmayan insanların ve yerlerin büyüleyici fotoğraflarıyla dolduğunda bunun ne kadar zor olacağını bir düşünün.
Başlangıçta tıklamalar ve dolayısıyla reklam geliri için sansasyonel hikayeler uyduran bir grup Makedon gencine atıfta bulunan ünlü “sahte haberler” sorununu düşünün. Amaçları aldatmak değildi; onların amacı dikkat çekmekti. Makedon gençler ve ChatGPT aynı noktayı gösteriyor. Gerçeğe saygı duyarak sınırlanmıyorsanız, ilginç hikayeler üretmek çok daha kolaydır.
Saçmalık sorunu hakkında 2016’nın başlarında, Brexit referandumu ve Donald Trump’ın seçilmesinden önce yazmıştım. O zamanlar kötüydü; şimdi daha kötü Trump, Fox News’te bazı yanlış iddiaları retweetlemesiyle ilgili sorgulandıktan sonra, “Hey, Bill, Bill, her istatistiği kontrol edecek miyim?” ChatGPT de aynı şeyi söyleyebilir.
Haklı olmayı umursuyorsan, evet, kontrol etmelisin. Ama fark edilmeyi, beğenilmeyi ya da inanılmayı umursuyorsan, o zaman gerçek arızidir. ChatGPT pek çok doğru şey söylüyor, ancak bunları yalnızca inandırıcı görünmeyi öğrenmenin bir yan ürünü olarak söylüyor.
Chatbot’lar son birkaç yılda büyük ilerleme kaydettiler, ancak 20. yüzyılın ilkel chatbot’ları bile mükemmel bir şekilde insan dikkatini çekme yeteneğine sahipti. MGonz, Turing testini 1989’da farkında olmadan bir insana hakaretler yağdırarak geçti ve o da bir dizi hakaretle karşılık verdi. Erken dönem sohbet robotlarının en ünlüsü olan ELIZA, dertlerini dinliyormuş gibi görünerek insanları büyülerdi. “Bana daha fazlasını anlat” derdi. “Neden böyle hissediyorsun?”
Bu basit sohbet robotları, insanları konuşma seviyelerine çekmeye yetti. Bu, sohbet robotlarının angajman kurallarını seçmesine izin vermemek için bir uyarı olmalıdır.
Harry Frankfurt, zırvalığın gerçeğe karşı çıkmadığı, ancak “buna hiç aldırış etmediği” konusunda uyardı. Bu nedenle saçmalık, gerçeğin yalandan daha büyük düşmanıdır.” Dikkatli olun: saçmalık söz konusu olduğunda, niceliğin kendine has bir niteliği vardır.
için yazılmış ve ilk kez yayınlanmıştır. Finans Zamanları 10 Şubat 2023’te.
İlk çocuk kitabım, Gerçek Dedektifi 15 Mart’ta çıkıyor (henüz ABD veya Kanada değil – üzgünüm).
Bookshop’ta bir vitrin kurdum Amerika Birleşik Devletleri ve Birleşik Krallık. Bookshop ve Amazon’a verilen bağlantılar yönlendirme ücretlerine neden olabilir.