Kısmen Apple belgesinden büyük dil modellerinin sınırları üzerindeydi (“Düşünce yanılsaması: Sorunların karmaşıklığı yoluyla akıl yürütme modellerinin güçlü yönlerini ve sınırlarını anlamak“), Tower of Hanoi ile oynamak için biraz zaman geçirdim. Yaklaşık 50 yıl önce üniversitedeyken çözdüğüm bir problem ve o zamandan beri tekrar ziyaret etmem ya da onu tekrar ziyaret etmem gerekiyor. Tabii ki” Pernza “ve her şey. Dizliliğimde çalışabilirim.
Her şeyden önce Qwen’e Hanoi Kulesi sorununa aşina olup olmadığını sordum. Tabii ki öyleydi. Oyunu açıkladıktan sonra, onu çözmek için bir Python programı yazmasını istedim, komut satırından alınan disk sayısı. Sonuç, üniversiteye yazdığım program hakkında çok benziyor (bunun hariç, Python’dan çok önce – sanırım PL/1 lehçesi kullandım). Onu yönettim ve mükemmel çalıştım.
Çıktı biraz utanç vericiydi (sadece bir hareket listesi), bu yüzden onu terminalde canlandırmasını istedim. Terminal animasyonu gerçekten tatmin edici değildi, bu yüzden birkaç denemeden sonra ondan bir grafik animasyonu denemesini istedim. Bundan daha fazla bilgi vermedim. Python’u kullanarak başka bir program oluşturdu tkinter kütüphane. Ve yine, bu mükemmel bir şekilde çalıştı. Güzel bir manzara yarattı, animasyonu gördüğümde, sorunu baş aşağı çözdüğünü fark ettim! Büyük kayıtlar, daha küçük kayıtların en üstünde idi, tam tersi değil. Açık olmak istiyorum: çözüm kesinlikle doğruydu; Kuleleri tersine çevirmenin yanı sıra, daha büyük bir diskin üzerine daha küçük bir disk koymaması için disklerin hareketini tersine çevirdi. Diskleri bir piramitte (“normal” yol) istiflediyseniz ve aynı hareketleri yaptıysanız, doğru sonucu elde edersiniz. Simetri ftw.
Bu yüzden Qwen’e çözümün baş aşağı olduğunu ve onu çözmesini istediğini söyledim. Uzun süre düşündü ve sonunda bana görselleştirmeye yanlış bakmam gerektiğini söyledi. Belki kafamda olmam gerektiğini düşündüm? Başka bir şey yoksa, bu llms de pislik olabilir. Tıpkı 10x programcı gibi. Belki AGI için bir tartışma?
Cidden, burada bir nokta var. Yapay zekanın sınırlarını aramak kesinlikle önemlidir. LLM akıl yürütmesinin, çok fazla akıl yürütme gerektiren ve sadece ılımlı bir akıl yürütme bütçesi gerektiren sorunlarda daha başarılı olan sorunları terk etme eğiliminde olması kesinlikle ilginçtir. İlginç, ama şaşırtıcı mı? Çok zor problemler bir nedenden dolayı çok zor problemlerdir: çok zordurlar. Ve çoğu insan aynı şekilde davranıyor: Çözmesi çok zor bir sorun karşısında vazgeçiyoruz (veya cevabı arıyoruz).
Ama aynı zamanda “akıl yürütme” ile ne demek istediğimizi de düşünmeliyiz. Qwen’in Hanoi Kulesi’ni çözebileceğinden şüphem yoktu. Sonuçta, çözümler yüzlerce GitHub depoları, taşma ve çevrimiçi öğretici sorularda olmalıdır. Bir kullanıcı olarak, Qwen harici bir kaynakta çözümü ararsa biraz daha az ilgileniyorum? Hayır, çıktı doğru olduğu sürece bilmiyorum. Bence bu Qwen’in “akıl yürütme” olmadığı anlamına mı geliyor? Engellendiğimiz tüm antropomorfizmi görmezden gelmek, hayır. Makul bir insan ve akıl yürütmeden zor bir sorunu çözmesi istenirse, ne yapacağız? Sorunu çözmek için bir süreç aramaya çalışıyoruz. Sürecin doğru olduğunu doğruluyoruz. Ve bu süreci çözümümüzde kullanıyoruz. Bilgisayarlar alakalı ise, kalem ve kağıt üzerinde çözmek yerine bunları kullanacağız. Neden LLM’den farklı bir şey bekliyoruz? Birisi bana Hanoi Kulesi’ni 15 diskle (32.767 hamle) çözmem gerektiğini söylese, algoritmayı bilsem bile beni başlangıç ve son arasında bir yerde kaybettiğimden eminim. Ama el hareketlerini listelemeyi bile düşünmezdim; Bir program yazardım (Qwen tarafından oluşturulan gibi) ve hareketleri indirmesini sağlayacağım. Tembellik bir erdemdir– Bu Larry Wall ( Palavra) Bize öğretti. Akıl yürütme budur: Çözümü zor bir iş kadar kolay aramak meselesidir.
Yakın zamanda okuduğum bir blog yazısı benzer bir şey bildirdi. Birisi Opens’s O3’ü sordu Klasik bir satranç problemini çöz Paul Morphy (muhtemelen 19. yüzyılın en büyük satranç oyuncusu). Yapay zeka, sorunu çözme girişimlerinin yanlış olduğunu anladı, bu yüzden çevrimiçi yanıtı aradı, bir yanıt olarak kullandı ve cevabın neden doğru olduğuna dair iyi bir açıklama yaptı. Bu, sorunu çözmek için mükemmel makul bir yoldur. LLM, zor bir boşluk problemini çözmede sevinç, doğrulama yok; Bir gerçekleşme hissi hissetmiyor. Sadece bir cevap veriyor. Her ne kadar yapay zeka araştırmacılarının görmek istedikleri akıl yürütme türü olmasa da, çevrimiçi yanıtı arayın ve cevabın neden doğru olduğunu açıklayın, insana benzer akıl yürütmenin harika bir gösterisi. Belki de bu bir araştırmacının bakış açısından bir “akıl yürütme” değildir, ancak kesinlikle bir sorun çözümüdür. Modelin sorunu kendi başına çözemediğine karar verdiği bir düşünce zincirini temsil eder, bu yüzden çevrimiçi yanıtı arayın. Yapay zeka kullandığımda, sorunların çözümü aradığım şey.
AGI kültüne dönüştürülmüş olmadığımı açıklığa kavuşturmak istiyorum. Kendimi şüpheci bile görmüyorum; Ben bir inançsızım ve bu farklı. “Zeka” nın ne anlama geldiğini tanımlayamazsak, genel zekadan önemli ölçüde konuşamayız. Technorati’nin hegemonyası, “zeka” bir sayı tarafından temsil edilebilirmiş gibi, sorunların çözülmesi için metriklerden sonra bizi kovaladı. Referans parametrelerinin gerçekleştirilmesi gerekene kadar Asimov’tur, bu nedenle sayılara indirgenir. Zeka hakkında bir şeyler biliyorsak, zor sorunları çözme yeteneğini test etmek için bir referans sonuçları taşıyıcısı ile temsil edilmediğini biliyoruz.
Ancak IA, tanımlanamayan bir zekanın enkarnasyonu değilse, hala 21. yüzyılın en büyük mühendislik projesidir. İnsan dilini doğru bir şekilde sentezleme yeteneği, insan akıl yürütmesini taklit etme yeteneğinin yanı sıra önemli bir sonuçtur – ve “emülasyon”, ne yaptığının doğru bir açıklamasıdır. Ai Guarno – Bizzarri’nin dedektörleri, bence – olağanüstü faydası, IA’nın yanlış veya ciddi uygunsuz çıktılar ürettiği örneklerden alıntılanmış gibi, işe yaramaz olduğu anlamına gelir. Durum böyle değil, ancak AI’nın sınırları hakkında dikkatli düşünmek gerekir. Yapay Zeka Yardımı ile Programlama, hata ayıklama, testler ve yazılım tasarımına, son yıllarda dikkatlice baktığımız tüm temalara kesinlikle daha fazla dikkat gerektirecek ve bizimkilerden bahsediyoruz Ki Codecon Konferanslar. Gibi uygulamalar Refah başvurularında sahtekarlığı tespit edin Amsterdam şehrinin keşfettiği gibi, önyargılardan arınmış yapay zeka sistemleri inşa edene kadar yıkmak veya askıya alınmak gerekebilir. Önyargısız bina sistemleri muhtemelen matematikte zor sorunları çözmekten çok daha zordur. Çözülmeyebilecek bir sorundur: Biz insanlar kesinlikle çözmedik. Ya da nefes nefese ya da yaşlanmanın, yapay zekanın neden olduğu gerçek hasarın her iki yararlı uygulamasından da uzak durma dışında, çok az şey elde ettiğinden endişe edin.