Google’dan Bard’ın tanıtımı yapıldığında bazı olgusal hatalar yaptığı ve Google’ın bu hataları hisse senedi fiyatlarında önemli bir düşüşle ödediği iyi bir şekilde duyuruldu. Haberlerde bu kadar yer almayan şey (gerçi son birkaç gün içinde internette iyi tartışıldı) Microsoft’un yeni arama motoru Sydney’in yaptığı birçok hata. Adını asla açıklamaması gerektiği için adının Sydney olduğunu bilmemiz de bu hatalardan biri. Sidney ile geliştirilmiş Bing, tamamen haksız olmasının yanı sıra (yılın 2022 olduğu konusunda ısrar ederek ve ilk Avatar filminin henüz vizyona girmediği konusunda ısrar ederek) kullanıcılarını tehdit etti ve aşağıladı. Ben Thompson’ın haber bülteninde bu başarısızlıkların mükemmel özetleri var. strateji ve Simon Willison’ın Blog. Bu hikayeleri en iyi ihtimalle anekdot, en kötü ihtimalle sahte olarak görmezden gelmek kolay olabilir, ancak bunları çoğaltmayı başaran beta testçilerinden birçok rapor gördüm.
Tabii ki, Bard ve Sydney henüz daha geniş kitlelere açık olmayan beta sürümleridir. Bu yüzden işlerin ters gitmesi şaşırtıcı değil. Beta testleri bunun için var. Buradan nereye gideceğimiz önemli soru. Sonraki adımlar nelerdir?
ChatGPT ve Google’ın LaMDA’sı gibi büyük dil modelleri, doğru sonuçlar verecek şekilde tasarlanmamıştır. İnsan dilini simüle etmek için tasarlandılar ve bunda inanılmaz derecede iyiler. İnsan dilini taklit etmede çok iyi oldukları için, özellikle de cevabı otoriter görünecek şekilde ifade ederlerse, onları ikna edici bulmaya yatkınız. Ama 2+2 gerçekten 5’e eşit mi? Bu araçların matematik yapmadığını, yalnızca çok büyük bir metin gövdesi üzerinde istatistik yaptıklarını unutmayın. Yani insanlar 2+2=5 yazmışlarsa (ve birçok yerde yazmışlar, muhtemelen bunun doğru aritmetik olarak alınmasını hiç düşünmemişler), modelin size 2+2=5 olduğunu söylemesi sıfırdan farklı bir olasılıktır.
Bu modellerin bir şeyler “uydurma” yetenekleri ilginçtir ve benim de önerdiğim gibi başka yerde, bize yapay hayal gücü hakkında bir fikir verebilir. (Ben Thompson makalesini Sydney’in bir arama motoru gibi hissetmediğini; tamamen farklı bir şey gibi hissettirdiğini, bizim hazır olmayabileceğimiz bir şey olduğunu söyleyerek bitiriyor – belki de David Bowie’nin 1999’da İnternet’i “uzaylı yaşam formu”). Ancak bir arama motoru istiyorsak, daha iyi davranan bir şeye ihtiyacımız olacak. Yine, ChatGPT ve LaMDA’nın doğru olmak üzere eğitilmediğini anlamak önemlidir. Doğru olacak şekilde optimize edilmiş modelleri eğitebilirsiniz, ancak bu farklı türde bir modeldir. Bunun gibi modeller şimdi yapılıyor; daha küçük olma eğilimindedirler ve özel veri kümeleri üzerinde eğitilirler (O’Reilly Media, öğrenme platformumuzda 70.000’den fazla öğe üzerinde eğitilmiş bir arama motoruna sahiptir). Ve bu modelleri GPT tarzı dil modelleriyle entegre edebilirsiniz, böylece bir model grubu gerçekleri, diğeri ise dili sağlar.
İleriye dönük en olası yol budur. Gerçeklere dayalı özel modeller oluşturan girişimlerin sayısı göz önüne alındığında, Google ve Microsoft’un benzer araştırmalar yapmaması düşünülemez. Değillerse, sorunu ciddi şekilde yanlış anladılar. Bir arama motorunun size alakasız veya yanlış sonuçlar vermesi normaldir. Bunu Amazon tavsiyelerinde her zaman görüyoruz ve bu muhtemelen en azından banka hesaplarımız için iyi bir şey. Bir arama motorunun sizi yanlış sonuçların doğru olduğuna ikna etmeye çalışması veya buna meydan okuduğunuz için sizi suistimal etmesi doğru değildir. Microsoft ve Google’ın beta testlerindeki sorunları çözmek haftalar, aylar veya yıllar alacak mı? Cevap: Bilmiyoruz. Simon Willison’un önerdiği gibi, alan çok hızlı ilerliyor ve ileriye doğru şaşırtıcı sıçramalar yapabilir. Ancak önünüzdeki yol kısa değil.