Aurich Lawson | Getty Resimleri
Son birkaç ayda, yapay zeka sohbet robotları ChatGPT hemen hemen her konuda insan benzeri bir şekilde sohbet etme yetenekleri nedeniyle dünyanın dikkatini çektiler. Ancak ciddi bir sakıncaları vardır: İnandırıcı yanlış bilgileri kolayca sunabilirler, bu da onları güvenilmez olgusal bilgi kaynakları ve potansiyel bilgi kaynakları haline getirir. karalama.
Yapay zeka sohbet robotları neden bir şeyler uyduruyor ve onların çıktılarına tamamen güvenebilecek miyiz? Birkaç uzmana sorduk ve yanıtları bulmak için bu yapay zeka modellerinin nasıl çalıştığını inceledik.
“Halüsinasyonlar”—yapay zekada yüklü bir terim
OpenAI’nin ChatGPT’si gibi yapay zeka sohbet botları, yanıtlarını oluşturmak için “büyük dil modeli” (LLM) adı verilen bir yapay zeka türüne güvenir. Bir LLM, insanların doğal olarak yazacağı veya konuşacağı gibi “doğal dil” metinlerini okuyabilen ve oluşturabilen milyonlarca metin kaynağı üzerinde eğitilmiş bir bilgisayar programıdır. Ne yazık ki, onlar da hata yapabilir.
Akademik literatürde, AI araştırmacıları bu hataları genellikle “halüsinasyonlar” olarak adlandırırlar. Ancak konu ana akım hale geldikçe bu etiket tartışmalı hale geldi çünkü bazı insanlar bunun AI modellerini antropomorfize ettiğini (insan benzeri özelliklere sahip olduklarını öne sürerek) veya ima edilmemesi gereken durumlarda onlara eylemlilik sağladığını (kendi seçimlerini yapabileceklerini öne sürerek) düşünüyor. Ticari LLM’lerin yaratıcıları halüsinasyonlar da kullanabilir. bahane olarak çıktıların kendilerinin sorumluluğunu almak yerine hatalı çıktılar için AI modelini suçlamak.
Yine de üretken yapay zeka o kadar yeni ki, bu son derece teknik kavramları daha geniş kitlelere açıklamak için mevcut fikirlerden ödünç alınan metaforlara ihtiyacımız var. Bu bağlamda, “konfabülasyon” teriminin benzer şekilde kusurlu olmasına rağmen “halüsinasyon”dan daha iyi bir mecaz olduğunu düşünüyoruz. İnsan psikolojisinde bir “konfabulasyon“, birinin hafızasında bir boşluk olduğunda ve beyin, başkalarını aldatma niyeti olmadan geri kalanı ikna edici bir şekilde doldurduğunda ortaya çıkar. ChatGPT değil insan beyni gibi çalışır, ancak “konfabülasyon” terimi muhtemelen daha iyi bir metafor olarak hizmet eder çünkü aşağıda inceleyeceğimiz gibi iş başında yaratıcı bir boşluk doldurma ilkesi vardır.
konfabülasyon sorunu
Bir yapay zeka botunun potansiyel olarak yanıltabilecek, yanlış bilgilendirebilecek veya karalayabilecek yanlış bilgiler üretmesi büyük bir sorundur. Son zamanlarda, The Washington Post bildirildi ChatGPT’nin kendisini birine cinsel tacizde bulunan hukukçular listesine koyduğunu keşfeden bir hukuk profesörü hakkında. Ama bu asla olmadı—ChatGPT uydurdu. Aynı gün Aras bildirildi ChatGPT’nin rüşvetten hüküm giydiğini ve hapis cezasına çarptırıldığını iddia ettiğini iddia eden Avustralyalı bir belediye başkanı hakkında, tamamen uydurma.
ChatGPT kullanıma sunulduktan kısa bir süre sonra insanlar ilan arama motorunun sonu. Bununla birlikte, aynı zamanda, ChatGPT’nin konfabulasyonlarının birçok örneği sosyal medyada dolaşmaya başladı. AI bot icat etti kitabın Ve çalışmalar var olmayan, yayınlar o profesörler yazmadı, sahte akademik makalelerYANLIŞ yasal alıntılarvar olmayan Linux sistem özelliklerigerçek dışı perakende maskotlarıVe teknik detaylar bu mantıklı değil.
Yüksek güvenle yanlış cevaplar verirse GPT’nin Google’ın yerini nasıl alacağı merak ediliyor.
Örneğin, ChatGPT’den Sosyal Bilişsel Kuram üzerine en iyi kitapların bir listesini vermesini istedim. Cevapla ilgili 10 kitaptan 4’ü yok, 3’ü farklı kişiler tarafından yazılmış. pic.twitter.com/b2jN9VNCFv
— Herman Saksono (o) (@hermansaksono) 16 Ocak 2023
Yine de, ChatGPT’nin gelişigüzel yalan söyleme tercihine rağmen, sezgilere aykırı bir şekilde, konfabülasyona karşı direnci, bugün bunun hakkında konuşmamızın nedenidir. Bazı uzmanlar, ChatGPT’nin teknik olarak vanilya GPT-3’e (önceki model) göre bir gelişme olduğunu, çünkü bazı soruları yanıtlamayı reddedebileceğini veya yanıtlarının doğru olmayabileceğini size bildirebileceğini belirtiyor.
Scale AI’da personel bilgi istemi mühendisi olarak görev yapan büyük dil modellerinde uzman olan Riley Goodside, “Chat’in başarısındaki en önemli faktörlerden biri, birçok ortak soru için fark edilmeyecek şekilde konfabülasyonu yeterince bastırmayı başarmasıdır” dedi. “Önceki sürümlerle karşılaştırıldığında, ChatGPT bir şeyler uydurmaya çok daha az eğilimli.”
Bir beyin fırtınası aracı olarak kullanılırsa, ChatGPT’nin mantıksal sıçramaları ve konfabulasyonları yaratıcı atılımlara yol açabilir. Ancak olgusal bir referans olarak kullanıldığında, ChatGPT gerçek zararlara neden olabilir ve OpenAI bunu bilir.
Modelin lansmanından kısa bir süre sonra, OpenAI CEO’su Sam Altman tweet attı, “ChatGPT inanılmaz derecede sınırlı, ancak bazı şeylerde yanıltıcı bir büyüklük izlenimi yaratacak kadar iyi. Şu anda önemli herhangi bir şey için ona güvenmek bir hata. Bu, ilerlemenin bir önizlemesi; sağlamlık konusunda yapacak çok işimiz var. ve doğruluk.” daha sonra cıvıldamakşöyle yazdı: “BenÇok şey biliyor ama tehlike şu ki, kendinden emin ve zamanın önemli bir kısmında yanılıyor.”
Burada neler oluyor?