Benj Edwards / Ars Technica
Çarşamba günü, Microsoft çalışanı Mike Davidson ilan edildi şirketin, yapay zeka destekli deneysel modeli için üç farklı kişilik stilini piyasaya sürdüğünü Bing Sohbeti bot: Yaratıcı, Dengeli veya Kesin. Microsoft olmuştur test yapmak Özellik, 24 Şubat’tan beri sınırlı sayıda kullanıcıyla. Modlar arasında geçiş yapmak, modunu değiştiren farklı sonuçlar üretir. denge doğruluk ve yaratıcılık arasında.
Bing Chat, OpenAI tarafından geliştirilen gelişmiş bir büyük dil modeline (LLM) dayalı, yapay zeka destekli bir asistandır. Bing Chat’in önemli bir özelliği, web’de arama yapabilmesi ve sonuçları yanıtlarına dahil edebilmesidir.
Microsoft, 7 Şubat’ta Bing Chat’i duyurdu ve yayına girdikten kısa bir süre sonra, düşmanca saldırılar düzenli olarak Bing Chat’in erken bir sürümünü simüle delilikve kullanıcılar botun ikna edilebileceğini keşfetti tehdit etmek onlara. Çok geçmeden Microsoft dramatik bir şekilde geri çevrildi Bing Chat, konuşmaların ne kadar süreceği konusunda katı sınırlamalar getirerek patlamalar yapıyor.
O zamandan beri firma, isteyenler için Bing Chat’in şımarık kişiliğinin bir kısmını geri getirmenin ve aynı zamanda diğer kullanıcıların daha doğru yanıtlar aramasına izin vermenin yollarını deniyor. Bu, yeni üç seçenekli “sohbet stili” arayüzüyle sonuçlandı.
-
Bing Chat’in “Yaratıcı” konuşma tarzına bir örnek.
Microsoft
-
Bing Chat’in “Kesin” konuşma stiline bir örnek.
Microsoft
-
Bing Chat’in “Dengeli” konuşma stiline bir örnek.
Microsoft
Üç stille yaptığımız deneylerde, “Yaratıcı” modun her zaman güvenli veya pratik olmayan daha kısa ve daha alışılmış öneriler ürettiğini fark ettik. “Kesinlik” modu ihtiyatlı davranarak hata yaptı ve bazen bir sonuca ulaşmanın güvenli bir yolunu görmediği takdirde hiçbir şey önermedi. Ortada, “Dengeli” mod genellikle en ayrıntılı arama sonuçları ve yanıtlarında web sitelerinden alıntılarla en uzun yanıtları üretir.
Büyük dil modellerinde, beklenmeyen yanlışlıklar (halüsinasyonlar) “yaratıcılık” arttıkça sık sık artar, bu da genellikle AI modelinin veri kümesinde öğrendiği bilgilerden daha fazla sapacağı anlamına gelir. AI araştırmacıları genellikle bu özelliği “sıcaklık,”, ancak Bing ekip üyeleri, yeni konuşma stilleriyle daha fazlasının iş başında olduğunu söylüyor.
Microsoft çalışanına göre Mihail ParakinBing Chat’te modları değiştirmek, alınan farklı yapay zeka modelleri arasında geçiş yapmak da dahil olmak üzere bot davranışının temel yönlerini değiştirir. ek eğitim çıktısına insan tepkilerinden. Farklı modlar ayrıca farklı başlangıç komutları kullanır; bu, Microsoft’un kişiliği tanımlayan istemi olduğu gibi değiştirdiği anlamına gelir. hızlı enjeksiyon saldırısında ortaya çıktı Şubat ayında yazdık.
Bing Chat hala yalnızca bir bekleme listesine kaydolanlar tarafından kullanılabilirken, Microsoft, Bing Chat’i ve diğer yapay zeka destekli Bing arama özelliklerini kullanıcılara daha geniş bir şekilde sunmaya hazırlanırken sürekli olarak iyileştirmeye devam ediyor. Son zamanlarda, Microsoft duyurulan planlar teknolojiyi Windows 11’e entegre etmek için.