Ne zaman Hood öğrendim, Şok oldu. Şu anda Avustralya’nın Melbourne yakınlarındaki Hepburn Shire belediye başkanı olan Hood, ChatGPT’nin arkasındaki şirkete kendisi hakkında yalan söylediği için dava açmayı planladığını söyledi.
“Suçlu – beyaz yakalı bir suçlu – olmakla suçlanmak ve bunun 180 derece yanlış olduğu halde hapiste zaman geçirmek itibarınıza son derece zarar veriyor. Özellikle yerel yönetimde seçilmiş bir yetkili olduğumu göz önünde bulundurarak, ”dedi Perşembe günü bir röportajda. “Sadece eski yaraları yeniden açtı.”
Hood, ChatGPT’ye karşı bir iftira davası açma niyetini doğrulayarak, “Hiçbir yerde, hiçbir zaman herhangi bir suça ortak olduğum yönünde bir öneri olmadı, bu nedenle bu makine bu şeyi tamamen sıfırdan yarattı,” dedi. “Sözde yapay zeka üzerinde uygun kontrol ve düzenleme olması gerekiyor çünkü insanlar onlara güveniyor.”
Vaka, gerçek insanlar hakkında yalanlar yayınlayan, sayısı giderek artan yapay zeka sohbet botları listesindeki en son örnek. Chatbot kısa süre önce sahte bir cinsel taciz hikayesi icat etti. gerçek bir hukuk profesörü olan Jonathan Turley’i içeren — delil olarak var olmayan bir Washington Post makalesine atıfta bulunmak.
Devam ederse Hood’un davası, ChatGPT’nin içeriğine karşı açılan ilk karalama davası olacak. Reuters’e göre. Mahkemelere ulaşırsa, dava bilinmeyen yasal suları test edecek ve yargıçları bir yapay zeka botunun operatörlerinin iftira niteliğinde olduğu iddia edilen ifadelerinden sorumlu tutulup tutulamayacağını düşünmeye zorlayacaktır.
ChatGPT, web sitesinde kullanıcıları “ara sıra yanlış bilgiler üretebileceği” konusunda belirgin bir şekilde uyarıyor. Hood, bu uyarının yetersiz olduğuna inanıyor.
“Birkaç şeyi yanlış anlayabileceğimizi söyleyen bir sorumluluk reddi bile – bununla hiçbir temeli olmayan bu tür gerçekten zararlı materyalleri uydurmak arasında büyük bir fark var” dedi.
Hood’un avukatı yaptığı açıklamada, ChatGPT’nin müşterileri hakkında yaptığı belirli yalanlara ilişkin çok sayıda örnek sıralıyor – Malezya hükümetiyle bir sözleşme imzalamak için bir silah tüccarına ödeme yapmasına izin vermesi de dahil.
“Başka hiçbir yerde, onların önerdiklerini uzaktan da olsa akla getiren herhangi bir şey bulamazsınız. Hood, “Bir şekilde onu yoktan var ettiler,” dedi.
Avustralya yasalarına göre, davacı bir hakaret iddiasında ancak bir endişenin ilk dile getirilmesinden sonra yanıt için 28 gün bekledikten sonra resmi yasal işlem başlatabilir. Perşembe günü Hood, avukatlarının geri çekme talebinde bulunan bir mektup gönderdikten sonra hala ChatGPT’nin sahibi OpenAI’den haber beklediklerini söyledi.
Perşembe günü OpenAI, bir gecede gönderilen yorum talebine hemen yanıt vermedi. Daha önceki bir açıklamada OpenAI sözcüsü Niko Felix, chatbot’un hukuk profesörü hakkındaki asılsız iddialarına yanıt olarak şunları söyledi: “Kullanıcılar ChatGPT’ye kaydolduklarında, her zaman doğru yanıtlar vermeyebilmeleri için mümkün olduğunca şeffaf olmaya çalışıyoruz. Olgulara dayalı doğruluğu artırmak bizim için önemli bir odak noktası ve ilerleme kaydediyoruz.”
Yapay zeka uzmanları, botun Hood hakkında böylesine makul bir yalan söyleme kapasitesinin şaşırtıcı olmadığını söyledi. Oxford Üniversitesi’nde bilgisayar bilimi profesörü olan Michael Wooldridge, Perşembe günü verdiği bir röportajda, ikna edici yalanların aslında teknolojinin bir özelliği olduğunu söyledi.
“Ona bir soru sorduğunuzda, gerçekler veri tabanına gitmiyor” diye açıkladı. “Hemen tamamlayarak çalışırlar.” İnternette mevcut olan tüm bilgilere dayanarak, ChatGPT cümleyi doğru bir şekilde değil, ikna edici bir şekilde tamamlamaya çalışır. Wooldridge, “Bundan sonra ne olması gerektiğine dair en iyi tahminde bulunmaya çalışıyor,” dedi. “Çoğu zaman yanlıştır, ancak çok makul bir şekilde yanlıştır.
Yapay zekanın bu kadar inandırıcı bir şekilde yalan söyleme yeteneğine atıfta bulunarak, “Bu açıkça şu anda teknolojinin en büyük zayıflığı” dedi. “Önümüzdeki birkaç yıl için bu teknoloji için belirleyici zorluklardan biri olacak.”
OpenAI’ye yazdığı bir mektupta Hood’un avukatları, yalanın düzeltilmesini talep etti. Avukatı James Naughton, “İleri getirilen iddia, Bay Hood’a verilen zararı gidermeyi ve bu yazılımın davasında doğruluğunu sağlamayı amaçlayacaktır” dedi.
Ancak Wooldridge’e göre, ChatGPT tarafından yayınlanan belirli bir yanlışlığı değiştirmek bile zor.
“Sahip olduğu tüm bu edinilmiş bilgiler, geniş sinir ağlarında gizlidir,” dedi, “bu, çok büyük sayı listelerinden başka bir şey değildir.”
“Sorun şu ki, bu sayılara bakıp ne anlama geldiklerini anlayamıyorsunuz. Bizim için hiçbir şey ifade etmiyorlar. Bu kişiyle ilgili oldukları için sistemde onlara bakamayız ve onları kesip atamayız.
Cambridge Üniversitesi’nden bir bilgisayar bilimcisi olan Michael Schlichtkrull, Perşembe günü bir e-postada, “Yapay zeka araştırmalarında buna genellikle ‘halüsinasyon’ diyoruz” diye yazdı. “Dil modelleri, gerçekçi metinler değil, makul metinler üretmek için eğitilmiştir.”
“Çıktının ne kadar doğru olduğunun önemli olduğu görevler için büyük dil modellerine güvenilmemelidir” diye ekledi.