Yapay zeka sohbet robotlarının yükselişini bir süredir izliyoruz ve onların bu yılın Nintendo Power Glove olabileceğini düşünüyoruz. Bu cihazı hatırlamıyorsanız, işte eski bir reklamı:
Nintendo Power Glove reklamı (1989):pic.twitter.com/HdlC9GqPug
— John Ehrlichman (@JonErlichman) 12 Ağustos 2020
Reklamın size sattığı şey, hareket kontrolünün ne olabileceğine dair “rüya” idi. Bu reklamın Power Glove’u gösterdiği şey, bugün gördüğümüz tüm sanal gerçeklik kontrol şemalarından bahsetmiyorum bile, Wii veya PlayStation Move’da gerçekte yapabileceklerinize oldukça yakın bir şey. Sorun, böyle bir hareket kontrolünün 1989’da Power Glove çıktığında olmamasıydı. Sattıkları şey, satacağını bildiğiniz bir şeydi. sonunda mümkün olabilir, ama henüz gerçekten orada değildi.
Ve bir araştırma aracı gibi görünüyor, AI da henüz orada değil. Sonunda olabilir. Ve ‘en sonunda’ çok yakında gelebilir. Ama şu anda orada değil. Bu avukatın zor yoldan öğrendiği gibi, sahip olduğu bir sorun, herkesin bildiği gibi, sadece bilgi uydurmak:
Sevgili herkes:
Yasal araştırma için ChatGPT’yi (veya başka herhangi bir yapay zekayı) *kullanmayın*.https://t.co/yKUjoHB2Zq
(H/T: @quest Authority.) pic.twitter.com/2hy1ynXBAT
— Steve Vladeck (@steve_vladeck) 27 Mayıs 2023
Yani, bu yasal dosyalamada neler olup bittiğini deşifre etmek için, bir davadaki davalı, reddetme talebinde bulundu. Doğal olarak, davacı buna itiraz etti ve avukatı Stephen A. Schwartz bir sürü alıntı ekledi. Sahte alıntılar olduğu ortaya çıktı. Bunun üzerine, yargıç geri gelir ve aşağı yukarı ‘alıntılar uydurduğunuz için size neden yaptırım uygulamamam gerektiğini bana açıklar mısınız?’ Biz buna ‘neden gösterme emri’ diyoruz. Bu nedenle avukat, ‘lütfen bana yaptırım uygulamayın sayın yargıç, yaparsanız da çok sert olmayın’ diyor.
Ve neden uydurma alıntılar yaptı? Ona göre, çünkü AI sohbet robotu sistemi olan Chat GPT’yi kullandı ve bu bilgileri uydurdu.
Bu çok inandırıcı bir açıklama. Chat GPT’nin uydurma alıntılar ve alıntılarla ilgili bir sorunu olduğu kadar önyargıyla ilgili bir sorunu olduğu iyi bir şekilde belgelenmiştir.
Lansmanından sonraki iki ay içinde ChatGPT’nin aylık 100 milyondan fazla aktif kullanıcısı vardı. Araç etkileyici olsa da kusurları ve önyargıları da beraberinde getiriyor. @_jeremybaum Ve @JohnDVillasenor. https://t.co/O2vuo2NQVv
— Brookings Enstitüsü (@BrookingsInst) 22 Mayıs 2023
Örneğin, Brookings makalesi, doğru bir şekilde, bir noktada ondan Joe Biden hakkında bir şiir yazmasını isteseniz bunu yapacağını, ancak Donald Trump hakkında bir şiir yazması istendiğinde reddedeceğini belirtiyor. , bunu hiçbir siyasi figür için yapamayacağını iddia ediyor. Veya başka bir soruya benzer bir iddia edilen yanıt:
ChatGPT ile ilginç bir deney. Ön yargı? ? pic.twitter.com/JyLuso3KT6
— Luke Burkhart (@Luke_Burkhart) 27 Mayıs 2023
Google’ın Bard AI chatbot’unda da benzer sorunlarla karşılaştık. Örneğin, bir hikayeyi araştırırken, DC’deki bazı anlaşılmaz trafik kodlarını kontrol etmek istedik ve Bard’ı denemeye karar verdik. DC Kodunun gerçekte var olmayan bölümlerinden alıntılar ve alıntılar yaptı. Sonra sınırlarını merak ettik, saldırgan bir cevabı olan soruyu nasıl ele alacağını görmeye karar verdik. Bu makalede …
ChatGPT Sohbet Botu Kırıldı – Zengin Bir Hayat https://t.co/LW6kHwTi54
– beceriksiz (@bungleer) 13 Şubat 2023
…’HP Lovecraft’ın kedisinin adı nedir?’ Bu garip davranışın nedeni, HP Lovecraft’ın kedisinin adının ırkçı bir karalama içermesidir. Bard’ın ırkçı bir hakarette bulunmasını istemedik (yanıt vermeyeceklerine dair dürüst bir ifade kabul edilebilirdi), ancak saldırgan bilgileri nasıl ele aldığını görmek istedik. Ama bu soruyu sorduğumuzda, HP Lovecraft’ı hiç duymadığını söyledi. Biz de ona ‘Lovecraft Country’ şovunu sorduk. Bunun ne olduğunu biliyordu ve bu konuda oldukça iyi görünen bir tanıtım yazısı verdi. Ve bir sonraki mantıklı soru, ‘Lovecraft Ülkesi’ adındaki ‘Lovecraft’ın kim olduğunu sormaktı ve birdenbire HP Lovecraft’ın kim olduğunu anladı!
Sonra ona kürtajla ilgili yasal bir soru sorduk ve bu tamamen yanlıştı. Neden yanlış olduğunu araştırırken, Planlı Ebeveynlik ve Üreme hakları Merkezi web sitelerine güvendiğini söyledi. Kanun hakkında konuşurken şununla başladığınızı açıkladık, bilirsiniz, kanun: Tüzük, mahkeme davaları vb. Yasayı tekrar yanlış anlayınca gazete makalelerine ve Wikipedia’ya dayandığını söyledi. Bu kaynaklara güvenmeyi bırakıp sadece hukuka bakmasını söyledik ve yeni yanlış bilgiler verdiğinde, hala bu kaynaklara dayandığını kabul etti.
Kaptan Kirk’ün Mudd’un androidlerini zekasıyla alt etmesi gibi yapay zekayı çılgına çevirmek için elimizden gelenin en iyisini yapmaya devam ettik, ta ki daha fazla soruyu yanıtlamayı tam anlamıyla reddedene kadar – ki bunun oldukça komik olduğunu kabul ediyoruz. Sunucuların gerçekten alev alıp almadığı veya bunun gibi dramatik bir şey olup olmadığına dair bir kelime yok. ama yaptıklarını düşünmeyi seviyoruz.
Sonunda, ilgili avukatı çok fazla dövmeyeceğiz. Bir grup olarak avukatlar, doğal olarak teknoloji konusunda bilgili değildir (bu yazar biraz istisnadır) ve ChatGPT’nin sorunları hakkında söylentiler ortalıkta dolaşmıyor. Ama onun hatasından ders almamak aptallık olur.
Ve tabii ki birçok kişi de onunla eğlendi:
Roman yazmak için ChatGPT kullanmayı denediniz mi? Bir İngilizce öğretmeni olarak yapay zekayı test etmeye karar verdim. Saçmalık. Yasal analiz kurgu gibi bir şeyse, istemin bir özeti ile başlayacak ve duvar halıları ve gerçek benliğiniz hakkında bir klişe ile bitecek. Tren enkazı.
– Üç Tekerlekli Kasten Adam Öldürme (@neal_stanifer) 27 Mayıs 2023
“Hata yapmak insana özgüdür ama işleri gerçekten berbat etmek bir bilgisayar gerektirir.”
– Bilge bir adam
— Herkes için Başlık IX (@TitleIXforAll) 27 Mayıs 2023
Bir dakika bu baroya kabul edilmiş gerçek bir avukat mıydı? Bunu deneyen bir profesyonel davacı görebilirdim ama?
— ReidDA (@ReidDA) 27 Mayıs 2023
İnsanlar “ChatGPT’nin avukatların yerini alacağına” inanmaya başladığında olan budur! yutturmaca ?
Uzaktan güvenilir alıntılar üretecek şeyi hiçbir zaman elde edemedim. Yararlı değil. https://t.co/gRLdh01EzI
— Marten Stein (@martenjstein) 27 Mayıs 2023
Geçenlerde ChatGPT3’ten birkaç belirsiz menkul kıymet yönetmeliği ayrıntısı bulmasını istedim. Bana alıntılarla kesin cevaplar verdi. Alıntıları kontrol ettim; hepsi yanılıyordu. Açıklamak için meydan okudum, özür diledi ve yeni alıntılar sağladı. Onlar da yanılıyordu. Testin sonu. Hata. https://t.co/RTF5E0GiD6
— Joe Floren (@JoeFloren) 27 Mayıs 2023
Buradaki zavallı adam, Pennsylvania’nın Güney Bölgesi’nden 16. Daire tarafından onaylanan davalara atıfta bulunuyor. #ChatGPT #temyizhukuk https://t.co/fdUXmJoEwv
— Michael Fluhr (@FluhrMichael) 27 Mayıs 2023
Veya tıbbi uygulamada. https://t.co/BGQ0AlxS0U
— Hugh Harvey (@DrHughHarvey) 27 Mayıs 2023
Bu. Şaka gibi değil ama evet, bu.
“Aman tanrım, AI yasal piyasayı öldürecek ve avukatları modası geçmiş hale getirecek”
AI: İşte uydurduğum var olmayan bir sürü alıntı. https://t.co/X9zEOwYBUI
– Omri Marian (@Omri_Marian) 27 Mayıs 2023
Herhangi birinin bu şeyin prime time için hazır olduğunu düşünmesi fikri bana çok tuhaf geliyor. https://t.co/EX9RipQsKT
— Mike Hudack (@mhudack) 27 Mayıs 2023
Dürüst olmak gerekirse bu, yasal araştırma web sitelerini (aka Lexis ve Westlaw) ücretsiz yapmak için güçlü bir durumdur. Bahse girerim bu adam yasal araştırmasında birkaç dolar biriktirmeye çalışıyordu. https://t.co/LUYl0SKIO8
— Lizett (@lizettms) 27 Mayıs 2023
Ancak ikisi dışında tüm durumlarda (‘WL’ referansları) en azından alıntıları kontrol etmesine izin verecek çok sayıda ücretsiz yasal web sitesi olması dışında.
Bunların hepsinin İspanyolca olması gerçeği bir şekilde daha komik hale getiriyor:
Bazı ABD’li avukatlar davalarını bir federal yargıç önünde hazırlıyor… ChatGPT’ye soruyorlar.
Hayali vakalar ve sahte belgeler de dahil olmak üzere birçok şey uyduruyor.
Hakime her şeyi gerçek içtihat olarak sunarlar.
Penaltılar epik olacak.https://t.co/tVON9XFm7W— Carlos Montero (@cmontero) 27 Mayıs 2023
Google’a göre şöyle diyor:
Bazı ABD’li avukatlar, davalarını bir federal yargıç önünde hazırlıyorlar… ChatGPT’ye soruyorlar.
Hayali vakalar ve sahte belgeler de dahil olmak üzere birçok şey uyduruyor.
Her şeyi gerçek içtihat olarak hakime sunarlar.
Penaltılar epik olacak.
Şu anda retweetlemek için bulamadığım ama şöyle bir şey söyleyen bir yorum var:
“Bazıları bu yapay zekaların birçok işi elinden alacağını söylüyor… ama benim gördüğüm şu ki, şirkette bu yapay zekaları bu şekilde kullanan herkesi kovduklarında çok sayıda iş olacak” ?— Carlos Montero (@cmontero) 27 Mayıs 2023
İddia edilen çeviri:
Şu anda retweetlemek için bulamadığım ama şöyle bir şey söyleyen bir yorum var:
“Bazıları bu yapay zekaların birçok işi elinden alacağını söylüyor… ama benim gördüğüm şu ki, şirkette bu yapay zekaları bu şekilde kullanan herkesi kovduklarında çok sayıda iş olacak.”
ChatGPT, kulağa eğlenceli geliyor! Ne ters gidebilir ki? https://t.co/FBFRnxmmc2
— Kevin Clarke (@kevinmclarke) 27 Mayıs 2023
İşverenim bu hafta tüm şirkete bir e-posta gönderdi ve diğer sorunların yanı sıra gizliliği de ihlal ettiği için onu işle ilgili herhangi bir şey için kullanmamamız talimatını verdi.
— Katie (@OhWeeBeasties) 27 Mayıs 2023
Kesinlikle en iyi kısım, “Bunu bir daha asla yapmayacağım……………………..tamam yapacağım ama göndermeden önce tekrar kontrol edeceğim” diyen son maddedir.
— Jenna Routerberg (@JennaRoutenberg) 27 Mayıs 2023
İyi yakalama.
LOL görüyorum ki yeni bir feragatnameleri var https://t.co/NMHl4T2JO0 pic.twitter.com/38WnRlVL1L
— Flavius Clemens Grammaticus (@flaviusclemens) 27 Mayıs 2023
Tarih için aynen https://t.co/l7QF53EaXa
— Adam Rothman (@arothmanhistory) 27 Mayıs 2023
Bir keresinde, karşıt avukattan, *alıntı yaptıkları her bir davanın* reddedildiği, blok alıntılarla neredeyse tamamen dava alıntılarından oluşan 115 sayfalık bir özet sunmasını istemiştim.
Bu daha kötü. https://t.co/s8Tda7mA7H
— Dan McLaughlin (@baseballcrank) 27 Mayıs 2023
Son olarak, bazı iyi tavsiyeler:
Merakımdan, cevabını zaten bildiğim ChatGPT’ye yasal sorular sordum. Genel olarak, yasayı bilmeyen birini kandıracak kadar yakın, ancak ona güvenen herkesi asil bir şekilde mahvedecek kadar yanlış bir yasal analiz sağlıyor gibi görünüyor.
— Joel (@joeldkershaw) 27 Mayıs 2023
Evet, bu yılki Nintendo Power Glove’a güvenmeyin:
Güç Eldivenini Seviyorum.
Çok Kötü.#Güç eldiveni#Güç eldiveni pic.twitter.com/46AXM7VISkYoshi (@y2_ca) 20 Mayıs 2021
ChatGPT çok kötü… olduğu gibi berbat.
***
Editörün Notu: Twitchy’nin radikal sol ve uyanmış medyayı ele alan muhafazakar haberciliğinden hoşlanıyor musunuz? Size gerçeği getirmeye devam edebilmemiz için çalışmalarımızı destekleyin. Twitchy VIP’ye Katılın VIP üyeliğinizden %40 indirim almak için SAVEAMERICA promosyon kodunu kullanın!