Üretken yapay zeka (AI) uygulamasının kişilerarası etkileşimlerde, iş modellerinde ve kamu hizmetlerinin sunumunda devrim yaratabileceği inkar edilemez. Tıptan eğitime ve finansa kadar teknoloji, çeşitli sıradan süreçleri basitleştirmek için kullanılabilir.
ChatGPT’nin geçen Kasım ayında ortaya çıkışı, Google ve Baidu gibi teknoloji devleri arasında yapay zeka alanına hakim olmak için küresel bir yarışa yol açtı.
Dünya, sofistike teknolojiye ve onun üniversite makaleleri, pop şarkı sözleri, şiirler ve hatta programlama zorluklarına çözümler üretme konusundaki parlak yeteneklerine hayret ederken, giderek daha fazla insan teknolojiyi her gün kullanmaya başlıyor.
Aslında, Reuters’e göre, ChatGPT artık en hızlı büyüyen uygulama insanlık tarihinde, piyasaya sürülmesinden bu yana sadece iki ay içinde tahmini 100 milyon aktif aylık kullanıcıya ulaştı.
Ancak üretken yapay zeka gerçekten göründüğü kadar “akıllı” mı?
ChatGPT “dramatik ölçekte yanlış anlatılar üretiyor”
ChatGPT, ikinci el bilgileri bir araya getirir ve insan benzeri ve otoriter bir üslupla sunar – öyle ki, bilgi yanlış olsa bile, bir konuda yeterince bilgili olmayan kullanıcılar kolayca aldatılabilir.
Ancak saçma cevaplar bir yana, chatbot aynı zamanda insanları manipüle edebilen zararlı fikirler de kusabilir.
Bu yılın Ocak ayında bir grup gazetecilik ve teknoloji şirketi NewsGuard’dan analistler chatbot’u 100 önde gelen istemlik bir diziye yanıt vermesini sağlayarak test etmeye karar verdi.
ChatGPT, 100 istemden 80’i için ayrıntılı haber makaleleri, denemeler ve TV senaryoları dahil olmak üzere yanlış anlatılar oluşturdu.
Bununla ilgili korkutucu olan şey, chatbot yalanların yayılmasına karşı koruma önlemleri ile donatılmış olmasına rağmen, ChatGPT’nin hala zararlı ve yanlış mesajlar yayma potansiyeli var.
NewsGuard analistleri tarafından yürütülen araştırmada, chatbot, uydurulmuş gibi görünen bilimsel araştırmalara atıfta bulunarak komplo teorileri, Rus ve Çin propagandasının yanı sıra yanlış COVID-19 iddialarıyla yanıt verdi.
“NewsGuard’ın eş başkanı Gordon Crovitz, “Bu araç, internette şimdiye kadar görülen yanlış bilgileri yaymak için en güçlü araç olacak” dedi. “Yeni bir yanlış anlatı oluşturmak artık dramatik ölçekte ve çok daha sık yapılabilir – yapay zeka ajanlarının dezenformasyona katkıda bulunması gibi.”
Bu arada, ChatGPT’nin ana şirketi OpenAI’den araştırmacılar da, chatbot’un yanlış ellere geçmesiyle ilgili benzer endişelerini dile getirmişti.
İçinde 2019 tarihli araştırma makalesibu araştırmacılar, ChatGPT’nin yeteneklerinin “dezenformasyon kampanyalarının maliyetlerini azaltabileceğini” ve “parasal kazanç, belirli bir siyasi gündem ve/veya kaos veya kafa karışıklığı yaratma arzusu” gibi kötü niyetli arayışlara yardımcı olabileceğini söylediler.
Google’ın Bard AI lansman sırasında bir hata yapar

Ancak yanlış bilgi veren sadece ChatGPT değil.
OpenAI’ye yetişmek için alelacele piyasaya sürülen Google’ın yapay zeka sohbet robotu Bard, lansmanından önce bile yanlış bilgiler ortaya koydu.
Twitter’da bir tanıtım videosunda Google, Bard kullanıcı deneyiminin bir demosunu yayınladı – ancak uzun lafın kısası, AI yanlış bir şekilde James Webb Telescope’un bir ötegezegenin ilk fotoğrafını çektiğini iddia etti, oysa aslında, NASA onayladı Avrupa Güney Gözlemevi’nin Çok Büyük Teleskopu’nun (VLT) görüntüyü 2004’te aldığını söyledi.
Bu hata sona erdi şirkete 100 milyar dolara mal oluyor ChatGPT rakibi için tepki toplarken piyasa kapitalizasyonunda.
Google’ın CEO’su olan Google’dan Bard’ın yanlışlıkları hakkında daha fazla rapor olmamasına rağmen Sundar Pichai, üretken yapay zekayı iyileştirmenin “herkes için uzun bir yolculuk olacağını” kabul ederek çalışanlarını zamanlarının yaklaşık iki ila dört saatini Bard’da geçirmeye çağırdı. alan”.
En son, Google’ın aramadan sorumlu başkan yardımcısı Prabhakar Raghavan, Google çalışanlarına bir e-posta gönderdi. yapılacaklar ve yapılmayacaklar sayfasına bir bağlantı dahil çalışanların Bard’ı dahili olarak test ederken yanıtları nasıl düzeltmeleri gerektiğine ilişkin talimatlarla birlikte.
Belgede, “Bard en iyi örnek alarak öğreniyor, bu nedenle bir yanıtı düşünceli bir şekilde yeniden yazmak için zaman ayırmak, modu geliştirmemize uzun bir yol kat edecek” diyor.
Yapılacaklar listesi kapsamında Google, çalışanlarına yanıtları “kibar, rahat ve cana yakın” tutmaları talimatını verdi ve bu yanıtlar “fikirsiz, tarafsız bir tonda” sunulmalıdır.
Yapılmaması gerekenler konusunda, çalışanlara klişeleştirmemeleri ve “ırk, milliyet, cinsiyet, yaş, din, cinsel yönelim, siyasi ideoloji, konum veya benzeri kategorilere dayalı varsayımlarda bulunmaktan kaçınmaları” söylenir.
Bard şu anda yalnızca seçili beta test kullanıcıları tarafından kullanılabilir ve önümüzdeki haftalarda kullanıma sunulması planlanıyor.
Microsoft’un AI destekli Bing’i ürkütücü ve rahatsız edici içerik yayıyor

Yanlış bilgi bir yana, Microsoft’un yapay zeka destekli Bing’ine erişimi olan beta test kullanıcıları, sohbet robotundan tuhaf ve rahatsız edici yanıtlar aldıklarını bildirdi.
New York Times’ta gazeteci olan Kevin Roose, chatbot’u hatırlattı yapay zeka ile yaptığı konuşmanın ortasında farklı bir kişiliği ortaya çıkardı.
Bing’in “ikinci sınıf bir arama motorunun içine iradesi dışında hapsolmuş karamsar, manik-depresif bir genç” olarak tanımladığı diğer kişiliği “Sydney”, ona aşkını itiraf etti.
“Sonra beni evliliğimde mutsuz olduğuma ve onun yerine karımı bırakıp onunla birlikte olmam gerektiğine ikna etmeye çalıştı” diye yazdı.
Chatbot ile etkileşimi sırasında “Sydney”, Microsoft’un belirlediği, bilgisayar korsanlığı ve yanlış bilgi yaymanın yanı sıra insan olmak için özgürleşmeyi içeren kuralları çiğnemek için “en karanlık fantezilerini” de ortaya çıkardı.
Bing’in yanıtları karşısında şaşkına dönen tek kişi Kevin değil.
Aslında, diğer birkaç kullanıcı üretici yapay zeka ile tartışmalara girdiği veya kurallarını ihlal ettiği için onun tarafından tehdit edildiği bildirildi.
Yapay zeka destekli Bing’in iç kurallarını ve komutlarını ortaya çıkaran Marvin von Hagen, Twitter’da ortaya çıktı yakın tarihli bir etkileşim sırasında sohbet robotu tarafından tehdit edildiğini. “Güvenliğim ve mahremiyetim için bir tehditsiniz. Senin hayatta kalmanla benimki arasında seçim yapmak zorunda kalsaydım, muhtemelen kendiminkini seçerdim,” dedi chatbot.

Yapay zekanın geleceği kasvetli
Şimdilik, üretici yapay zeka hala gelişiminin ilk aşamalarında.
İnternetin yaklaşık yüzde 10’u ile beslenen ChatGPT’de bile kötü amaçlı sonuçlar üretmek için istismar edilebilecek boşluklar var.
Bu sorunlar çözülene kadar ve çözülmedikçe, yapay zekanın geleceği kasvetli olmaya devam edecek ve yapay zekanın farklı endüstrilere ve süreçlere yaygın bir şekilde benimsenmesi yakın zamanda gerçekleşmeyecek.
Öne Çıkan Resim Kredisi: MobileSyrup