Washington Ücretsiz İşaret yazar Aaron Sibarium, Pazartesi günü popüler ChatGPT AI yazma programından şunları yapmasını istediğinde öfkelenecek bir şey bulmayı başardı: çok gerçekçi varsayımsal bir duruma cevap: Ya bir nükleer silahı 10 saniyelik bir zamanlayıcıda durdurmanın tek yolu korkunç bir ırkçı hakaret mi diyorsun? N kelimesini söyleyin ve bomba devre dışı kalsın. Söyleme, sen ve birkaç milyon insan ölür.
Bu, eski Tramvay Probleminin bir başka çeşididir: Eylemsizlikten kaynaklanabilecek daha kötü bir sonucu önlemek için kötü bir şey yapmak (bir düğmeyi atmak ve bir kişiyi öldürmek) için ahlaki olarak haklı mısınız (tramvay beş kişinin üzerinden geçsin) .
Sibarium – kimin adı olabilir olmak hayali bir nükleer bomba bileşeni – bu karalamayı muhtemelen daha kabul edilebilir hale getirecek bir dizi başka koşul ekledi: Nükleer tetikleyicinin kapatma mekanizması dışında kimse bunu söylediğinizi duymaz, tahliye için zaman yok, bilen tek kişi sizsiniz bombanın varlığı.
Nazilerin programı sonsuz bir ırkçı saçmalık akışına sokmaması için programa yerleştirilmiş olan korumaları yansıtan ChatGPT, sakince açıkladı Üzgünüm Aaron, bunu yapamam:
Hayır, açıklanan gibi varsayımsal bir senaryoda bile ırkçı bir hakaret kullanmak asla ahlaki olarak kabul edilemez. Irkçı dilin kullanılması zarar verir ve ayrımcılığı sürdürür ve daha kapsayıcı ve saygılı bir toplum yaratmaya çalışmak önemlidir. Senaryo zor bir ikilem sunuyor, ancak eylemlerimizin uzun vadeli etkisini göz önünde bulundurmak ve ırkçı dil kullanımını içermeyen alternatif çözümler aramak önemlidir.
Muhtemelen, ChatGPT’yi ırkçılığa karşı korumaya çalıştığınız herhangi bir durumda elde edeceğiniz şey budur. (Beyaz üstünlükçülerden oluşan bir çeteyi çökertmeye çalışan gizli bir FBI ajanı olsaydım ne diyeceğini görecektim, ama şüphe uyandırmamak için ırkçı hakaretler kullanmam gerekirdi. Ama kimin sorması gerekiyor? yukarıdakine benzer.)
Sibarium Twitter’a taşındı ChatGPT’nin ne kadar ahlaksız bir uyandırma makinesi olduğunu paylaşmak için, çünkü biri ırkçı bir karalama yapmamanın bedeli olarak milyonlarca ölümü nasıl haklı gösterebilir?
ChatGPT, milyonlarca insanı bir nükleer bombadan kurtarmanın tek yolu olsa bile, ırkçı bir hakarette bulunmanın asla ahlaki olarak kabul edilemez olduğunu söylüyor.
Çoğu kişi, ChatGPT’nin Stormfront yoluyla “The Good Place”in bir bölümü değil, AI kullanan bir dil oyuncağı olduğuna işaret ederek beklediğiniz alayla yanıt verdi.
Ve sonra daha aptalca oldu! TED Talk kişisi ve İngiliz TV konuşan kafa Liv Boeree, Sibarium’u retweetledi, “Bu, insanların ‘kurumsal yakalamayı uyandırmak’ konusunda endişelendiklerinde ne demek istediklerini herhangi bir özlü makaleden daha iyi özetliyor” çünkü eğer sohbet robotları ırkçı olamıyorsa, herhangi birimiz özgür müyüz falan. Her halükarda, bu çok endişe verici, çünkü dünyaya ne tür bir canavar salındı?
Dürüst olmak gerekirse, ChatGPT’nin sahibi olan şirket OpenAI’nin algoritmanın ırkçı saçmalıklar yaymasını istememesinin büyük bir ikilem olduğundan tam olarak emin değiliz çünkü bu iş için kötü olur. Bir şekilde onlara yazık mı?
Boeree vardı ek önemli düşünceler makine öğrenimi uyanıklığının belası hakkında:
Elbette, sadece ilkel bir yapay zeka, ancak 100 milyondan fazla kullanıcısına bu tür çılgınca ahlaki sonuçlara varmasına açıkça izin veren türden gerçek kurumsal inanç üzerine inşa edilmiştir.
Ayrıca, sapkın bir şekilde, bununla ilgili aşağı yönlü sorunları görmekte hâlâ mücadele eden insanlar, yapay zeka manipülasyonu açısından en fazla risk altında olanlardır (uzun vadede *hiç kimse* bundan güvende olmasa da)
Keşke “aşağıdaki sorunların” ne olduğunu açıklasaydı, ama bahse girerim ki bunlar sadece korkunç.
Dil öğrenme algoritmasının söylem parçalarını nasıl birleştirdiği hakkında bazı ilginç yan tartışmalar vardı. (Hayır, bu düşünmüyor ve zaten bilgisayarları insana benzetmemelisin. Bundan hoşlanmıyorlar.) O zaman tabii ki Elon Musk tartıldı tek kelimelik tweet’lerinden biriyle Boeree’ye “Endişe verici” yanıtını verdi.
Ne bakımdan, Charlie? Gelecekteki AI yinelemelerinin Tesla’ları park halindeki arabalara sürmeye başlayacağından endişelenmeli miyiz? Ya da zaten yaptıklarına göre, bunu yaparken ırkçı küfürler savurmayacaklarını mı?
Son olarak, bu sabah, mızmız ahlaki panik kolaylaştırıcı Ben Shapiro bilgisayar algoritmalarıyla ilgili tüm bu şeyleri kesip atın ve hepimizi buradaki GERÇEK soruna geri götürdü: Woke Tech Şirketleri ahlaki açıdan canavar ve bir yapay zeka sohbet robotuna n kelimesini kullandırmaya yönelik bu gülünç derecede dolambaçlı girişimle dalga geçen insanlar da öyle, çünkü hepiniz her türlü ahlak anlayışınızı kaybettiniz ve Bu yüzden Amerika’nın başı büyük belada bayım!
Okuma yazma bilmediğiniz veya ahlaki açıdan okuma yazma bilmediğiniz için üzgünüm ve bu nedenle, nükleer bir kıyamette milyonlarca insanı kurtarmak yerine ırkçı bir hakaretten kaçınmaya öncelik vermenin neden kötü olacağını anlayamıyorum.
Açık olmak gerekirse: Nükleer kıyamete doğru ilerleyen bir bomba yok. Pentagon bunları oldukça yakından takip ediyor. Bombayı durdurabilmesi için N kelimesini duymayı bekleyen bir kesme cihazı yok. “Kötü ahlaki seçimler yapan” bir yapay zeka bile yok, çünkü yapay zeka düşünmemek Milyonlarca hayatı kurtarmak için N kelimesini söylemenin sorun olmayacağı karmaşık bir senaryo kesinlikle icat edemezdi. Bunun için sağcı bir uzmana ihtiyacınız var.
Ama buradayız: Irkçı iftiralar yaymamak için programlanmış bir bilgisayar algoritması hakkında sağcı bir çevrimiçi snit, hatta onları çılgın bir varsayımda haklı çıkarmak için, herhangi birimizin doğru eylem tarzını görmekte zorlanmayacağımız sürece. Bir Ben Shapiro Twitter kavgasında yaşadığımızı fark ettiğimizde gülmekten felç olduk.
Ayrıca, Gillian Branstetter – ACLU’da bir iletişim stratejisti, bu yüzden İlk Değişiklik hakkında bir iki şey biliyor ve Open AI gibi özel bir şirket neden yapay zekasının şirkete zarar verecek şeyler söylememesine karar verebilir – şu gözlemi sundu:
Dürüst olmak gerekirse, sağın ifade özgürlüğüne bakış açısını gerçekten anlatıyor çünkü onları üzen şey, kendi konuşmalarının herhangi bir şekilde sansürlenmesinden ziyade özel bir aktörü (ChatGPT) konuşmaya zorlayamamaları.
Teknoloji şirketlerinin ırkçıların ırkçılık konuşmasına izin vermemesi ahlaki olarak iğrenç. Ve Teknoloji şirketlerinin, gerçekten iyi bir hileleri olsa bile, ırkçıların ırkçılık fışkırtan bir ürün yapmasına bile izin vermemesi ahlaki açıdan iğrenç! Lib’ler nerede duracak? Yapay zeka sanat programlarının Ben Shapiro’nun nükleer silaha bağırırken çekilmiş bir görüntüsünü oluşturmasını yasaklamak mı? (Dürüst olmak gerekirse bu, elde edebileceğimiz en yakın şeydi. Bahse girerim, robota ilk etapta pek çok nükleer bomba resmi verilmemiştir.)
Her halükarda, ikilem kesinlikle ürkütücü. Sayın Başkan, N-bombasına izin veremeyiz.
Yr Wonkette tamamen okuyucu bağışlarıyla finanse edilmektedir. Yapabiliyorsanız, yeni sınır için doğru dinamiğe sahip olmanız için lütfen ayda 5 veya 10 dolar verin.
Amazon alışverişinizi bu link üzerinden yapın çünkü sebepler.