Yapay zeka, insanlığı yok edebilecek tehlikeli bir yenilik mi? Birçok ciddi insan böyle düşünüyor. Bunların 3.000’den fazlası var bir mektup imzaladı “dev AI deneyleri” için altı aylık bir moratoryum çağrısında bulundu. Yazar Yuval Noah Harari, teknoloji efsanesi Steve Wozniak ve Elon Musk imzaladı.
Neden şimdi tüm bu kargaşa? AI, sürücü destek sistemleri, sosyal medyada gördüklerimizin seçimi veya internet arama motorlarının çalışması gibi günlük uygulamalarda bir süredir ortalıkta dolaşıyor.
Ancak bizler bu uygulamaların pasif tüketicileri olduk. ChatGPT bunu değiştirdi. AI üzerindeki perdeyi kaldırdı. İnternet bağlantısı olan herkes, aracı ve yapay zeka destekli diğer dil ve görüntü oluşturucuları kullanabilir. Herkes teknolojinin gücü hakkında bir fikir edinebilir. Etkileyici.
Aynı zamanda korkutucu. Birçok beyaz yakalı işçi, işlerinde güvende olduklarını düşündüler – endişelenemeyecek kadar uzman veya yaratıcı olduklarını hissettiler. Yine düşünüyorlar. Dil oluşturucular, genellikle yüksek standartlarda uzun, karmaşık metinler üretebilir.
Her tarzda şiir yazabilir, bilgisayar kodu yazabilir veya her türlü bilgiyi iletebilirler. Bugün sizi daha verimli hale getiriyorlar, yarın sizi gereksiz kılıyorlar.
Mektubun 3.000’den fazla imza sahibi arasında önsezi duygusu bu nedenle. Ve iş piyasasında büyük bir karışıklığa ilişkin endişelerin ötesine geçiyor. deneyimi yaşayacağımızdan korkuyorlar. Goethe’nin Büyücünün Çırağı (Büyücünün Çırağı).
Evi su basmaya başlayan bir süpürge sopasını canlandırıyor ve sonra evin kontrolünü kaybediyor: “Alıntı yaptığım ruhlar, emirlerim görmezden geliyor.”
Goethe’nin kehanet uyarısı
Goethe’nin şiiri gibi mektubun da Zamanın Sonu havası var: “Uygarlığımızın kontrolünü kaybetme riskine girmeli miyiz?” Goethe: “Cehennemin yavruları, sen bir ölümlü değilsin! Bütün ev batsın mı?” Ve Goethe gibi, mektup da selden bahsediyor: “Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı şeylerle doldurmasına izin vermeli miyiz?”
Birçoğu mektubu eleştirdi. Yazarlar, yapay zekanın gücünü abartarak yapay zeka şirketleri için ücretsiz pazarlama yapmakla suçlanıyor.
ChatGPT’nin etrafındaki ani yutturmaca konusunda haklılar. Mükemmel olmaktan uzaktır ve bazı şeyleri sistematik olarak yanlış yapar, örneğin yanlış bilgi üretmek yalnızca sınırlı eğitim materyaline sahip olduğu alanlarda (“kapalı alanlar”).
Ancak bu tam tersine rahatlamak için bir sebep değil. Bu tür dil modelleri yanlış bilgi ürettiğinde, bunu büyük ölçekte yapacaktır. Neden? Çünkü endüstri, internet aramasının geleceğinin dil modellerine dayalı olacağına inanıyor. Çeşitli kaynaklara bağlantılar yerine, arama sorularımıza yetkili gibi gelen yanıtlar alacağız.
Ters gittiğinde, büyük bir şekilde ters gidecek.
Bazı insanlar bunların sadece olasılıklarla çalışan dil modelleri olduğunu, kelimelere anlam yükleyen insan zekasına sahip olmadıklarını ve bu nedenle korkulacak bir şey olmadığını iddia ederler. Ancak teknolojinin iç işleyişi ile etkilerini karıştırıyorlar.
Günün sonunda kullanıcılar, bu modellerin dili nasıl ürettiğini umursamıyor. Onu insan benzeri olarak algılarlar ve genellikle otoriter olarak algılarlar.
Sosyal medya ile birkaç şirketin, neyi okuyacağımız, göreceğimiz ve ‘ilişkiye gireceğimiz’ konusundaki seçimlerine dayalı olarak kamusal tartışmanın gidişatını tamamen yeniden yapılandırmasına izin verdik. Sosyal medya pazarlanmadan önce herhangi bir risk değerlendirmesi yoktu.
Mark Zuckerberg’in artık rezil olan sloganı “hızlı hareket et ve bir şeyleri boz” idi. Ve böylece, aile fotoğraflarını paylaşmak veya çağrıları teşvik etmek için kullanılabilecek sosyal medyayı kullanıma sundu. azınlıklara karşı öldürücü şiddet.
Büyük dil modelleri, sosyal medyadan çok daha etkili olacaktır. İnsan dilinin aracılık ettiği “genel amaçlı” yapay zekaya – her türlü şeyi yapabilen – yaklaşıyorlar. Arkamıza yaslanıp bunun nasıl sonuçlanacağını izlememeliyiz.
Neyse ki, AB’de bazı düzenlemelerin başlangıcına sahibiz. ChatGPT gibi modellerin yanlış bilgilendirme sorununun, yanlış bilgilendirmeye karşı uygulama kuralları aracılığıyla ele alınması gerekiyor. Muhtemelen Dijital Hizmetler Yasası temelinde de ele alınabilir. AB’nin Yapay Zeka Yasası üzerinde çalışılmaktadır ve acilen yasalaştırılması gerekmektedir.
Teknik çözümlere de daha fazla dikkat edilmelidir. AI’nın zararlarını ele almak için birçok fikir ve girişim vardır, örneğin içeriği doğrulamak için mekanizmalar. Uygulanabilirse, AI tarafından oluşturulan içerikle ilgili bir sorunu ortadan kaldıracaklar: bazı içeriğin gerçek olup olmadığını veya manipüle edilip edilmediğini veya yapay olarak üretilip üretilmediğini söyleyememek.
Mektup yazarları, özellikle risk değerlendirmelerinin olmamasından endişe duyuyorlar. Bir noktaları var.
ChatGPT’nin arkasındaki şirket (artık büyük ölçüde Microsoft tarafından kontrol ediliyor) OpenAI, zararları azaltmaya çalıştı ve ChatGPT gerçekten de bazı bariz tuzaklardan kaçınıyor. Size nasıl kirli bomba yapacağınızı söylemez (eğer bir soru sormanın dolambaçlı yolu).
ChatGPT web sitesinde OpenAI, teknik bir makale yayınladı kardeş dil modelinde. Modelin zararı azaltmak için nasıl ince ayar yapıldığına dair önemli bilgiler sağlar. Ancak, veri mühendisleri için veri mühendisleri tarafından yazılan bir makaledir. Esas olarak modelin diğer modellere göre optimizasyonu ile ilgilidir.
Bu analiz, birçok farklı uzmanlığı içermesi ve bir dil modelinin birçok kötü amaçlı kullanım durumunu ve bunun istenmeyen sonuçlarını herkesin kullanımına sunmadan önce sistematik olarak öngörmesi gereken sistematik bir risk değerlendirmesinden çok farklıdır.
Politika yapıcıların çeviklik göstermesi gerekirse, artık yapay zekada. Teknolojinin, risklerini ele alıp azaltmak ve hukukun üstünlüğüne dayalı iş dostu bir ortam yaratmak için acilen düzenleyici bir çerçeveye ihtiyacı var ve tüm şirketler için eşit koşullar sunuyor.