Üretken AI hem halktan hem de yatırımcılardan büyük ilgi görüyor. Ancak temel bir riski gözden kaçırıyorlar.
Ne zaman ChatGPT Kasım ayında kullanıma sunulan ve kullanıcıların bir chatbot’a soru göndermesine ve yapay zeka tarafından üretilen yanıtlar almasına olanak tanıyan internet, çılgına döndü. Düşünce liderleri, yeni teknolojinin sektörleri medyadan sağlık hizmetlerine dönüştürebileceğini ilan ettiler (bu son zamanlarda geçti ABD Tıbbi Ruhsatlandırma Sınavının üç bölümünün tümü).
Microsoft zaten yatırım Teknolojiyi arama motoru Bing’e entegre etmek gibi küresel ölçekte dağıtmayı amaçlayan yaratıcı OpenAI ile ortaklığına milyarlarca dolar. Kuşkusuz yöneticiler, bunun aramada geride kalan teknoloji devinin pazar lideri Google’ı yakalamasına yardımcı olacağını umuyor.
ChatGPT, üretici yapay zekanın yalnızca bir türüdür. Üretken AI, bir eğitim veri seti verildiğinde, buna dayalı olarak görüntüler, sesler veya sohbet robotu söz konusu olduğunda metin gibi yeni veriler üretebilen bir yapay zeka türüdür. Üretken AI modelleri, insanlardan çok daha hızlı sonuçlar üretebilir, bu nedenle muazzam bir değer yaratılabilir. Örneğin, AI’nın insan gözüne güvenmeden ayrıntılı yeni manzaralar ve karakterler oluşturduğu bir film prodüksiyon ortamı hayal edin.
Üretken yapay zekanın bazı sınırlamaları
Ancak üretken yapay zeka, her durum veya sektör için çözüm değildir. Oyunlar, videolar, görseller ve hatta şiirler söz konusu olduğunda ilginç ve faydalı çıktılar üretebilir. Ancak görev açısından kritik uygulamalarla, hataların çok maliyetli olduğu veya önyargı istemediğimiz durumlarda çok tehlikeli olabilir.
Örneğin, yapay zekanın teşhis ve tedavi planlamasını iyileştirmek için kullanıldığı, sınırlı kaynaklara sahip uzak bir bölgedeki bir sağlık tesisini ele alalım. Ya da tek bir öğretmenin yapay zeka yönlendirmeli ders planlaması yoluyla farklı öğrencilere benzersiz beceri seviyelerine göre kişiselleştirilmiş eğitim sağlayabildiği bir okul.
Bunlar, yüzeyde, üretken yapay zekanın değer yaratıyor gibi görünebileceği, ancak aslında bir dizi komplikasyona yol açacağı durumlardır. Teşhislerin doğru olduğunu nasıl anlarız? Eğitim materyallerine kökleşmiş olabilecek önyargı ne olacak?
Üretken AI modelleri “kara kutu” modelleri olarak kabul edilir. Altta yatan bir gerekçe sunulmadığı için çıktılarını nasıl oluşturduklarını anlamak imkansızdır. Profesyonel araştırmacılar bile sıklıkla çabalamak bu tür modellerin iç işleyişini anlamak. Örneğin, bir yapay zekanın bir kibrit çöpü görüntüsünü doğru bir şekilde tanımlamasını sağlayan şeyin ne olduğunu belirlemek herkesin bildiği gibi zordur.
ChatGPT’nin veya başka bir üretken modelin sıradan bir kullanıcısı olarak, ilk eğitim verilerinin nelerden oluştuğu hakkında daha da az fikriniz olabilir. ChatGPT’ye verilerinin nereden geldiğini sorun, size basitçe “İnternetten gelen çeşitli veriler” üzerinde eğitildiğini söyleyecektir.
Yapay zeka tarafından üretilen çıktının tehlikeleri
Bu, bazı tehlikeli durumlara yol açabilir. Modelin verilerden öğrendiği ilişkileri ve dahili temsilleri anlayamadığınız veya model için verilerin hangi özelliklerinin en önemli olduğunu göremediğiniz için, bir modelin neden belirli tahminler yaptığını anlayamazsınız. Bu, modeldeki hataları veya önyargıları tespit etmeyi – veya düzeltmeyi – zorlaştırır.
İnternet kullanıcıları zaten kayıtlı vakalar ChatGPT’nin satrançta başarısız olmaktan kime işkence edilmesi gerektiğini belirleyen Python kodu oluşturmaya kadar değişen yanlış veya sorgulanabilir cevaplar ürettiği yerler.
Ve bunlar sadece cevabın yanlış olduğunun bariz olduğu durumlar. Bazı tahminlere göre, ChatGPT yanıtlarının %20’si yapılan. Yapay zeka teknolojisi geliştikçe, kendine güvenen yapay zeka sohbet robotlarının doğru görünen yanıtlar ürettiği ve aradaki farkı anlayamadığımız bir dünyaya girmemiz düşünülebilir.
Birçoğu, yapmamız gerektiğini savundu. heyecanlı ol ama dikkatli ilerle. Üretken yapay zeka muazzam bir iş değeri sağlayabilir; bu nedenle, bu argüman doğrultusunda, risklerin farkında olurken, bu modelleri pratik durumlarda kullanma yollarına odaklanmalıyız – belki de yüksek yanlış cevap veya “halüsinasyon” oranını azaltma umuduyla onlara ek eğitim sağlayarak. .
Ancak, eğitim olabilir olmamak yeterli. Modelleri arzuladığımız sonuçları üretmek için basitçe eğiterek, yapay zekaların insan yargıçlarının başarılı bulduğu sonuçları ürettikleri için ödüllendirildiği bir durum yaratabiliriz – onları kasıtlı olarak bizi aldatmaya teşvik edebiliriz. Varsayımsal olarak, bu, yapay zekaların yakalanmaktan kaçınmayı öğrendiği ve bu amaçla karmaşık modeller oluşturduğu bir duruma dönüşebilir, hatta bazılarının tahmin ettiği gibi, insanlığı yenmek.
Beyaz kutulama sorunu
Alternatif nedir? Üretken yapay zeka modellerini nasıl eğittiğimize odaklanmak yerine beyaz kutu veya açıklanabilir makine öğrenimi gibi modelleri kullanabiliriz. Üretken AI gibi kara kutu modellerinin aksine, Beyaz kutu modeli modelin tahminlerini nasıl yaptığını ve hangi faktörleri dikkate aldığını anlamayı kolaylaştırır.
Beyaz kutu modelleri, algoritmik anlamda karmaşık olabilseler de, açıklamaları ve bağlamı içerdiklerinden yorumlamaları daha kolaydır. ChatGPT’nin beyaz kutulu bir sürümü size ne olduğunu söyleyebilir. düşünüyor doğru cevaptır, ancak bunun aslında doğru cevap olduğundan ne kadar emin olduğunu ölçün (%50 emin mi yoksa %100 mü?). Ayrıca, bu yanıtın nasıl geldiğini (ör. hangi veri girişlerine dayandığını) size bildirir ve aynı yanıtın diğer sürümlerini görmenize olanak tanıyarak kullanıcının sonuçlara güvenilip güvenilemeyeceğine karar vermesine olanak tanır.
Basit bir chatbot için bu gerekli olmayabilir. Bununla birlikte, yanlış bir cevabın büyük yankı uyandırabileceği bir durumda (eğitim, üretim, sağlık), böyle bir bağlama sahip olmak hayat değiştirebilir. Bir doktor teşhis yapmak için AI kullanıyorsa ancak yazılımın sonuçtan ne kadar emin olduğunu görebiliyorsa, durum doktorun tüm kararlarını gizemli bir algoritmanın çıktısına dayandırmasından çok daha az tehlikelidir.
Gerçek şu ki, AI iş dünyasında ve gelecekte toplumda önemli bir rol oynayacak. Ancak, doğru durum için doğru yapay zeka türünü seçmek bize kalmış.
Berk Birand, kurucusu ve CEO’su Fero Laboratuvarları.
Veri Karar Vericileri
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri işini yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En yeni fikirler ve güncel bilgiler, en iyi uygulamalar ile veri ve veri teknolojisinin geleceği hakkında okumak istiyorsanız DataDecisionMakers’ta bize katılın.
düşünebilirsin bile makale katkıda bulunmak senin!