OpenAI’nin geçen yılın sonunda büyük dil modeli ChatGPT’yi dünyaya tanıtmasının üzerinden altı ay geçti. O zamandan beri her gün, kendimizi yürütürken bulduğumuz küresel AI deneyinin sonuçları hakkında en az bir konuşma yaptım. Buna hazır değiliz ve biz derken herkesi, bireyleri, kurumları, hükümetleri ve hatta bugün teknolojiyi kullanan şirketleri kastediyorum.
Kendi iyiliğimiz için çok hızlı hareket ettiğimiz duygusu,
açık mektup Yaşamın Geleceği Enstitüsü tarafından yayınlanan ve bazı önde gelen IEEE üyeleri de dahil olmak üzere birçok yapay zeka uzmanı tarafından imzalanan yapay zeka araştırmasında bir duraklama çağrısında bulunuyor. Haber Müdürü Margo Anderson’ın bildirdiği gibi çevrimiçi içinde Enstitüimza sahipleri Kıdemli Üye ve IEEE’nin AI Ethics Maestro’sunu içerir Eleanor “Nell” Watson ve IEEE Üyesi ve IBM’de yazılım mühendisliği baş bilimcisi, Grady Booch. Anderson’a şunları söyledi: “Bu modeller, gövdeleri, mimarileri, korkulukları veya kullanıcılardan gelen verileri işleme politikaları konusunda hiçbir şeffaflık sunmayan şirketler tarafından vahşi doğaya salınıyor. Deneyimim ve mesleki ahlakım bana bir tavır almam gerektiğini söylüyor…”
IEEE AI etik ve yönetişim programlarını keşfedin
IEEE CAI 2023 Yapay Zeka Konferansı, 5-6 Haziran, Santa Clara, Kaliforniya.
AI Etik ve Yönetişim Standartları için AI GET Programı
IEEE P2863 Yapay Zeka Çalışma Grubunun Kurumsal Yönetişimi
Yapay Zeka Etiği Konusunda IEEE Farkındalık Modülü
Yapay Zeka Etiğinin Değerlendirilmesi ve Sertifikalandırılmasındaki Son Gelişmeler
Ancak araştırma ve devreye alma duraklamadı ve AI, çeşitli alanlarda gerekli hale geliyor. Örneğin, Kıdemli Editör Samuel K. Moore’un Haziran sayısının baş haberinde bildirdiği gibi, Google, mantığın ve belleğin yongalara yerleştirilmesini optimize etmek için derin pekiştirmeli öğrenmeyi uyguladı “Yonga Tasarımında Çirkin Bir Bölümü Bitirmek” Haziran ayının derinliklerinde, KoBold Metals’in kurucu ortakları, elektrikli araç pilleri için gerekli mineralleri aramak için makine öğrenimi modellerini nasıl kullandıklarını “” bölümünde açıklıyor.Bu Yapay Zeka, Pil Minerallerinin Gizli İstiflerini Arıyor”
Önerilen duraklama ile AI’nın baştan sona benimsenmesi arasında bir yerde, teknoloji CEO’larının sevdiği düzenlemeleri oluşturmanın sosyal, ekonomik ve politik zorlukları yatıyor.
OpenAI’den Sam Altman Ve Google’ın Sundar Pichai’si hükümetlerden yaratmalarını istedi.
“Bu modeller, gövdeleri, mimarileri, korkulukları veya kullanıcılardan gelen verileri işleme politikaları konusunda hiçbir şeffaflık sunmayan şirketler tarafından vahşi doğaya salınıyor.”
Mevcut AI anını anlamlandırmaya yardımcı olmak için,
IEEE Spektrumu biyomedikal, jeomühendislik ve yapay zeka kapsamı nedeniyle bir yazarın en iyi çalışmaları dalında yakın zamanda Jesse H. Neal Ödülü kazanan kıdemli editör Eliza Strickland. Güvenilirliğin muhtemelen en acil yakın vadeli endişe olduğu konusunda hemfikirdik. Bilginin kaynağını ve izlenebilirliğini ele almak çok önemlidir. Aksi takdirde insanlar o kadar çok kötü bilgiyle boğulabilir ki, insanlar arasındaki neyin gerçek neyin gerçek olmadığı konusundaki kırılgan fikir birliği tamamen bozulur.
Avrupa Birliği, sunduğu tekliflerle dünyanın geri kalanının ilerisindedir.
Yapay Zeka Yasası. Yapay zeka uygulamalarını üç risk kategorisine ayırır: Kabul edilemez risk oluşturanlar yasaklanır, yüksek riskli uygulamalar sıkı bir şekilde düzenlenir ve çok az risk teşkil ettiği düşünülen uygulamalar düzensiz bırakılır.
AB’nin yapay zeka yasası taslağı, izlenebilirlik ve derin sahtekarlıklara değiniyor, ancak eğitim verilerine dayalı olarak yüksek kaliteli metin, resim veya diğer içerikleri üretebilen üretici yapay zeka derin öğrenme modellerini özel olarak ele almıyor. Ancak, son zamanlarda
makale New Yorklu bilgisayar bilimcisi Jaron Lanier tarafından, üretken AI sistemlerinde kaynak ve izlenebilirliği doğrudan üstlenir.
Lanier, üretken yapay zekayı, insanlar tarafından yapılan işleri bir araya getiren bir sosyal işbirliği olarak görüyor. Bu sistemlerin ürünlerini, katkılarıyla takdir edilmesi gereken insanlara kadar izlenebilen veri kaynaklarına dayalı makine üretimi olarak etiketlemek anlamına gelen “veri saygınlığı” adlı bir kavramın geliştirilmesine yardımcı oldu. Lanier, “Fikrin bazı versiyonlarında,” diye yazıyor, “insanlar, büyük modeller aracılığıyla filtrelenip yeniden birleştirildiğinde bile oluşturdukları şey için para alabilir ve teknoloji merkezleri, insanların yapmak istediği şeyleri kolaylaştırmak için ücret alır.”
Bu, şu anda keşfetmeye değer bir fikir. Ne yazık ki, ChatGPT’den yapay zekayı hayatlarımıza nasıl entegre etmemiz gerektiğine rehberlik etmesi için küresel bir düzenleyici rejim çıkarmasını isteyemiyoruz. Yönetmelikler nihayetinde şu anda sorumlu olan insanlar için geçerlidir ve insanlar ve makinelerimiz için güvenli ve müreffeh bir geleceği yalnızca biz sağlayabiliriz.