Yediler Grubu (G7) ülkelerinin liderleri Cumartesi günü yapay zekayı (AI) kontrol altında tutmak için teknik standartların oluşturulması çağrısında bulundu ve AI’nın güvenlik ve güvenlik gözetimini geride bıraktığını söyledi.
Japonya’nın Hiroşima kentinde bir araya gelen liderler, ulusların ortak bir vizyon ve güvenilir yapay zeka hedefi üzerinde bir araya gelin, bu çözümler değişiklik gösterse bile. Ancak yapay zeka gibi dijital teknolojilere yönelik herhangi bir çözüm, “ortak demokratik değerlerimizle uyumlu” olmalıdır. bir açıklamada söyledi.
ABD, Japonya, Almanya, İngiltere, Fransa, İtalya, Kanada ve AB’yi içeren G7, güvenilir yapay zeka yaratma çabalarının “yönetişim, telif hakları dahil fikri mülkiyet haklarının korunması, şeffaflığın teşviki, [and] dezenformasyon da dahil olmak üzere yabancı bilgi manipülasyonuna tepki.
G7 liderleri, “Ülkeler ve sektörler arasında giderek daha fazla öne çıkan üretken AI’nın fırsatlarını ve zorluklarını derhal değerlendirmemiz gerektiğinin farkındayız” dedi. Daha spesifik olarak, olası üretken AI çözümlerini ele almak için yıl sonuna kadar bir G7 çalışma grubunun oluşturulması çağrısında bulundular.
G7 zirvesi, geçen ay üyelerin “riske dayalı” yapay zeka kuralları talep ettiği bir “dijital bakanlar” toplantısını takip etti.
AI tehditleri çoktur
Gartner Research’te başkan yardımcısı ve seçkin bir analist olan Avivah Litan’a göre yapay zeka, insanlık için bir dizi tehdit oluşturuyor, bu nedenle insanlara hizmet etmeye devam etmesini sağlamak önemlidir, tersi değil.
Gündelik tehditler arasında, üretici yapay zeka modellerinde onları öngörülemez hale getiren şeffaflık eksikliği yer alır; Litan, satıcılar bile “dahili olarak nasıl çalıştıklarına dair her şeyi anlamıyor” dedi. geçen hafta bir blog yazısı. Ayrıca, doğrulanabilir veri yönetimi veya koruma güvencesi olmadığı için, üretken yapay zeka fikri mülkiyet ve telif hakkı yasalarını ihlal ederek içeriği istediği zaman çalabilir ve yeniden üretebilir.
Ek olarak, sohbet robotları ve diğer AI tabanlı araçlar, çıktıları yalnızca veri girişi kadar iyi olduğundan ve bu alım süreci genellikle internete bağlı olduğundan, yanlış veya uydurma “halüsinasyonlar” üretebilir. Litan, sonucun dezenformasyon, “yanlış bilgi” ve yanlış bilgi olduğunu kaydetti.
Düzenleyiciler, yapay zeka modeli satıcılarının sistemlerinde kullanılan içerik, yazılım ve diğer dijital varlıkların kaynağını doğrulamak için standartları kullanması gereken zaman çerçevelerini belirlemelidir. Şuradaki standartlara bakın: C2PA, scitt.io, IETF örnekler için,” dedi Litan.
“Sadece harekete geçmemiz ve yakında harekete geçmemiz gerekiyor” dedi.
Litan, MIT fizikçisi, kozmolog ve makine öğrenimi araştırmacısı Max Tegmark ve sözde “Yapay zekanın vaftiz babası” Geoffrey Hinton gibi yapay zeka uzmanlarının bile insanlığa yönelik varoluşsal tehdide uygulanabilir bir çözüm bulamadıklarını söyledi.
Bu ayın başlarında MIT’de düzenlenen bir AI konferansında Hinton, AI kendi kendine öğrenebildiği için zamanla katlanarak daha akıllı hale geleceği ve kendi kendine düşünmeye başlayacağı konusunda uyardı. Bu gerçekleştiğinde, Hinton’un kaçınılmaz olduğuna inandığı şeyi – insanların yok oluşunu – durduracak çok az şey var.
“Bunlar, Machiavelli’nin şimdiye kadar yazdığı her yerde ve her yerde yazılan tüm romanları okuyarak bizden öğrenmiş olacak. [about] insanları nasıl manipüle edeceğini, ”dedi Hinton, toplantı sırasında dolu bir eve Soru-Cevap alışverişi. “Ve eğer bizden çok daha akıllılarsa, bizi manipüle etmede çok iyi olacaklar. Neler olduğunu anlamayacaksın. ‘Bezelye mi yoksa karnabahar mı istersin’ diye sorulan ve ikisine de sahip olmak zorunda olmadığının farkında olmayan iki yaşında bir çocuk gibi olacaksın. Ve manipüle edilmesi o kadar kolay olacaksın.”
Avrupa yapay zekayı yavaşlatmak için harekete geçiyor
G7 açıklaması, Avrupa Birliği’nin anlaşmaya varmasının ardından geldi. AI Yasasının oluşturulmasıTasarım ve dağıtım açısından ChatGPT, DALL-E ve Midjourney gibi üretken araçlarda hüküm sürecek olan , yapay zeka üreticilerinin sistemlerini geliştirmek için kullandıkları telif hakkıyla korunan materyalleri ifşa etme ihtiyacı da dahil olmak üzere AB yasası ve temel haklarla uyum sağlayacak.
Avrupa Komisyonu Başkanı Ursula von der Leyen Cuma günü yaptığı açıklamada, “Yapay zeka sistemlerinin kaynağı ne olursa olsun doğru, güvenilir, güvenli ve ayrımcı olmamasını istiyoruz” dedi.
Bu ayın başlarında, Beyaz Saray ayrıca AI kurallarını açıkladı güvenlik ve gizliliği ele almak için. Biden Yönetiminin son çabası, bir tür sorumlu yeniliği teşvik etmeye yönelik önceki girişimlere dayanıyordu, ancak Kongre bugüne kadar yapay zekayı düzenleyecek herhangi bir yasa çıkarmadı. Geçen Ekim ayında yönetim bir açıklama yaptı. “AI Haklar Bildirgesi” için taslak yanı sıra bir AI Risk Yönetimi Çerçevesi; daha yakın bir zamanda, Ulusal Yapay Zeka Araştırma Kaynağını ayağa kaldırmak için bir yol haritası için bastırdı.
Bununla birlikte, Litan’a göre önlemlerin yasal dişleri yok “ve şu anda ihtiyacımız olan şeyler değiller”.
Amerika Birleşik Devletleri, AI kurallarının geliştirilmesinde bir nevi takipçi olmuştur. Çin, dünyaya yayılmada öncülük etti AI yönetişimi için çeşitli girişimlerancak bu girişimlerin çoğu vatandaşların mahremiyetiyle ilgilidir ve mutlaka güvenlikle ilgili değildir.
Litan daha önceki bir röportajda, “ABD düzenleyicilerinden güvenli, adil ve sorumlu yapay zekanın geliştirilmesi konusunda net yönergelere ihtiyacımız var” dedi. “AB’de Yapay Zeka Yasası ile geliştirildiğini gördüğümüz gibi anlamlı düzenlemelere ihtiyacımız var. Her şeyi bir anda mükemmelleştirmeseler de, en azından ilerliyorlar ve yinelemeye istekliler. ABD düzenleyicilerinin oyunlarını ve hızlarını artırmaları gerekiyor.”
Mart ayında, Apple’ın kurucu ortağı ve baş mühendisi Steve Wozniak, SpaceX CEO’su Elon Musk, yüzlerce yapay zeka uzmanı ve binlercesi daha isimlerini koydu. açık mektup topluma yönelik potansiyel riskleri öne sürerek daha güçlü yapay zeka sistemleri geliştirmeye altı aylık bir ara verilmesi çağrısında bulunuyor. Bir ay sonra AB milletvekilleri, yapay zekanın beklenenden daha hızlı geliştiğini söyleyerek dünya liderlerini yapay zeka teknolojilerini kontrol etmenin yollarını bulmaya çağırdı.
AI’dan Sam Altman’ı AI’da açın: ‘gerginim’
Geçen hafta ABD Senatosu, ifade veren üyelerin ve uzmanların yapay zekayı bir tehdit olarak gördüklerini söylediği iki ayrı oturum düzenledi. açık ve mevcut bir tehlike güvenlik, gizlilik ve telif hakları. ChatGPT gibi üretici yapay zeka teknolojisi, bazen kontrol edilmeyen çok sayıda kaynaktan veri ve bilgi alabilir ve kullanır.
ChatGPT yaratıcısı OpenAI’nin CEO’su Sam Altman’a IBM yöneticisi Christina Montgomery ve New York Üniversitesi fahri profesörü Gary Marcus katıldı. Senato önünde ifade vermek sohbet robotlarının sunduğu tehditler ve fırsatlar hakkında. Altman, “En büyük endişe duyduğum alanlardan biri” dedi. “Bu modellerin manipüle etme, ikna etme ve bire bir etkileşimli dezenformasyon sağlama konusundaki daha genel yeteneği – gelecek yıl bir seçimle karşı karşıya kalacağımız ve bu modellerin daha iyiye gittiği göz önüne alındığında, bence bu önemli bir endişe alanı. ”
Altman, düzenlemenin “akıllıca” olacağını çünkü insanların bir yapay zeka sistemiyle mi konuştuklarını veya bir sohbet robotu tarafından oluşturulan içeriğe (resimler, videolar veya belgeler) bakıp bakmadıklarını bilmeleri gerektiğini söyledi. “Bahsettiğimiz bu tür yeteneklere sahip olabilecek bir model sağlayan bir şirketten açıklama açısından neler beklendiğiyle ilgili kurallara ve yönergelere de ihtiyacımız olacağını düşünüyorum. Bu nedenle, bu konuda gerginim.”
Altman, ABD hükümetinin üç noktalı bir AI gözetim planı hazırlamasını önerdi:
- Büyük yapay zeka modellerini lisanslamak ve hükümet standartlarını karşılamayanları iptal etmekle görevli bir devlet kurumu oluşturun.
- Tehlikeli olup olmadıklarını değerlendirme becerisini içeren geniş dil modeli (LLM) güvenlik standartları oluşturun. LLM’ler, “kendi kendini kopyalayamamak”, hile yapmak ve kendi başlarına hareket etmeye başlamak gibi güvenlik testlerini geçmek zorunda kalacaklardı.
- Bağımsız uzmanlar tarafından denetlenen bağımsız bir yapay zeka denetim çerçevesi oluşturun.
Senato ayrıca, “filigran” kullanımının, kullanıcıların sohbet botlarından üretilen içeriğin nereden geldiğini belirlemesine yardımcı olabileceğine dair ifadeler de duydu. Tennessee Üniversitesi’ndeki AI Tennessee Initiative’in direktörü Lynne Parker, AI yaratıcılarının içeriğe meta veri ekmek kırıntıları eklemesini zorunlu tutmanın, kullanıcıların içeriğin kaynağını daha iyi anlamalarına olanak sağlayacağını söyledi.
Senato, yapay zeka içeriğine filigran eklenmesi konusunda gelecekte bir duruşma yapmayı planlıyor.
Telif hakkı © 2023 IDG Communications, Inc.