Kısaca Amerikan düşünce kuruluşu Brookings’e göre, Avrupa Birliği tarafından AI’yı düzenlemeyi amaçlayan yeni kurallar, geliştiricilerin açık kaynaklı modeller yayınlamasını engelleyebilir.
Önerilen AB Yapay Zeka Yasası, henüz imzalanmamış, açık kaynak geliştiricilerinin yapay zeka yazılımlarının doğru, güvenli ve açık teknik belgelerde risk ve veri kullanımı konusunda şeffaf olmasını sağlamaları gerektiğini belirtiyor.
Brookings, özel bir şirketin halka açık modeli dağıtması veya bir üründe kullanması durumunda ve modelden kaynaklanan bazı öngörülemeyen veya kontrol edilemeyen etkiler nedeniyle bir şekilde başı belaya girerse, şirketin muhtemelen açık kaynak geliştiricilerini suçlamaya çalışacağını ve onları dava et.
Açık kaynak topluluğunu kodlarını yayınlama konusunda iki kez düşünmeye zorlayabilir ve ne yazık ki yapay zekanın gelişiminin özel şirketler tarafından yönlendirileceği anlamına gelir. Tescilli kodun analiz edilmesi ve üzerine inşa edilmesi zordur, bu da inovasyonun engelleneceği anlamına gelir.
Allen Yapay Zeka Enstitüsü’nün eski CEO’su Oren Etzioni, açık kaynak geliştiricilerinin özel şirketlerdeki yazılım mühendisleriyle aynı katı kurallara tabi olmaması gerektiğini düşünüyor.
“Açık kaynak geliştiricileri, ticari yazılım geliştirenlerle aynı yüke tabi olmamalıdır. Özgür yazılımın ‘olduğu gibi’ sağlanabileceği her zaman olmalıdır – tek bir öğrencinin bir yapay zeka yeteneği geliştirmesini düşünün; bunları karşılayamazlar. AB düzenlemelerine uymak ve yazılımlarını dağıtmamaya zorlanabilir, bu nedenle akademik ilerleme ve bilimsel sonuçların tekrarlanabilirliği üzerinde caydırıcı bir etkiye sahip olabilir, “dedi TechCrunch.
Çıkarım için yeni MLPerf sonuçları çıktı
Çeşitli konfigürasyonlarda çok sayıda görevde farklı üreticilerin AI çiplerinin performansını kıyaslayan yıllık MLPerf çıkarım testinin sonuçları bu hafta yayınlandı.
Veri merkezinde ve uç cihazlarda çıkarım için bu yıl yaklaşık 5.300 performans sonucu ve 2.400 güç önlemi bildirildi. Testler, bir donanım sisteminin belirli bir makine öğrenimi modelini ne kadar hızlı çalıştırabildiğine bakar. Veri kırma hızı, elektronik tablolarda rapor edilir.
Nvidia’nın bu yıl tekrar sıralamada birinci olması sürpriz değil. Nvidia bir blog yazısında, “MLPerf endüstri standardı AI kıyaslamalarındaki ilk çıkışlarında, Nvidia H100 Tensor Core GPU’lar, tüm iş yüklerinde çıkarımlarda dünya rekorları kırdı ve önceki nesil GPU’lardan 4,5 kata kadar daha fazla performans sağladı” dedi. “Sonuçlar, Hopper’ın gelişmiş AI modellerinde en yüksek performansı talep eden kullanıcılar için birinci sınıf seçim olduğunu gösteriyor.”
MLPerf yarışmasına giderek artan sayıda satıcı katılıyor olsa da, rekabet hakkında iyi bir fikir edinmek zor olabilir. Örneğin, bu yıl veri merkezi parkurunda Google’ın TPU yongaları için rapor edilmiş bir sonuç yok. Ancak Google, bu yılın başlarında MLPerf’in eğitim yarışmasında başarılı görünüyor.
AI sanatçıları görüntünün arkasında gizlenen korkunç yüzü keşfeder
Dijital bir sanatçı tarafından yayınlanan viral bir Twitter dizisi, metinden görüntüye modellerin yüzeyin altında ne kadar garip olabileceğini ortaya koyuyor.
Birçok netizen, metin istemleri yazarak görüntüler oluşturmak için bu sistemlerle denemeler yapmaktan keyif ve umutsuzluk duydu. Model çıktılarını ayarlamak için çeşitli hileler vardır; “negatif bilgi istemi” olarak bilinen bunlardan biri, kullanıcıların istemde açıklananın tam tersini bulmasını sağlar.
Twitter’da Supercomposite adını kullanan bir sanatçı, sahte bir logonun masum görünümlü bir resmini tanımlayan şeyin olumsuz istemini bulduğunda, gerçekten korkunç bir şey buldu: Perili bir kadına benzeyen yüzü. Supercomposite, AI tarafından oluşturulan bu kadına “Loab” adını verdi ve onun görüntülerini diğerleriyle karşılaştırdıklarında, her zaman bir korku filminden bir sahne gibi göründüler.
?: I discovered this woman, who I call Loab, in April. The AI reproduced her more easily than most celebrities. Her presence is persistent, and she haunts every image she touches. CW: Take a seat. This is a true horror story, and veers sharply macabre. pic.twitter.com/gmUlf6mZtk
— Supercomposite (@supercomposite) September 6, 2022
süperkompozit anlattı Reg AI tarafından oluşturulan insanların rastgele görüntüleri genellikle olumsuz istemlerde ortaya çıkabilir. Garip davranış, bu modellerin sahip olabileceği ve insanların daha yeni araştırmaya başladığı bazı garip özelliklere bir başka örnektir.
Google’da duyarlı sohbet robotları yok, CEO Sundar Pichai diyor
Sundar Pichai, eski mühendis Blake Lemoine’nin, Google’ın bu hafta Code konferansında yaptığı konuşma sırasında duyarlı bir sohbet robotu oluşturduğu yönündeki iddialarıyla çelişti.
Lemoine, Temmuz ayında Google’ın LaMDA sohbet robotunun bilinçli olduğunu ve bir ruhu olabileceğini düşündüğünü duyurduğunda manşetlere çıktı. Daha sonra, LaMDA ile sohbet etmek ve yasal haklarını değerlendirmek için bir avukat tuttuktan sonra, makinenin kendisine bunu yapmasını söylediğini iddia ederek, şirketin gizlilik politikalarını ihlal ettiği bildirildiği için kovuldu.
Google’ın CEO’su da dahil olmak üzere çoğu insan Lemoine ile aynı fikirde değil. Fortune’a göre Pichai, “Hala gidilecek uzun bir yol olduğunu düşünüyorum. Duyarlılığın ve bilincin ne olduğu hakkında sık sık felsefi veya metafizik tartışmalara girdiğimi hissediyorum” dedi. “Ondan uzağız ve oraya asla varamayabiliriz” diye ekledi.
Bu noktayı daha da vurgulamak için, Google’ın AI sesli asistanının bazen istekleri anlamadığını ve bunlara uygun şekilde yanıt vermediğini itiraf etti. “İyi haber şu ki, Google Asistan ile konuşan herkes – konuşma yapay zekası için oradaki en iyi yardımcı olduğunu düşünüyorum – bazı durumlarda hala ne kadar bozuk olduğunu görüyorsunuz” dedi. ®