https://paddling.com/paddle/trips/trucchi-monopoly-go-ios-e-android-link-dadi-gratis-monopoly-go-2025 https://paddling.com/paddle/trips/come-avere-dadi-infinite-su-monopoly-go-dadi-gratis-su-monopoly-go-ios-android https://paddling.com/paddle/trips/nuovo-500-dadi-gratis-monopoly-go-per-ios-e-android-08fdgfd https://paddling.com/paddle/trips/1000-dadi-gratis-monopoly-go-generatore-dadi-infinite-su-monopoly-go-app-ios-android https://paddling.com/paddle/trips/link-2000-dadi-gratis-monopoly-go-link-dadi-gratis-su-monopoli-go-per-android-e-ios-2025 https://paddling.com/paddle/trips/trucchi-dadi-gratis-monopoly-go-hack-italiano-per-ios-y-android-dadi-illimitati-infinite https://paddling.com/paddle/trips/trucchi-monopoly-go-ios-e-android-link-dadi-gratis-monopoly-go-2025/?asdet https://paddling.com/paddle/trips/come-avere-dadi-infinite-su-monopoly-go-dadi-gratis-su-monopoly-go-ios-android/?wdug https://paddling.com/paddle/trips/nuovo-500-dadi-gratis-monopoly-go-per-ios-e-android-08fdgfd/?ri3s https://paddling.com/paddle/trips/1000-dadi-gratis-monopoly-go-generatore-dadi-infinite-su-monopoly-go-app-ios-android/?asod https://paddling.com/paddle/trips/link-2000-dadi-gratis-monopoly-go-link-dadi-gratis-su-monopoli-go-per-android-e-ios-2025/?rgt https://paddling.com/paddle/trips/trucchi-dadi-gratis-monopoly-go-hack-italiano-per-ios-y-android-dadi-illimitati-infinite/?saidw https://nothingbuttop10.bandcamp.com/album/paddletrip-italiano-obl-nuovo

Mon. Aug 4th, 2025
“Duyarlılık” Yanlış Sorudur – O’Reilly

6 Haziran’da Google mühendisi Blake Lemoine, Google’ın etkileyici büyük modeli LaMDA ile NDA’sını ihlal ederek yaptığı bir dizi konuşmayı ifşa ettiği için Google tarafından askıya alındı. Lemoine’nin LaMDA’nın “duyarlılığa” ulaştığına dair iddiası, hemen hemen her AI uzmanı tarafından geniş çapta duyuruldu ve eleştirildi. Nando deFreitas’tan sadece iki hafta sonra, tweet atmak DeepMind’in yeni Gato modeli hakkında, yapay genel zekanın sadece bir ölçek meselesi olduğunu iddia etti. Ben uzmanlarla birlikteyim; Bence Lemoine kendi inanma isteğine kapıldı ve DeFreitas’ın genel zeka konusunda yanıldığına inanıyorum. Ama aynı zamanda “duyarlılık” ve “genel zeka”nın tartışmamız gereken sorular olmadığını düşünüyorum.

En yeni nesil modeller, bazı insanları zeki olduklarına ve bu insanların kendilerini kandırıp kandırmadıklarına ikna edecek kadar iyidir. Konuşmamız gereken, bu modelleri inşa eden araştırmacıların halka karşı ne tür sorumluluklara sahip olduğudur. Google’ın çalışanlarından bir Gizlilik Sözleşmesi imzalamasını isteme hakkını tanıyorum; ancak bir teknolojinin genel zeka kadar potansiyel olarak geniş kapsamlı etkileri olduğunda, onu gizli tutmakta haklılar mı? Veya soruya diğer yönden bakıldığında, bu teknolojiyi kamuoyunda yanlış anlamalara ve hiçbirinin garanti edilmediği yerde paniğe neden olacak mı?


Daha hızlı öğrenin. Daha derin kaz. Daha uzağa bakın.

Google, OpenAI ve Facebook’a ek olarak AI’yı ileriye taşıyan üç büyük aktörden biridir. Bu üçü açıklığa karşı farklı tutumlar sergilemiştir. Google, büyük ölçüde akademik makaleler ve basın bültenleri aracılığıyla iletişim kurar; başarılarının şatafatlı duyurularını görüyoruz, ancak modellerini gerçekten deneyebilecek insan sayısı son derece az. OpenAI hemen hemen aynıdır, ancak API’lerinin üzerine yeni ürünler oluşturmanın yanı sıra GPT-2 ve GPT-3 gibi modellerin test sürüşünü de mümkün kılmıştır—GitHub Copilot sadece bir örnektir. Facebook, en büyük modeli OPT-175B’nin yanı sıra önceden oluşturulmuş birkaç küçük model ve OPT-175B’nin nasıl eğitildiğini açıklayan çok sayıda notla birlikte açık kaynaklıdır.

“Açıklığın” bu farklı versiyonlarına bilimsel yöntemin merceğinden bakmak istiyorum. (Ve bu araştırmanın gerçekten bir mühendislik meselesi olduğunun farkındayım, bilim değil.) Çok genel olarak konuşursak, herhangi bir yeni bilimsel ilerlemeden üç şey istiyoruz:

  • Geçmiş sonuçları yeniden üretebilir. Bu kriterin bu bağlamda ne anlama geldiği açık değildir; örneğin bir yapay zekanın Keats’in şiirlerini yeniden üretmesini istemiyoruz. Daha yeni bir modelin en az eski bir model kadar iyi performans göstermesini isteriz.
  • Gelecekteki fenomenleri tahmin edebilir. Bunu (en azından) inandırıcı ve okunabilir yeni metinler üretebilmek olarak yorumluyorum. Birçok AI modelinin bunu başarabileceği açıktır.
  • Tekrarlanabilir. Başka biri aynı deneyi yapabilir ve aynı sonucu alabilir. Soğuk füzyon bu testi kötü bir şekilde geçmektedir. Peki ya büyük dil modelleri?

Ölçekleri nedeniyle, büyük dil modellerinin tekrarlanabilirlikle ilgili önemli bir sorunu vardır. Facebook’un OPT-175B’sinin kaynak kodunu indirebilirsiniz, ancak erişiminiz olan herhangi bir donanım üzerinde kendiniz eğitemezsiniz. Üniversiteler ve diğer araştırma kurumları için bile çok büyük. Yine de Facebook’un söylediğini yaptığı sözünü almanız gerekiyor.

Bu sadece AI için bir sorun değil. 90’lı yıllardaki yazarlarımızdan biri, lisansüstü eğitimden Harvard’da büyük ölçekli dağıtılmış bilgi işlem araştırdığı profesörlüğe geçti. Göreve başladıktan birkaç yıl sonra, Google Research’e katılmak için Harvard’dan ayrıldı. Google’a geldikten kısa bir süre sonra, “herhangi bir üniversitede çalışabileceğimden çok daha büyük ve daha ilginç olan problemler üzerinde çalıştığını” yazdı. Bu önemli bir soruyu gündeme getiriyor: endüstriyel süreçlerin boyutuna ölçeklenemediğinde akademik araştırma ne anlama gelebilir? Kim bu ölçekte araştırma sonuçlarını tekrarlama yeteneğine sahip olacak? Bu sadece bilgisayar bilimi için bir sorun değildir; yüksek enerji fiziğindeki birçok yeni deney, yalnızca Büyük Hadron Çarpıştırıcısında (LHC) ulaşılabilen enerjileri gerektirir. Dünyada çoğaltılabilecekleri tek bir laboratuvar varsa sonuçlara güvenebilir miyiz?

Büyük dil modellerinde yaşadığımız problem tam olarak bu. OPT-175B, Harvard veya MIT’de çoğaltılamaz. Yeterli bilgi işlem kaynaklarına sahip olmalarına rağmen muhtemelen Google ve OpenAI tarafından çoğaltılamaz. OPT-175B’nin Facebook’un altyapısına (özel donanım dahil) Google’ın altyapısında yeniden üretilemeyecek kadar yakından bağlı olduğuna bahse girerim. Aynı şeyin LaMDA, GPT-3 ve diğer çok büyük modeller için de geçerli olduğuna bahse girerim, onları üretildikleri ortamdan çıkarırsanız. Google kaynak kodunu LaMDA’ya yayınlasaydı, Facebook bunu altyapısında çalıştırmakta sorun yaşardı. Aynısı GPT-3 için de geçerlidir.

Öyleyse: Önemli deneyleri yeniden üretmek için gereken altyapının yeniden üretilemediği bir dünyada “tekrarlanabilirlik” ne anlama gelebilir? Cevap, kendi sorularını sorabilmeleri ve çok çeşitli sonuçları görebilmeleri için dışarıdan araştırmacılara ve ilk benimseyenlere ücretsiz erişim sağlamaktır. Bu modeller yalnızca oluşturuldukları altyapı üzerinde çalışabileceğinden, bu erişimin genel API’ler aracılığıyla olması gerekir.

Büyük dil modelleri tarafından üretilen çok sayıda etkileyici metin örneği vardır. LaMDA’lar gördüklerimin en iyisi. Ama aynı zamanda, bu örneklerin büyük çoğunluğunun yoğun bir şekilde seçilmiş olduğunu da biliyoruz. Ve kesinlikle iyi seçilmiş birçok başarısızlık örneği var. Güvenli, kullanılabilir sistemler inşa etmek istiyorsak, başarısızlıklara (kiraz toplanmış olsun ya da olmasın) dikkat etmenin, başarıları alkışlamaktan daha önemli olduğunu savunuyorum. Duyarlı olsun ya da olmasın, kendi kendini süren bir arabanın kaza anında San Francisco sokaklarında güvenli bir şekilde gezinmesinden daha çok önemsiyoruz. Bu sadece dramaya olan (duygusal) eğilimimiz değil; kazaya karıştıysanız, bir kaza gününüzü mahvedebilir. Bir doğal dil modeli ırkçı çıktılar üretmeyecek şekilde eğitildiyse (ve bu hala çok fazla araştırma konusu), başarısızlıkları başarılarından daha önemlidir.

Bunu göz önünde bulundurarak OpenAI, başlangıçta sınırlı bir ücretsiz deneme programı aracılığıyla ve şimdi müşterilerin API’ler aracılığıyla eriştiği ticari bir ürün olarak başkalarının GPT-3’ü kullanmasına izin vererek başarılı oldu. GPT-3’ün komplo teorileri (veya sadece basit pazarlama) için saha oluşturma yeteneğinden haklı olarak endişe duysak da, en azından bu riskleri biliyoruz. GPT-3’ün yarattığı tüm faydalı çıktılar için (aldatıcı olsun ya da olmasın), hatalarını da gördük. Kimse GPT-3’ün duyarlı olduğunu iddia etmiyor; çıktısının girdisinin bir fonksiyonu olduğunu anlıyoruz ve onu belirli bir yöne yönlendirirseniz, aldığı yön budur. GitHub Copilot (kendisi GPT-3’ten oluşturulmuş OpenAI Codex’ten oluşturulmuş) ilk piyasaya sürüldüğünde, programcıların işlerini kaybetmelerine neden olacağına dair birçok spekülasyon gördüm. Copilot’u gördüğümüze göre, sınırlamaları dahilinde yararlı bir araç olduğunu ve iş kaybı tartışmalarının kuruduğunu anlıyoruz.

Google, LaMDA için bu tür bir görünürlük sunmadı. Fikri mülkiyet, kötüye kullanım sorumluluğu veya halkın yapay zeka korkusunu alevlendirme konusunda endişeleri olup olmadığı önemsizdir. LaMDA ile halka açık deneyler olmadan, korkulu ya da kendinden geçmiş olsun, çıktılarına yönelik tutumlarımız en az gerçekliğe olduğu kadar fanteziye de dayanır. Uygun önlemleri alıp almadığımız, açık alanda yapılan araştırmalar ve GPT-3 gibi sistemlerle oynama (ve hatta bunlardan ürünler üretme) yeteneği, “derin sahtekarlıkların” sonuçlarından haberdar olmamızı sağladı. Bunlar gerçekçi korkular ve endişelerdir. LaMDA ile gerçekçi korkularımız ve endişelerimiz olamaz. Sadece hayali olanlara sahip olabiliriz – ki bunlar kaçınılmaz olarak daha kötüdür. Tekrarlanabilirliğin ve deneylerin sınırlı olduğu bir alanda, yapabileceğimiz en iyi şey, yabancıların deney yapmasına izin vermek olabilir.

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *