Bu makaleyi dinlemek için oynat’a basın
Yapay zeka tarafından seslendirildi.
ChatGPT, Avrupa’nın güçlü gizlilik bekçileri ile zorlu bir yolculuğa hazır.
Chatbot, yapay zeka teknolojisinin en sıcak sansasyonudur, ancak Avrupa’nın gizlilik kural kitabını ihlal edebileceği gerekçesiyle geçen ay İtalya’da geçici bir yasakla vuruldu. Genel Veri Koruma Yönetmeliği (GDPR).
İtalya’daki yasak, ChatGPT’nin sorunlarının sadece başlangıcı, çünkü blok genelinde mahremiyet davalarına açıldı ve hükümetleri veri korumadan risklere kadar çeşitli riskler konusunda rahatsız eden en son teknolojiyi çalıştırıyor. yanlış bilgilendirme, siber Suçdolandırıcılık ve okul sınavlarında kopya çekme.
ChatGPT’yi oluşturan kuruluş olan OpenAI, sırtında bir hedefle yürüyor: Avrupa Birliği’nin 27 ülkesinden birinde yerel bir merkez kurmadı, bu da herhangi bir üye ülkenin veri koruma yetkilisinin yeni soruşturmalar başlatabileceği ve yasakları uygulayabileceği anlamına geliyor.
Daha önce, Google Fransa’da 50 milyon € GDPR para cezasıyla karşı karşıya kaldı ABD teknoloji devi, Avrupa yasal düzenini İrlanda’da resmi olarak merkezileştirmeden önce empoze edildi. TikTok da birkaç gizlilik soruşturmasıyla karşı karşıya kaldı ve para cezaları 2021’de İrlanda’da yasal olarak mağaza açmadan önce Hollandalı, İtalyan ve Fransız yetkililerden.
Avrupalı veri düzenleyicileri, İtalyan emsalleri gibi kötüye kullanım iddialarını araştırmak için bir sonraki adımlarını düşünüyor.
İrlanda Veri Koruma Komisyonu, “tüm AB ile koordineli çalışacağını” söyledi. [data protection authorities] sözcüsü Graham Doyle’a göre, bu konuyla ilgili olarak. Belçikalı veri koruma yetkilisi de ChatGPT’nin olası ihlallerinin “şu anda tartışılması gerektiğini” söyledi: [the] Avrupa düzeyinde.”
Fransa’nın veri koruma kurumu CNIL, GDPR de dahil olmak üzere gizlilik ihlalleri gerekçesiyle ChatGPT’ye karşı en az iki şikayet aldı. Bilgilendirilen bildirdi.
Norveç’te, ülkenin veri koruma düzenleyicisi Datatilsynet’in uluslararası çalışma başkanı Tobias Judin, “Bugüne kadar ChatGPT hakkında bir soruşturma başlatmadık, ancak gelecek için hiçbir şeyi göz ardı etmiyoruz” dedi.
OpenAI, AB gizlilik yasalarını ihlal ettiğini reddederken, şirketin CEO’su Sam Altman söz konusu Twitter’da şirketinin yasak için “İtalyan hükümetine” ertelediğini – görünüşe göre ülkenin hükümet için bağımsız düzenleyicisinin kafasını karıştırıyor.
Altman, “İtalya en sevdiğim ülkelerden biri ve yakında tekrar ziyaret etmeyi dört gözle bekliyorum.” dedi.
İtalyan veri koruma kurumu söz konusu 6 Nisan’da OpenAI, şirket yöneticileriyle yapılan bir video görüşmenin ardından AB gizlilik yasalarının potansiyel ihlaliyle mücadele etmeye açıktı.
Uyulması gereken kanunlar
ChatGPT gibi yapay zeka sistemlerinin endişelerini dile getirmesine neden olan şey yalnızca gizlilik değildir.
Mart ayı sonlarında bir genç Belçikalı Belçikalı La Libre gazetesinin bildirdiğine göre, Eliza adlı AI güdümlü bir sohbet robotuyla haftalarca süren görüşmelerin ardından intihar etti. Geçen ay teknoloji kralı Elon Musk, binlerce yapay zeka uzmanıyla birlikte ChatGPT’nin geliştirilmesine ara verilmesi çağrısında bulundu. üzerinde “insanlık için büyük riskler”
Savunuculuk grupları da aynı şeyi yaptı. ABD’de Yapay Zeka ve Dijital Politika Merkezi, Amerikan Federal Ticaret Komisyonu’nu OpenAI’yi araştırmaya ve botunun daha fazla yayınlanmasını engellemeye çağırdı. Brüksel’de, tüketici gözlemcisi BEUC, AB’nin yaklaşan yapay zeka kural kitabının zararı önlemek için çok geç kalabileceği konusunda uyarıda bulunarak Avrupalı ve ulusal düzenleyicilere ChatGPT’yi soruşturmaları için yalvardı.
Avrupalı milletvekilleri ayrıca AB Yapay Zeka Yasası taslağının bir parçası olarak teknolojiye ilişkin yasal korkulukları müzakere ediyorlar.
Ancak yapay zeka ile ilgili mevzuat eksikliği, veri koruma düzenleyicilerini devreye girmeye teşvik etti.
Future of Privacy Forum düşünce kuruluşundan Gabriela Zanfir-Fortuna, “Veri koruma düzenleyicileri, yapay zeka düzenleyicileri olduklarını yavaş yavaş fark ediyorlar” dedi.
Gizlilik düzenleyicileri, veri toplamaya ilişkin kuralları ve otomatik karar almaya karşı kullanıcı korumaları dahil olmak üzere GDPR’yi uygular. OpenAI gibi şirketler, kişisel verileri toplamak ve kullanmak için yasal bir temele sahip olmalı, insanların verilerini nasıl kullandıkları konusunda şeffaf olmalı, kişisel verileri doğru tutmalı ve insanlara düzeltme hakkı vermeli.
OpenAI, chatbot’un temelini oluşturan AI modelini eğitmek için hangi veri setini kullandığını hiçbir zaman açıklamadı. OpenAI’nin baş yatırımcısı olan Microsoft’taki araştırmacılar bile bir son makale “tüm ayrıntılarına erişemediklerini” [ChatGPT] geniş eğitim verileri.”
Yüz tanıma firması Clearview AI daha önce para cezasına çarptırılmış ve gizlilik düzenleyicileri tarafından yüz tanımayanların resimlerini silmesi talimatı verilmişti. İtalyan, Fransızca Ve ingiliz yasal bir dayanağı olmadığı için algoritmasını oluşturmak için çevrimiçi olarak topladığı insanlar.
ChatGPT’nin Mart ayında bir veri ihlaline maruz kalması ve kullanıcıların konuşmalarını ve kullanıcılarının ödeme bilgilerini ifşa etmesi, yalnızca sıkıntılarını artırıyor.
Hukuk firması Clifford Chance’de teknolojiye odaklanan bir ortak olan Dessislava Savova, İtalya’nın ChatGPT’yi kendi yolunda durdurma kararının “bir uyandırma çağrısı” olduğunu söyledi. “Aslında Avrupa’da bir diyaloğu tetikleyecek ve alınan bir pozisyonu hızlandıracak. diğer düzenleyiciler tarafından.”
Laura Kayali raporlamaya katkıda bulundu.
Bu makale, BEUC dahil savunuculuk gruplarının düzenleyicilerden ChatGPT’yi araştırmasını istediğini yansıtacak şekilde güncellendi ve İtalyan ve Fransız düzenleyicilerin OpenAI üzerindeki çalışmalarına ilişkin yeni gelişmeleri yansıtmak.