Apple, ChatGPT ve benzeri ürünlerin dahili kullanımını yasaklayan en son şirket oldu, ironik bir şekilde, tıpkı OpenAI chatbot’un bir mobil uygulama biçiminde iOS’a gelmesi gibi.
Taşınma haberi dün açıklandı. Wall Street Dergisi, çalışanları yasak hakkında bilgilendiren dahili bir Apple belgesini inceledi. Belgeye göre, Apple’ın endişeleri, ChatGPT’nin dahili olarak kullanılmasını yasaklayan diğer birliklerle, yani yapay zekanın kendisiyle paylaşılan hassas dahili bilgileri sızdırabileceği yönündeki endişeleriyle aynı çizgide.
Elma bildirildiğine göre GitHub’ın otomatik kodlama aracını yasakladı, yardımcı pilot, ilave olarak. Bir süredir Apple’ın AI planları hakkında söylentiler dolaşıyor ve şirket muhtemelen ChatGPT ve Google Bard’a rakip olmak için kendi LLM’si üzerinde çalışıyor.
Cupertino, Microsoft destekli sohbet robotunun kullanımını yasaklama kararında pek de yalnız değil: Sürekli büyüyen bir sohbet robotuna katılıyor. liste Amazon gibi şirketler ve JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank ve benzerleri dahil olmak üzere bir dizi banka.
Apple rakibi Samsung da aksilikler nedeniyle ChatGPT’nin dahili kullanımını – iki kez – yasaklamak için harekete geçti. Samsung, çalışanların ChatGPT kullanımına yönelik yasağı Mart ayında kaldırdı, ancak bir aydan kısa bir süre içinde açıklığa kavuşmuş Kore medyası, Samsung personelinin ChatGPT’den kaynak kodu hatalarını çözme, ölçüm ve verim verilerini toplamak için kullanılan yazılımları düzeltme ve toplantı notlarını tutanaklara dönüştürme konusunda yardım istediğini bildirdi.
SAMSUNG yeniden dayatılan benzer olayların tekrar olmasını önlemek için bu ayın başlarında ChatGPT yasağı.
ChatGPT, Google Bard ve LLM botlarıyla ilgili sorun, bunlara beslenen verilerin genellikle botları daha fazla eğitmek için kullanılmasıdır. kusmak başkaları da benzer sorular sorarsa.
Sorgular, dil modellerine beslenen içeriği kendileri inceleyebilecek olan OpenAI ve Google gibi bot sağlayıcıları tarafından da görülebilir, bu da yakından korunan kurumsal sırların açığa çıkması riskini daha da artırır.
Kazalar da olur
Bir botun başkalarına yardımcı olmaya çalışırken gizli bilgileri paylaşması riskinin yanı sıra, OpenAI gibi şirketlerin en iyi yazılımı kodlamama olasılığı da vardır.
Mart ayında, Open AI kabul edildi açık kaynak kitaplığında bir hata redis-py
insanların ChatGPT ile yaptığı baş başa görüşmelerinin bazı bölümlerinin diğer kullanıcılar tarafından görüntülenmesine neden oldu. Kaspersky’nin önde gelen veri analisti Vlad Tushkanov’un bize söylediğine göre bu hata, LLM sohbet robotlarının kullanıcılara herhangi bir gerçek gizlilik sağlamadığını hatırlatmalıdır.
Tushkanov, “ChatGPT oturum açarken ‘sohbetlerin yapay zeka eğitmenlerimiz tarafından incelenebileceği’ konusunda uyarıda bulunuyor… Bu nedenle, kullanıcıların en başından beri ChatGPT web demosunu kullanırken sıfır gizlilik beklentisi olması gerekirdi,” dedi.
OpenAI geçen ay katma ChatGPT kullanıcılarının sohbet geçmişini devre dışı bırakma yeteneği, bu yalnızca ChatGPT’nin arayüzündeki kenar çubuğundan bir sohbeti gizlemekle kalmaz, aynı zamanda geçmişin devre dışı bırakıldığı sohbetlerin OpenAI modellerini eğitmek için kullanılmasını da engeller.
OpenAI, geçmiş devre dışı bırakıldığında konuşmaları 30 gün boyunca saklayacağını ve Microsoft destekli şirket, “kalıcı olarak silmeden önce kötüye kullanımı izlemek için gerektiğinde” gözden geçirme yeteneğine sahip olacağını söyledi.
Aynı duyuruda OpenAI, yakında ChatGPT’nin işletmelere verilerinin kullanımı üzerinde daha fazla kontrol sağlayan bir iş sürümünü piyasaya süreceğini de söyledi.
OpenAI ekibinin sohbetleri görüntülemeye devam edip edemeyeceği ve ne zaman yayınlanabileceği gibi ChatGPT Business hakkında OpenAI’ye bazı ek sorular sorduk ve yanıt alırsak bu hikayeyi güncelleyeceğiz. ®