Önde gelen iki akademik dergi yayıncısı olan Science ve Springer Nature, Perşembe günü yayın politikalarında makale yazmak için üretken yapay zeka araçlarının kullanımına yönelik yeni kurallar getirdi.
Güncellenen politikalar, OpenAI’nin en yeni ürünü ChatGPT ile deneyler yapan akademisyenlerin yükselişini ele alıyor. Büyük dil modeli (LLM), tutarlı metin paragrafları oluşturabilir ve bilim de dahil olmak üzere her türden şey hakkında yazması istenebilir. Akademisyenler bunu kendi araştırma makalelerini yazmak için kullanıyor, hatta bazıları daha da ileri gidiyor. kredi Yazar olarak ChatGPT.
Ancak Science dergisi, araştırmacıları bu araçlar kullanılarak üretilmiş herhangi bir el yazmasının gönderilmesinin bilimsel suistimal anlamına geldiği konusunda uyardı.
“Yapay zeka, makine öğrenimi veya benzeri algoritmik araçlardan üretilen metinler, Science dergilerinde yayınlanan makalelerde kullanılamaz ve beraberindeki şekil, resim veya grafikler, editörlerin açık izni olmadan bu tür araçların ürünü olamaz.” politikalar belirtmek, bildirmek.
“Ayrıca, bir AI programı bir Science dergisi makalesinin yazarı olamaz. Bu politikanın ihlali, bilimsel suistimal teşkil eder.”
Nature dergisi de benzer kurallar getirdi ve ChatGPT’yi veya başka herhangi bir AI yazılımını yazar olarak listeleyen hiçbir makaleyi kabul etmeyecek, ancak bu tür araçları tamamen yasaklamadı.
“LLM araçlarını kullanan araştırmacılar, bu kullanımı yöntemler veya teşekkür bölümlerinde belgelemelidir. Bir makale bu bölümleri içermiyorsa, LLM’nin kullanımını belgelemek için giriş veya başka bir uygun bölüm kullanılabilir.” Nature dedim.
Science’ın baş editörü Holden Thorp, tüm makale gönderimlerinin yazarların orijinal çalışmaları olması gerektiğini ve AI tarafından üretilen içeriğin bir tür intihal olduğunu söyledi. Yazarlar aracı yalnızca tam olarak ifşa etmeleri ve Science’ın onaylaması durumunda kullanabilirler. ChatGPT gibi büyük dil modelleri, internetten kazınmış çok miktarda metin üzerinde eğitilir ve eğitim verilerindekilere çok benzeyen cümleleri kusabilir.
“Yıllardır Science dergi ailesindeki yazarlar, ‘Çalışmanın orijinal olduğunu’ onaylayan bir lisans imzaladılar. Science dergileri için, ‘orijinal’ kelimesi ChatGPT tarafından yazılan metnin kabul edilemez olduğunu belirtmek için yeterlidir: , sonuçta ChatGPT’den çalıntı. Ayrıca, yazarlarımız makaledeki araştırmadan kendilerinin sorumlu olduğunu onaylıyor,” Thorp dedim.
ChatGPT gibi araçlar gramer hatası içermeyen metinler üretse de, gerçekleri yanlış anlama eğilimindedirler. Yanlış sayılar içeren anlamsız araştırmalardan alıntı yapabilirler, ancak kulağa insanları kandıracak kadar ikna edici gelebilirler. Akademik yazılar genellikle sıkıcıdır ve uzmanların bile inanarak kandırılabileceği jargonla doludur. sahte özetler ChatGPT tarafından yazılanlar gerçektir.
Bilim insanları cezbedilebilir geçiştirmek sonuçlarını gazetelerde yayınlıyor ve sahte çalışmalarını yayınlatmak için her türlü yöntemi kullanıyor. Üretken yapay zekadaki son gelişmeler, sahte içerik üretmenin yeni ve kolay yollarını sunuyor. Thorp, “yapay zeka tarafından üretilen pek çok metnin yakında literatüre girebileceği” konusunda uyardı ve editörleri ve eleştirmenleri, bir makalenin yapay zeka yardımıyla yazıldığını düşündüren işaretleri tespit etme konusunda tetikte olmaya çağırdı.
Bu yayıncılar, şimdilik yapay zeka ile yazılmış metni tespit etmenin kusursuz bir yolunu göremedikleri için, araştırmacıların editör politikalarına bağlı kalmasını sağlamakta zorlanabilirler. Bir Science sözcüsü, “Editörler, literatürde görmeyi bekleyebilecekleri yapay zeka tarafından oluşturulan içerik hakkında bilgi sahibi oluyor ve bu içerikleri tespit etme yeteneklerini geliştiriyor” dedi. Kayıt. “Fakat yine de, yazarların ilk etapta AI tarafından üretilen içeriğe sahip yazılar göndermemelerini sağlamaya odaklanıyorlar.”
“Editörler ve yayıncılar LLM’ler tarafından oluşturulan metni algılayabilir mi? Şu anda yanıt ‘belki’. ChatGPT’nin ham çıktısı, özellikle birkaç paragraftan fazlası söz konusu olduğunda ve konu bilimsel çalışmayla ilgili olduğunda, dikkatli bir incelemeyle saptanabilir. Bunun nedeni, LLM’ler, eğitim verilerindeki istatistiksel ilişkilere ve gördükleri istemlere dayalı kelime kalıpları üretir, bu da çıktılarının yumuşak ve genel görünebileceği veya basit hatalar içerebileceği anlamına gelir. Ayrıca, çıktılarını belgelemek için henüz kaynak gösteremezler,” dedi Nature. .
Nature’ın ana yayıncısı Springer Nature, şu anda yapay zeka tarafından oluşturulan metni algılamak için kendi yazılımını geliştiriyor. Bu arada Science, diğer şirketler tarafından geliştirilen tespit yazılımlarını kullanmayı düşüneceğini söyledi. “Science ailesi dergileri, sahtekarlığı tespit etme yeteneğimizi geliştiren, vaka bazında değerlendirdiğimiz ve yazarların yayınlama yönergelerimizi anlamasını ve bunlara uymasını sağlamak için editörlerimizin çalışmalarını tamamlayan deneme araçlarına açıktır. titiz, çok adımlı bir akran değerlendirmesi yapmak için.”
Thorp, araştırmacıları kendileri için düşünmeye ve teknolojiye güvenmekten kaçınmaya çağırdı.
“Bilime olan güvenin aşındığı bir zamanda, bilim adamlarının ayrıntılara yeniden dikkatli ve titiz dikkat göstermeleri önemlidir. Bilimsel kayıt, nihayetinde insan çabasının bir parçasıdır.[s] önemli sorularla boğuşmaktan Makineler önemli bir rol oynar, ancak hipotezleri ortaya koyan, deneyleri tasarlayan ve sonuçları anlamlandıran insanlar için araçlar olarak. Nihayetinde ürün, kafamızdaki harika bilgisayardan gelmeli ve bu bilgisayar tarafından ifade edilmelidir” diyerek sözlerini bitirdi.