Danang, Vietnam – Yapay Zeka (AI) şu anda kişisel bilgisayarın icadından en güçlü ve erişilebilir teknolojidir. Aynı güç ve erişilebilirlik artık karanlık ağda derinlemesine gizlenmiş programcılar tarafından zararlı, etik olmayan veya yetkisiz amaçlar için sunulan bilgisayar suçları için kullanılmaktadır.
Bu “siber-evil teknolojisinin” yükselişini daha belirsiz hale getirin, tüm dünyada daha sofistike saldırılar besliyor ve BT güvenliğinin panoramasında önemli bir değişikliğe işaret ediyor. Chatgpt grafikleri
Bu “siber-evil teknolojisinin” yükselişi tüm dünyada daha sofistike saldırılar besliyor ve BT güvenliğinin panoramasında önemli bir değişikliği işaret ediyor. Bu sistemler standart güvenlik, uygunluk veya yönetişim kontrolleri dışında çalışır, genellikle sahtekarlık, manipülasyon, BT saldırıları veya veri kötüye kullanımı gibi denetlenmemiş davranışlara izin verir.
Kaspersky’deki (büyük) araştırma ekibinin başkanı Manila Times Sergey Lozhkin, “BT suçu için en başından tasarlanan yapay zeka platformları” dedi. “İyi ya da kötü yoktur ya da IA’nın kendisi özünde ayrımcı değildir; sadece emirleri izleyen bir araçtır.”
Vietnam’daki Kaspersky A Da Nang’ın bilgisayar güvenliği haftasonunda konuşan Lozhkin, bilgisayar suçları için chatgpt veya Gemini gibi mevcut büyük dil modellerini (LLM) kullanmanın karanlık AI olmadığını söyledi. Bu platformlar, e -mail e -mail veya yanıltıcı fotoğraf ve videoların üretilmesini hızlandırmakla sınırlıdır ve devam etmekte olan çok fazla garanti olduğu için bilgisayar suçu için kod oluşturamaz.
Karanlık AI çekirdeği, LLM’nin sert kodlama ve diğer otomatik öğrenme algoritmaları ile düzenlenmemiş dağıtımdadır. Karanlık ağdan geçirilen bu modeller, standart güvenlik kontrollerinin dışında çalışmak için kasıtlı olarak tasarlanmıştır.
Ai Scura’nın en yaygın şekli Black Hat GPT’ler olarak bilinir. Bunlar, bir zamanlar yavaş ve manuel olan görevleri otomatikleştirmek için BT suçluları tarafından kullanılan Wormgpt, Darkbard ve Fraudgpt gibi uzmanlara modellerdir. Bu, tespitten kaçınmak, büyük bir ikna edici ve kişiselleştirilmiş kimlik avı merdiveni ve insanları manipüle etmek ve güvenlik protokollerini atlamak için derin hiper-gerçekçi yaratma konusunda yüksek derecede “polimorfizm” ile karmaşık kötü amaçlı yazılım kodunun üretilmesini içerir.
Lozhkin, karanlık yapay zekanın hain uygulamalarına ek olarak, Kaspersky’nin uzmanlarının daha da endişe verici bir trend gördüğünü söyledi: LLM modellerinin kampanyalarında kullanan ulus-devletin aktörleri. Bir OpenII ilişkisine göre, zararlı gruplar sahte dijital kimlikler oluşturmak ve gerçek zamanlı çok dilli içerik oluşturmak için LLM kullandı. Bu, kurbanları aldatmalarını, geleneksel güvenlik filtrelerini atlamalarını ve insanlar için yönetilmesi neredeyse imkansız olan büyük ölçekli etki ve casusluk kampanyaları gerçekleştirmelerini sağlar.
Openi raporu birkaç APT grubu belirlerken, Google, BT operasyonlarını güçlendirmek için yapay zeka kullanan Rusya, Çin, Kuzey Kore ve İran ile bağları olan 57’den fazla farklı aktör gözlemledi. Rusya’da APT28/Fancy Bear Group, uydu iletişim protokolleri ve görüntüleme radar görüntüleme teknolojileri gibi karmaşık konuları anlamak için keşif için LLM’yi kullandı.
Kuzey Kore’deki bilgisayar korsanları, sahte müfredat oluşturmak ve mektupları kapsamak ve uzak görüşmeler için gerçek zamanlı gerçek zamanlı videolar dağıtmak için üretken yapay zeka kullandılar ve şirketlere iç tehditler olarak sızmalarına izin verdiler. Ayrıca, kripto para birimi hırsızlığı yoluyla yasadışı programları finanse etmek için aynı yapay zekayı kullandılar. İran yavrularının büyüleyici grubu, kimlik avı e -postalarının kalitesini artırmak ve Spears kampanyalarının daha etkili kimlik avı oluşturmak için LLM’yi kullandı.
Bu teknolojinin daha “ticari” bir uygulaması, bir Avrupa şirketindeki konsey odasında bir zoom toplantısında gerçekleşti. Toplantı sırasında çalışanlar ve yöneticiler başkanı tarafından oluşturulan karanlık kopyalar “oturmak” için yapıldı. Sorular sordular, sordular, sordular ve hatta soruları gerçek zamanlı olarak cevapladılar. Çevrimiçi toplantı o kadar ikna ediciydi ki, işe alım onaylarına yol açtı.
Lozhkin, karanlık IA’nın daha erişilebilir ve yetenekli hale geldikçe, teknolojik silahlar yarışında bilgisayar güvenlik topluluğunun engellendiğini söyledi. Zorluk artık sadece bilinen tehditleri tespit etmek değil, aynı zamanda uyarlanabilir ve öz-ahlaksız sistemlerin yarattığı tehditleri öngörmek ve etkisiz hale getirmektir.
Lozhkin, “Dijital güvenliğin geleceği, karşılaştığımız tehditler gibi akıllı ve uyarlanabilir savunmalar yaratma yeteneğimize bağlı olacaktır.” Dedi.
Lozhkin’in son uyarısı doğru geliyor: “Kuruluşların ve bireylerin BT güvenlik çözümlerini küresel olarak güçlendirmeleri, yapay zeka tarafından beslenen tehditlerin tespitine yatırım yapmaları ve bu teknolojilerin nasıl kullanılabileceği konusundaki bilgilerini sürekli olarak güncellemeleri önemlidir”.