Intelligent Security Summit’teki tüm isteğe bağlı oturumlara göz atın burada.
yapay zeka (AI) sürekli gelişen bir teknolojidir. Bundan fazla 10 üzerinden dokuz Ülkenin önde gelen şirketlerinden yüzde 40’ı, yapay zeka destekli ürün ve hizmetlere devam eden yatırımlara sahip. Bu ileri teknolojinin popülaritesi arttıkça ve daha fazla işletme onu benimsedikçe, genellikle “etik yapay zeka” olarak adlandırılan yapay zekanın sorumlu kullanımı, işletmeler ve müşterileri için önemli bir faktör haline geliyor.
Etik yapay zeka nedir?
AI, bireyler ve işletmeler için bir dizi risk oluşturur. Bireysel düzeyde, bu ileri teknoloji bireyin güvenliğini, emniyetini, itibarını, özgürlüğünü ve eşitliğini tehlikeye atabilir; belirli birey gruplarına karşı da ayrımcılık yapabilir. Daha yüksek düzeyde, siyasi istikrarsızlık, ekonomik eşitsizlik ve askeri çatışma gibi ulusal güvenlik tehditleri oluşturabilir. Kurumsal düzeyde finansal, operasyonel, itibar ve uyum riskleri oluşturabilir.
Etik yapay zeka, bireyleri ve kuruluşları, bunun gibi ve kötüye kullanımdan kaynaklanabilecek diğer pek çok tehditten koruyabilir. Örnek olarak, havaalanlarındaki TSA tarayıcıları, hepimize daha güvenli hava yolculuğu sağlamak için tasarlandı ve normal metal dedektörlerinin gözden kaçırabileceği nesneleri tanıyabiliyor. Sonra biz öğrendi birkaç “kötü aktörün” bu teknolojiyi kullandığını ve yolcuların siluet halindeki çıplak resimlerini paylaştığını. Bu, o zamandan beri yamalandı ve düzeltildi, ancak yine de, kötüye kullanımın insanların güvenini nasıl kırabileceğinin iyi bir örneği.
Yapay zeka özellikli teknolojinin bu tür kötüye kullanımı meydana geldiğinde, sorumlu yapay zeka politika ve/veya ekip, sorunu azaltmak için daha donanımlı olacaktır.
Etik bir yapay zeka politikası uygulama
Sorumlu bir AI politikası, kötüye kullanım durumunda işletmenizin korunmasını sağlamak için harika bir ilk adım olabilir. Bu tür bir politikayı uygulamadan önce, işverenler aşağıdakileri belirlemek için bir AI risk değerlendirmesi yapmalıdır: AI şirket genelinde nerede kullanılıyor? Teknolojiyi kim kullanıyor? Bu AI kullanımından ne tür riskler kaynaklanabilir? Riskler ne zaman ortaya çıkabilir?
Örneğin, işletmeniz tatil sezonunda üçüncü taraf iş ortaklarının erişebildiği bir depoda yapay zeka kullanıyor mu? İşletmem kötüye kullanımı nasıl önleyebilir ve/veya buna yanıt verebilir?
İşverenler, şirket genelinde yapay zeka kullanımına kapsamlı bir bakış attıktan sonra, çalışanları, müşterileri ve iş ortakları da dahil olmak üzere şirketlerini bir bütün olarak koruyacak bir politika geliştirmeye başlayabilirler. İlişkili riskleri azaltmak için şirketler belirli kilit hususları dikkate almalıdır. AI sistemlerinin bilişsel, sosyal ve kültürel becerileri geliştirmek için tasarlanmasını sağlamalıdırlar; sistemlerin adil olduğunu doğrulamak; geliştirmenin tüm bölümleri boyunca şeffaflığı dahil edin; ve tüm ortakları sorumlu tutun.
Ayrıca şirketler, etkili bir sorumlu yapay zeka politikasının aşağıdaki üç temel bileşenini dikkate almalıdır:
- yasal AI: AI sistemleri kanunsuz bir dünyada çalışmaz. Ulusal ve uluslararası düzeylerde yasal olarak bağlayıcı bir dizi kural, bugün bu sistemlerin geliştirilmesi, konuşlandırılması ve kullanılmasıyla halihazırda geçerlidir veya bunlarla ilgilidir. İşletmeler, kullandıkları AI özellikli teknolojilerin bölgelerindeki yerel, ulusal veya uluslararası yasalara uymasını sağlamalıdır.
- etik yapay zeka: Sorumlu kullanım için etik normlara uyum gereklidir. AI sistemlerinin sorumlu bir şekilde geliştirilmesini, dağıtılmasını ve kullanılmasını sağlamak için temel haklara dayanan dört etik ilkeye saygı gösterilmelidir: insan özerkliğine saygı, zararın önlenmesi, adalet ve açıklanabilirlik.
- sağlam yapay zeka: AI sistemleri güvenli, emniyetli ve güvenilir bir şekilde çalışmalı ve istenmeyen olumsuz etkileri önlemek için önlemler alınmalıdır. Bu nedenle, sistemlerin hem teknik açıdan (uygulama alanı veya yaşam döngüsü aşaması gibi belirli bir bağlamda sistemin teknik sağlamlığını uygun şekilde sağlamak) hem de sosyal açıdan (bağlam ve yaşam döngüsü aşaması dikkate alınarak) sağlam olması gerekir. sistemin çalıştığı ortam).
Farklı işletmelerin, kullandıkları yapay zeka özellikli teknolojilere bağlı olarak farklı politikalar gerektirebileceğini unutmamak önemlidir. Ancak, bu yönergeler daha geniş bir bakış açısından yardımcı olabilir.
Sorumlu bir AI ekibi oluşturun
Bir politika oluşturulduktan ve çalışanlar, ortaklar ve paydaşlar bilgilendirildikten sonra, bir işletmenin bunu uygulayacak ve kötüye kullananları kötüye kullanımdan sorumlu tutacak bir ekibi olduğundan emin olmak hayati önem taşır.
Ekip, işletmenin ihtiyaçlarına göre özelleştirilebilir, ancak yapay zeka özellikli teknoloji kullanan şirketler için güçlü bir ekibe ilişkin genel bir örneği burada bulabilirsiniz:
- Baş etik görevlisi: Genellikle baş uyum görevlisi olarak adlandırılan bu rol, hangi verilerin toplanması ve nasıl kullanılması gerektiğini belirlemekten sorumludur; şirket genelinde AI kötüye kullanımını denetlemek; kötüye kullanıma yanıt olarak olası disiplin cezalarının belirlenmesi; ve ekiplerin çalışanlarını politika konusunda eğitmesini sağlamak.
- Sorumlu AI komitesi: Bağımsız bir kişi/ekip tarafından gerçekleştirilen bu rol, yapay zeka özellikli bir teknolojinin performansını farklı veri kümeleriyle, yasal çerçeveyi ve etik sonuçları değerlendirerek risk yönetimini yürütür. Bir gözden geçiren kişi teknolojiyi onayladıktan sonra, çözüm uygulanabilir veya müşterilere dağıtılabilir. Bu komite etik, uyumluluk, veri koruma, hukuk, yenilik, teknoloji ve bilgi güvenliği departmanlarını içerebilir.
- Tedarik Bölümü: Bu rol, politikanın diğer ekipler/departmanlar tarafından yapay zeka özellikli yeni teknolojiler edindikçe desteklenmesini sağlar.
Sonuç olarak, etkili ve sorumlu bir yapay zeka ekibi, işletmenizin kuruluş genelinde yapay zekayı kötüye kullanan herkesi sorumlu tutmasına yardımcı olabilir. Disiplin cezaları, İK müdahalesinden askıya almaya kadar değişebilir. İş ortakları için, herhangi bir kötüye kullanım fark edilir edilmez ürünlerinin kullanımına son verilmesi gerekebilir.
İşverenler, yapay zeka destekli yeni teknolojileri benimsemeye devam ettikçe, kötüye kullanımı verimli bir şekilde azaltmak için sorumlu bir yapay zeka politikası ve ekibi uygulamayı kesinlikle düşünmelidir. Yukarıdaki çerçeveyi kullanarak çalışanlarınızı, ortaklarınızı ve paydaşlarınızı koruyabilirsiniz.
Mike Dunn şirketinde CTO’dur. prosegur Güvenlik.
DataDecisionMakers
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri işini yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En yeni fikirler ve güncel bilgiler, en iyi uygulamalar ile veri ve veri teknolojisinin geleceği hakkında okumak istiyorsanız DataDecisionMakers’ta bize katılın.
düşünebilirsin bile makale katkıda bulunmak senin!