Yapay zekanın (AI) okul ödevleri için basit sohbet sorularını yanıtlamasını, New York metrosundaki silahları tespit etmeye çalışmasını gördük; haberdar olduk.
Şimdi ise deepfake ile çocuk cinsel istismar içeriği oluşturmak için kullanan bir suçlunun mahkumiyetinde suç ortağı olarak görülmesine şahit olduk. Dijital güvenlik şirketi ESET, yapay zeka ilerlemeye devam ederken yanlış yöne gitmesini önlemek için yapılan çalışmaları inceledi, dikkat edilmesi gerekenleri paylaştı.
ESET, yapay zekayı güvenlik bağlamında yıllardır kullanıyor. Kısmen kritik şeyleri yanlış anladığı için yapay zekanın sihirli bir değnek olmadığı konusunda uyarılarını paylaşmıştı. Bununla birlikte "sadece ara sıra" kritik şeyleri yanlış yapan güvenlik yazılımları, güvenlik ekiplerinin gereksiz yere çabalamasını tetikleyen devasa yanlış pozitifler yayarak ya da yapay zekanın zaten bildiği kötü amaçlı yazılımlardan "yeterince farklı" görünen kötü amaçlı bir saldırıyı gözden kaçırarak oldukça olumsuz bir etkiye sahip olacaktır. Bu nedenle kontrol ve denge sağlamak için ESET yapay zekayı bir dizi başka teknolojiyle katmanlandırıyor. Bu şekilde eğer yapay zekanın cevabı dijital halüsinasyona benziyorsa onu diğer teknoloji yığınıyla birlikte geri çekebiliyor.
Düşmanlar çok fazla saf AI saldırısı başlatmamış olsa da özellikle kimlik avı ve şimdi de sosyal mühendislik çabalarını süper boyuta taşımak için kimlik avından ses ve görüntü klonlamada daha etkili olmak adına saldırı zincirindeki bağlantıları otomatikleştiren düşmanca AI'yi akla getirmek gerekir. Kötü aktörler dijital olarak güven kazanıp yapay zeka tarafından oluşturulan verileri kullanarak sistemleri kimlik doğrulaması yapmaları için kandırabilirse bu, kuruluşunuza girmek ve özel istismar araçlarını manuel olarak başlatmak için yeterlidir. Bunu durdurmak için satıcılar çok faktörlü kimlik doğrulama katmanını kullanabilir. Böylece saldırganların sadece bir ses veya parola yerine birden fazla kimlik doğrulama yöntemine ihtiyacı olur. Bu teknoloji şu anda yaygın olarak kullanılıyor olsa da kullanıcılar tarafından yeterince tercih edilmiyor. Bu, kullanıcıların kendilerini ağır bir yük veya büyük bir bütçe olmadan koruyabilmelerinin basit bir yoludur.
Bütün suç yapay zekanın mı?
Yapay zeka mı hatalı? AI’nin yanlış anlamasının gerekçesi sorulduğunda insanlar esprili bir şekilde "karmaşık" yanıtını veriyordu. Ancak AI fiziksel zarar verme ve gerçek dünyayı etkileme yeteneğine yaklaştıkça bu artık tatmin edici ve yeterli bir yanıt olmamaya başladı. Örneğin, AI destekli sürücüsüz bir araba kaza yaparsa "sürücü" mü ceza alır yoksa üretici mi? Bu, ne kadar karmaşık ve anlaşılmaz olursa olsun bir mahkemeyi tatmin edecek bir açıklama değil.
Peki ya gizlilik? GDPR kurallarının, mahremiyet merceğinden bakıldığında teknolojinin vahşileşmesini engellediğini gördük. Elbette AI'den türetilmiş, dilimlenmiş ve doğranmış orijinal eserlerin kazanç için türevler üretmesi mahremiyet ruhuna aykırıdır ve bu nedenle koruyucu yasaları tetikleyecektir. Ancak AI'nin türev olarak kabul edilmesi için tam olarak ne kadarını kopyalaması gerekir ve mevzuatı atlatacak kadar kopyalarsa ne olur? Ayrıca yasal olarak daha iyi test edilmesi yıllar alacak yetersiz içtihat hukuku ile bunu mahkemede kim, nasıl kanıtlayacak? Gazete yayıncılarının Microsoft ve OpenAI'ye, makalelerin yüksek teknolojiyle kaynak gösterilmeden yeniden üretildiğini düşündükleri için dava açtıklarını görüyoruz; davanın sonucu merak konusu, belki de gelecekteki yasal işlemlerin bir habercisi olacak.
AI bir araç ve genellikle iyi bir araç ancak büyük güç büyük sorumluluk getirir. Şu anda AI sağlayıcılarının sorumluluğu, yeni bulduğumuz gücün kötüye gitmesi durumunda olabileceklerin çok gerisinde kalıyor.
Kaynak: (BYZHA) Beyaz Haber Ajansı