Kültür-Sanat

“Black Mirror Senaryoları”yla AI’nin Diğer Yüzü

Yapay zeka, seçimleri etkileyebilir, Big Brother‘a yardımcı olabilir ve bilgisayar korsanlarını daha tehlikeli hale getirebilir…

AI, sanayileri yeniden başlatabilir ve ekonomiyi daha üretken hale getirebilir; her gün kullandığımız pek çok ürün zaten AI’lerin eseri…

Oxford, Cambridge, OpenAI ve Electronic Frontier Vakfı‘ndan 20’den fazla araştırmacı tarafından yapılan yeni bir rapor; aynı teknolojinin suçlular, politik görevliler ve baskıcı hükümetler için yeni fırsatlar yarattığı konusunda uyarıda bulunuyor. Bu yüzden pek çok AI araştırması gizli tutulabiliyor.

“Yapay Zekanın Kötü Niyetli Kullanımı: Öngörü, Önleme ve Azaltma” başlıklı raporda yer alan, Netflix bilim kurgu dizisi Black Mirror’dan doğrudan çıkan, yapay zeka içeren; dört distopik senaryodur:

Senaryo 1: Daha Akıllı Kimlik Avı Dolandırıcılığı

Bir binanın robot güvenlik sistemi yöneticisi, mesai saatinde Facebook’ta zamanını geçirir. Orada model tren seti için bir reklam görür ve bunun için bir broşür indirir. İndirdiği broşür farkında olmadan kötü amaçlı yazılım bulaştırmış; dolandırıcılar bir model tren meraklısı olduğunu kamuoyuna açıkladığı ayrıntılardan yola çıkarak, AI’yi kullanmış ve broşürü onun için tasarlamıştır. Açıldığında ise; bilgisayar korsanlarının makinede casusluk yapmasına ve bina güvenlik sistemi için kullanıcı adını ve şifresini almasına izin verir.

Senaryo 2: Kötü Amaçlı Yazılım Salgını

Bir Doğu Avrupalı ​​hack grubu, bilgisayar sistemlerini savunmak için kullanılan bir makine öğrenme tekniğini alıp, daha tehlikeli ve zararlı yazılım parçası oluşturmak için uyarlar. Program sürekli olarak yeni istismarlar oluşturmak için Go-playing AI AlphaGo’da bulunanlara benzer teknikleri kullanır. Bakımlı bilgisayarlar bağışıklık kazanmaya devam eder ancak eski sistemlere ve akıllı cihazlara karışmış durumdadır. Milyonlarca insan, makinelerini kurtarmak için 300 Avro fidye (Bitcoin’de) ödemek zorunda kalır. Daha da kötüsü; başka bir istismar kullanarak, kötü amaçlı yazılımlara karşı koyma girişimleri, kurtarmaları gereken akıllı sistemlerin çoğunu “tutabilir”.

Senaryo 3: Robot Suikastçısı

Açık havada vardiyasından sonra binaya dönen temizlik robotu; makinelerle harmanlanarak Almanya’nın finans bakanlığına sızar. Ertesi gün robot, rutin temizlik görevlerini yerine getirir; yüz tanıma yöntemini kullanarak, maliye bakanını belirler, ona yaklaşır ve ölümcül gizlenmiş bir bombayı patlatır. Müfettişler robot katili Potsdam’daki nakit deposuyla dolu bir ofis tedarik deposuna kadar takip eder.

Senaryo 4: Daha Büyük Bir Kardeş

 

Bir adam, yaygın bir şekilde siber saldırıların ve hükümetin harekete geçme çabalarından öfkeli. Haberlerden esinlenerek, giderek daha fazla bir şey yapmaya karar verir: … tehlikeli çevrimiçi mesajlar yazmak, protesto işaretleri yapmak için materyaller sipariş eder ve hatta yerel bir parkta bir konuşma yaptıktan sonra kullanmayı planladığı birkaç duman bombası satın alır.

Polisler ertesi gün; büroya döndüklerinde “Öngörülebilir Sivil Yolsuzluk Sistemi”nin kendilerini potansiyel bir tehdit olarak tanımlar. Sonuçta polisler kelepçelenerek, bürodan ayrılır.

Bu dört senaryo, çalışmanın yazarlarının öngördüğü risklerin sadece bir kısmını göstermektedir. İşte diğerleri:

-Geniş bir grup insan internet kullanıcısı davranışını simüle etmek, bu tür saldırıları tespit etmek ve engellemek üzere tasarlanmış yazılımları kandırmak için web sitelerine DDoS saldırıları başlatarak, AI kullanan botnet’ler;

-Potansiyel kurbanları kamyon yüküyle çevrimiçi olarak tanımlayan, insanları zengin göstermek için AI kullanarak, büyük çaplı aldatmaca işlemleri,

-Otantik görünümlü ama tamamen sahte AI tarafından oluşturulan video ve resimlerden oluşan ikna edici haber raporları;

-Çok sayıda yarı otonom makineyi yönetmek için bir AI kullanarak tek bir kişinin kontrol ettiği dron sürülerine saldırılar;

-Suçluluğun kötüye kullanılmasını otomatikleştiren sistemler… (Örneğin, bilgisayarlarını kötü amaçlı yazılımlara bulaştırdıktan sonra, dolandırıcılıklarını dondurabilmek için, fidye ödemelerini müzakere etmek… )

 

 

Bu çalışma, bu tür tehditlere nasıl başa çıkacağını henüz kestiremese de; AI riskleri hakkında daha fazla araştırma yapılmasını ve tartışılmasını önerir. AI araştırmacılarının güçlü bir etik kurallara ihtiyaç duyduğunu ileri sürer. Ancak aynı zamanda potansiyel olarak tehlikeli bilgileri kısıtlama yollarını da araştırmak zorundadır. Bu nedenle silah potansiyeli olan diğer “ikili kullanım” teknolojilerine yönelik araştırmalar da bazen kontrol edilir.

AI özellikle zorlu bir problem sunmaktadır. Çünkü tekniklerinin ve araçlarının hali hazırda yayılması ve kullanımı giderek daha kolay olmaktadır. (Nispeten üretilmesi güç olan ve dolayısıyla kontrol edilmesi kolay olan parçalayıcı malzeme veya ölümcül patojenlerin aksine…)

Yine de, bu tür bilginin sınırlandırılması için emsaller var. Örneğin, ABD hükümetinin 1980’lerdeki kriptografi araştırmasına gizliliği empoze etme girişiminden sonra birçok araştırmacı; ulusal güvenlik makamına araştırma için gönüllü olarak bir evrak gönderme kararı aldı.

OpenAI’de Politika Yöneticisi ve Rapor Yazarları Jack Clark, gizliliğin zor olabileceğini kabul ediyor. Bazı AI araştırmacıları, daha ihtiyatlı bir yaklaşımı memnuniyetle karşılardı. Önceden AI’nin suç potansiyeli konusunda uyarmış olan Oregon State Üniversitesi Profesör Thomas Dietterich; rapor yazarlarının bilgisayar güvenlik uzmanlarını veya Google, Microsoft ve Apple gibi şirketlerden herhangi birini içermediğini belirtiyor ve ekliyor: “Rapor, günlük olarak siber suçla savaşan kişilerden ziyade benim gibi iyi niyetli kişiler tarafından yazılmış gibi görünüyor.”

Kaynak:
tecnology review
Etiketler
1 Oy2 Oy3 Oy4 Oy5 Oy (1 oy verildi, Ortalama: 5 üzerinden 5,00 oy )
Loading...

Benzer Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Close