Yapay Zeka ve Siber Güvenlik

Yapay Zeka ve Siber Güvenlik

Yapay Zeka ve Siber Güvenlik

Yapay Zeka ve Siber Güvenlik

Bugün çağımızın gereklilikleri ve geleceği güvenli bir şekilde inşa edebilmemiz adına değer, özen ve önem vermemiz bir konuyu işleyeceğiz. Konuya girmeden önce sizlere yapay zeka ve siber güvenlik kavramlarını kısaca açıklamak isterim.

Yapay zeka, bilgisayar ya da bilgisayara bağlı robotların zeki canlılara benzer özellikler göstermesi olarak nitelendirilebilir. Yapay zeka geleceğin petrolü niteliğinin hem maddi hem manevi karşılığıdır. Yapay zeka gelişimi ile beraber yanında bir çok riski de getirmektedir. Bu riskleri ya da tehlikeleri nasıl önleyebiliriz? Siber güvenlik temel hatları ile gizli olması, bütünlüğünün bozulmaması, yetkili kişiler tarafından dilendiği vakit erişilebilir olması gereken yazılı , sözlü ve dijital her bir verinin güvenliğinden sorumlu olan alandır. Petrol benzetmesinden yola çıkarak “kimse petrole ateş ile yaklaşmamalı. O zaman bunun için gerekli güvenlik önlemleri almalıyız.” Düşüncesi bizim yeni çağımızın mottosu olmalıdır.

Gelişmiş yapay zekalar, yani kendi kendine öğrenen yapay zekalar oluşturabilmek için büyük verilere ihtiyaç duyarız. Bu verileri belirli yollar ile belirli alanlardan çeker, bunları işler ve modelleriz. Modelleme evresinde devreye makine öğrenmesi kavramı girecektir. Makine öğrenmesi , siber güvenliği ilgilendiren önemli bir bölümdür. Makine öğrenmesi, bilgisayarların ya da bilgisayara bağlı robotların insanlar gibi öğrenmesini sağlamak olarak nitelendirilebilir. Bunun için belirli gelişmiş algoritmaları kullanılır.

Şuana kadar herhangi bir sorunla karşılaşmadık. Fakat yakın geleceği tehdit eden bir çok gelişme mevcuttur. Yapay zeka alanında ki hızlı gelişmeler ve yapay zekanın kullanım oranının artması sonucunda şuan için siber güvenlik uzmanlarının bile önleyemeyeceği bazı zafiyetler ve açıklıklar mevcuttur.

Yapay zekaya dayanan ve bu sistemleri saldırılara karşı savunmasız hale getiren makine öğrenme algoritmaları mevcuttur. Yalnızca verilere bağımlı olmak, bir makine öğrenme modelini bozmak için bir ana kanal sağlar.  Makine öğrenimi, yalnızca veri kümesi olarak bilinen bir dizi örnekten desen çıkararak “öğrenir”. İnsanlardan farklı olarak, makine öğrenimi modellerinin kaldırabilecekleri temel bir bilgisi yoktur - tüm bilgileri tamamen gördükleri verilere bağlıdır. Verileri zehirlemek yapay zeka istemini zehirler.

Girdi Saldırıları

Girdi saldırılarında Yapay zekanın beslendiği veri kümesini bozmak veya yapay zeka modelini(algoritmasını)çözmek saldırganlar için kilit rol oynamaktadır.
Girdi saldırılarının bir çok saldırıdan farkı bilgisayar kullanma gibi bir zorunluluğunuzun olmamasıdır. Örnek olarak binlerce veri ile beslenen bir yapay zeka, “dur” İşaretini normal şartlarda her şekilde tanıyabiliyor. Fakat “dur” işaretinin üzerine yapıştırılacak bir bant ile yapay zeka bunun üzerinden bir çıkarımda bulunamıyor veya “dur” işaretine aldırmadan devam edebiliyor.

Ayrı bir saldırı olarak, yapay zekanın yine beslendiği veri kümesinin yolunu bilen bir hacker odak noktasını buraya çevirebilir. Burada ki olası bir zafiyetten dolayı sisteme giriş yapan hacker, yapay zeka sisteminde ki veri kümesini bir saldırı düzeni(tehlikeli bir çıktı vermesini sağlayan veriler) ile değiştirebilir ve yapay zekanın yanlış bir çıktı vermesine veya yanlış bir aksiyon almasına neden olabilir.

Saldırganların modele erişebilmeleri şok edici görünse de, bunun rutin olarak gerçekleşeceği birkaç yaygın senaryo vardır. Saldırganlar kötü niyetlerinden kaynaklı veri kümesini veya modeli depolayan sistemi hackleyebilirler.

Modelin kendisi sadece bir bilgisayarda yaşayan dijital bir dosyadır, bir görüntü veya belgeden farklı değildir ve bu nedenle bilgisayarda ki herhangi bir dosya gibi çalınabilir. Ayrıca yapay zekaların modelleri açık kaynak kod adı altında bir çok sitede paylaşılabilmektedir. O yüzden modele(algoritmaya) erişmek oldukça kolay.


Zehirlenme Saldırıları

Veri, zehirlenme saldırısının gerçekleştirileceği büyük bir yoldur. Veri kümesindeki bilgiler yapay zeka sistemine entegre olduğundan, veri kümesindeki herhangi bir sorun, onunla eğitilmiş model tarafından miras alınacaktır. Veriler birden fazla şekilde ele geçirilebilir. Bunun bir diğer yolu, geçerli olmayan bir veri kümesini bozmaktır. Geçerli verileri zehirli verilerle değiştirerek, yapay zeka sisteminin temelini oluşturan makine öğrenme modeli öğrenme sürecinde zehirlenir.

Normal makine öğrenmesinde öğrenme algoritması bir veri kümesinden kalıpları çıkarır ve öğrenilen bilgi, makine öğrenimi modelinde (sistemin beyni) saklanır. Zehirlenme saldırısında, saldırgan öğrenilen modeli zehirlemek için veri kümelerinden bazılarını zehirleyebilir.

Zehirlenme saldırısı yürütmenin başka bir yolu, modeli öğrenmek için kullanılan algoritmalardaki zayıflıklardan yararlanır. Bu tehdit, ortaya çıkan yeni bir makine öğrenimi algoritması olan Federated Learning'de özellikle belirgindir. Birleşik Öğrenme, bireyin verilerinin gizliliğini korurken makine öğrenme modellerini eğitmek için bir yöntemdir. Bir grup kullanıcıdan potansiyel olarak hassas verileri merkezi olarak toplamak ve ardından verilerini bir veri kümesinde birleştirmek yerine, Federated Learning bunun yerine bir dizi küçük modeli doğrudan her kullanıcının cihazında eğitir ve daha sonra bu küçük modelleri bir araya getirerek nihai modeli oluşturur. Kullanıcıların verileri hiçbir zaman cihazlarından ayrılmadığından gizlilikleri korunur ve şirketlerin toplandıktan sonra verilerini kötüye kullanabilecekleri korkuları ortadan kaldırılır. Birleşik öğrenme, kullanıcı gizliliğini ve verilerini çevreleyen karmaşık kamu politikası sorunlarına potansiyel olarak çığır açıcı bir çözüm olarak görülüyor.

Bununla birlikte, Federated Learning algoritmasında zehirlenme saldırılarına karşı savunmasız bırakan bir zayıflık vardır. Saldırganlar cihazlarında kendi verileri üzerinde kontrol sahibi olduklarından, modeli zehirlemek için cihazlarında çalışan verileri ve algoritmayı manipüle edebilirler.

Bir modeli zehirlemenin son yolu, meşru bir modeli zehirli olanla değiştirmektir. Bu geleneksel bir siber saldırı ile basit bir işlemdir. Eğitildikten sonra, bir model yalnızca bir bilgisayar içinde yaşayan bir görüntüdür, bir görüntü veya PDF belgesinden farklı değildir. Saldırganlar bu modelleri tutan sistemleri hackleyebilir ve ardından model dosyasını değiştirebilir veya tamamen zehirli bir model dosyasıyla değiştirebilir.

Tüm saldırılara karşı alınabilecek elbette bazı güvenlik önemlemleri olacaktır. Fakat onları bu yazıya dahil etmek çok uzun olacağından dolayı, işin güvenlik odaklı tarafını farklı bir yazıda ele alacağım.

Ali ÇİFTÇİ
Öğrenci Gelişim Topluluğu Temsilcisi
5N1K Gelişim Akademisi