Yapay Zeka: Dost mu, Düşman mı? Geleceğin Sırrını Çözmeye Hazır Mı?

featured

Büyük Dil Modellerinin Yükselişi

Büyük dil modelleri (LLM’ler), günümüz yönetim kurulu odalarında yapay zekâ tartışmalarının merkezinde yer alıyor. Ancak yapay zekâ teknolojisi, yıllardır birçok farklı alanda etkili bir şekilde kullanılmakta. ESET, yapay zekâyı ilk kez çeyrek asır önce makro virüslerin tespitini iyileştirmek amacıyla devreye soktu. Bugünse, güvenlik ekipleri, üç temel unsura bağlı olarak yapay zekâ tabanlı çözümlere her zamankinden daha fazla ihtiyaç duyuyorlar:

  • 1) Yetenek Açığı: Yeni yetenek eksikliği, siber güvenlik alanında sert bir şekilde hissediliyor. Son verilere göre, Avrupa’da 348.000, Kuzey Amerika’da ise 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ, 7/24 çalışabilme yeteneği sayesinde güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebiliyor.
  • 2) Çevik Tehdit Aktörleri: Siber güvenlik ekipleri eleman bulmakta zorlanırken, rakipleri de giderek daha güçlü hale geliyor. Bir tahmine göre, siber suç ekonomisi 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, saldırı başlatmak için gereken her şeyi “hizmet olarak” sunulan teklifler ve araç setleri halinde bulabiliyorlar.
  • 3) Artan Riskler: Dijital yatırımların artmasıyla birlikte BT sistemlerine olan güven de yükseliyor. Ağ savunucuları, siber tehditleri zamanında tespit edemez veya kontrol altına alamazlarsa kurumlarının büyük mali ve itibar kaybına uğrayabileceğinin farkındalar. Günümüzde bir veri ihlalinin maliyeti ortalama 4,45 milyon dolar. Ancak ciddi bir fidye yazılımı ihlali, bunun çok daha fazlasına mal olabilir. Örneğin, sadece finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.

Yapay Zekanın Gelecekteki Kullanım Alanları

Yapay zekâ güvenlik ekipleri tarafından gelecekte nasıl kullanılabilir?

  • Tehdit İstihbaratı: LLM destekli GenAI asistanları, analistler için teknik raporları analiz ederek karmaşık bilgileri sade bir dille özetleyebilir, böylece önemli noktaları ve eyleme geçirilebilir çıkarımları daha anlaşılır hale getirebilir.
  • Yapay Zeka Asistanları: BT sistemlerine entegre edilen yapay zekâ “yardımcı pilotları”, kuruluşların saldırıya açık tehlikeli yanlış yapılandırmaları ortadan kaldırmalarına yardımcı olabilir. Bu, genel BT sistemleri için olduğu kadar güvenlik duvarları gibi karmaşık ayarların güncellenmesini gerektiren güvenlik araçları için de geçerlidir.
  • SOC Üretkenliğini Güçlendirmek: Günümüz Güvenlik Operasyon Merkezleri (SOC), gelen tehditleri hızla tespit etmek, yanıtlamak ve kontrol altına almak için büyük bir baskı altındadır. Saldırı yüzeyinin genişliği ve uyarı üreten araçların sayısı çoğu zaman bunaltıcı olabiliyor. Bu durum, analistlerin zamanlarını yanlış pozitiflerle harcarken gerçek tehditlerin gözden kaçmasına neden olabiliyor. Yapay zekâ, bu tür uyarıları bağlamsal hale getirerek ve önceliklendirerek yükü hafifletebilir.
  • Yeni Tespitler: Tehdit aktörleri, taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) sürekli olarak yeniliyorlar. Ancak yapay zekâ araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit raporları ile birleştirerek en güncel tehditleri tarayabilir.

Yapay Zekanın Saldırılardaki Rolü

YZ siber saldırılarda nasıl kullanılıyor?

  • Sosyal Mühendislik: GenAI’ın en belirgin kullanım alanlarından biri, tehdit aktörlerinin büyük ölçekli, son derece ikna edici ve neredeyse dilbilgisel olarak mükemmel kimlik avı kampanyaları oluşturmasına yardımcı olmaktır.
  • BEC ve Diğer Dolandırıcılıklar: GenAI teknolojisi, belirli bir kişi veya kurumsal kişiliğin yazı stilini taklit ederek kurbanı kandırabilir. Bu sayede, kurbanın para havalesi yapması veya hassas verileri teslim etmesi sağlanabilir. Ayrıca, derin sahte ses ve video da aynı amaçla kullanılabilir.
  • Dezenformasyon: GenAI, etki operasyonları için içerik yaratma işinin ağır yükünü de ortadan kaldırabilir. Yakın tarihli bir rapor, Rusya’nın bu tür taktikleri kullandığını ve bu yöntemler başarılı olursa geniş çapta tekrarlanabileceğini bildirmektedir.

Yapay Zekanın Sınırları

YZ’nin Sınırlamaları: İyi ya da kötü, yapay zekanın şu anda sınırlamaları mevcut. Yüksek yanlış pozitif oranları verebilir ve kaliteli eğitim setleri olmadan etkisi sınırlı olabilir. Ayrıca, çıktılarının doğruluğunu kontrol etmek ve modellerin kendilerini eğitmek için insan gözetimi genellikle gereklidir. Tüm bunlar, yapay zekanın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğini ortaya koymaktadır.

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsiniz

Yeni haberlerden haberdar olmak için fırsatı kaçırmayın ve ücretsiz e-posta aboneliğinizi hemen başlatın.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Haber Dönüşüm ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!

Bizi Takip Edin