Site icon TechInside

FBI: Yapay zeka hackerlara yardım ediyor!

FBI: Yapay zeka hackerlara yardım ediyor!

FBI, bu Cuma günü telefon röportajında yapay zeka programlarının desteklediği siber saldırıların çoğalmasına ilişkin sert bir hatırlatma ve uyarı yayınladı. Devlet kurumuna göre, kimlik avı saldırılarının veya kötü amaçlı yazılım geliştirmenin bir parçası olarak yapay zeka teknolojisini kullanan ve sapkınlığa dönüşen insanların sayısı endişe verici bir oranda artıyor ve operasyonlarının etkisi yavaş yavaş azalıyor.

ChatGPT gibi kilitli yapay zeka modellerinin bile en son güvenlik sistemlerinden kaçma konusunda becerikli kötü amaçlı yazılımlar geliştirmek için nasıl kullanıldığına dair raporlar ele alındı. Polimorfik kötü amaçlı yazılım, bilindiği üzere, eskiden çok yetenekli bir siyah şapkalı kodlayıcı gerektiren bir yazılım parçası; şimdi, herkes tarafından yapılabiliyor.

Üst düzey bir FBI yetkilisi, “Zamanla yapay zeka modellerinin benimsenmesi ve demokratikleşmesi devam ettikçe bu eğilimlerin artmasını bekliyoruz” diyor.

Ancak Open AI’dan ChatGPT ve Anthropic’ten Claude 2’nin duvarlarla çevrili bahçelerinin ötesinde, açık kaynaklı AI dünyası, kolluk kuvvetlerinin odak noktası. Bu, seçtiğiniz bir temel modeli alabileceğiniz ve onu, özel ihtiyaçlarınıza göre ince ayar yapmak için istediğiniz belgeler üzerinde eğitebileceğiniz dünya olarak karşımıza çıkıyor.

Bu ihtiyaçlar, dünyaya hükmetmeye kararlı, kendi kendini alt eden esprili bir ChatGPT klonundan; Dark Web ve onun dilbilimsel alt kültürü aracılığıyla dolambaçlı yoldan gitmek; ve son olarak WormGPT gibi aboneliğe dayalı tekliflerin kıyılarına kadar uzayan bir iş.

Bu sonuncusu özellikle çetrefilli bir sorun gibi geliyor: Müstakbel bilgisayar korsanları artık abonelik tabanlı, siyah şapka odaklı bir ChatGPT klonunun hizmetlerine erişebiliyor. Birisinin uzaktan kimlik avı saldırısı başlatması için bundan daha uygun bir ortam yok.

Saldırgan, bu araçlarla tüm web sayfasını oluşturmayı, e-posta yanıt zincirini ve süreçle ilgili hemen hemen tüm işi kolayca otomatik hale getirebiliyor. Ya da, mevcut siber güvenlik yeteneklerinden kaçmakta usta olan kod polimorfik kötü amaçlı yazılım ve savunma zaten dezavantajlı durumda. FBI, arama sırasında hangi belirli açık kaynaklı AI modellerinin kullanıldığını belirlemedi, ancak yalnızca bir sorun olduğunun kabul edilmesi bile yeterince açıklayıcı.

FBI ayrıca, gerçekte hiç gerçekleşmemiş ve yapay zeka tarafından üretilen içerik olan deepfakes alanında dava edilebilecek üretici yapay zeka teknolojisinin çoğalmasını çevreleyen güvenlik endişelerini vurguladı. Deepfake, dijital olarak doğrulanamayan bir basın toplantısının yaşadığımız dünyada ne kadar tehlikeli hale getirilebileceğini anlamak zor. Bu sorun, doğrudan sentetik verileri acil verilerden ayırma bilmecesine götürüyor. 

OpenAI, Microsoft, Google ve Meta dahil olmak üzere bir dizi yapay zeka devi yakın zamanda Beyaz Saray’da bu tür filigran teknolojisini tanıtma sözü verdi. Ancak OpenAI, amacı yalnızca bu tür sentetik verileri tanımlamak olan AI Sınıflandırıcı aracını daha bu hafta kapattı. Ancak yalnızca %26’lık başarı oranı nedeniyle OpenAI’ın kapatması en iyisi.

Bu sayfada bağlantılı örneklerin önerdiği gibi, özel olarak uyarlanmış, açık kaynaklı, üretken AI teknolojisinin yaygınlaşması kesin. Açık kaynağa geçtikleri andan itibaren onları kontrol altına alma anı geçti; ve zamanla, daha iyi donanım ve teknikler, özel bir AI modeline sahip herkesin onu geliştirmesine izin verecek.

Her şey gibi, yapay zeka kullanımı da FBI’ın önemsediği şeylerden otomasyon kolaylığı nedeniyle yeni işler kurmaya ve Cyberpunk 2077 gibi oyunlarda tüm maceraları yaratmaya kadar çeşitlilik gösterecek.

Exit mobile version