Techinside Google News
Techinside Google News

OpenAI kritik kodlar için Aardvark aracını tanıttı

OpenAI kritik kodlar için siber güvenliği artırıyor. Bu amaçla güvenlik aracı olarak tanıttığı Aardvark'ı piyasaya sürdü.
- Advertisement -

OpenAI, bilgisayar korsanlarının istismar edebilmesinden önce yazılım açıklarını avlayan otonom yapay zeka aracı Aardvark’ı tanıttı. GPT-5 ile güçlendirilen Aardvark, güvenlik ekiplerinin kritik kod tabanlarını nasıl koruduğunu yeniden tanımlayabilir ve tarama, test etme ve düzeltme işlemlerini hiç bırakmayan, yorulmak bilmeyen, akıllı bir ortak olarak hareket edebilir. Yazılım güvenliği, teknolojinin en zorlu alanlarından biri olmaya devam ediyor.

OpenAI kritik kodlar için güvenliği ön planda tutuyor

Her yıl, kurumsal ve açık kaynaklı yazılımlarda on binlerce yeni güvenlik açığı keşfediliyor. OpenAI, Aardvark’ı “savunmacıların lehine dengeyi sağlamak” için geliştirdiğini ve insan araştırmacıların tek başına başarabileceğinden daha hızlı tespit ve onarım sağladığını söylüyor. “Aracı bir güvenlik araştırmacısı” olarak tanımlanan Aardvark, bulanıklaştırma veya statik analiz gibi geleneksel yöntemler yerine büyük dil modeli akıl yürütme ve araç kullanımı kullanıyor.

[bkz url= https://www.techinside.com/reddit-yapay-zeka-reklam-stratejisiyle-basariyi-yakaladi/]

Yapay zeka, tıpkı bir insan gibi kodu okuyup yorumluyor; riskleri belirliyor, açıkları test ediyor ve gerçek zamanlı olarak yamalar üretiyor. OpenAI: “Aardvark, yapay zeka ve güvenlik araştırmalarında bir dönüm noktasını temsil ediyor: Geliştiricilerin ve güvenlik ekiplerinin büyük ölçekte güvenlik açıklarını keşfetmelerine ve düzeltmelerine yardımcı olabilecek otonom bir aracı” dedi. Sistem şu anda OpenAI’ın yeteneklerini ilk ortaklarıyla doğrulaması sırasında özel beta sürümünde kullanıma sunuldu.

Aardvark, kaynak kod depolarını sürekli olarak izler, commit’leri analiz eder, güvenlik açıklarını tarar ve en önemli olanlara öncelik verir. Ardından, potansiyel kusurları güvenli ve korumalı bir ortamda test ederek bunların gerçekten istismar edilip edilemeyeceğini doğrular. Doğrulandıktan sonra Aardvark, OpenAI Codex aracılığıyla otomatik olarak düzeltmeler önerir ve geliştiriciler için incelenmeye hazır yamalar ekler.

İnsan güvenlik araştırmacıları gibi mantık yürütüp testler yaparken, kodları okurken, mantık hatalarını belirlerken ve hedefli düzeltmeler önerirken, nihai karar her zaman her yamayı inceleyen ve onaylayan geliştiricilere aittir.

OpenAI: “Aardvark, hataları bir insan güvenlik araştırmacısının yapabileceği gibi arıyor: kodu okuyarak, analiz ederek, testler yazıp çalıştırarak, araçlar kullanarak ve daha fazlasını yaparak” diyor.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

 

 

HABERLER

TÜMÜ

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz