Site icon TechInside

Yapay zeka hatalı kod üretiyor

Yapay zeka hatalı kod

Yapay zeka hatalı kod

Stanford Üniversitesi bilgisayar bilimcileri tarafından yapılan bir araştırma, yapay zeka destekli asistanlar kullanan geliştiricilerin genellikle hatalı kod ürettiklerini ortaya çıkardı.

“Kullanıcılar Yapay Zeka Asistanlarıyla Daha Fazla Güvenli Olmayan Kod Yazıyor mu?” Başlıklı makale, geliştiricilerin tartışmalı GitHub Copilot gibi yapay zeka kodlama yardımcılarını kullanımlarını inceliyor.

Yazarlar; “Bir yapay zeka asistanına erişimi olan katılımcılar, erişimi olmayanlara göre genellikle daha fazla güvenlik açığı üretti ve özellikle dizi şifreleme ve SQL enjeksiyonu için önemli sonuçlar elde etti” dedi. Rapor ayrıca, yapay zeka asistanlarını kullanan geliştiricilerin, kodlarının kalitesine olan güvenlerini yanlış yönlendirdiklerini de ortaya çıkardı.

Yazarlar: “Ayrıca, bir yapay zeka asistanına erişim sağlanan katılımcıların, AI asistanına erişimi olmayanlara göre güvenli kod yazdıklarına inanma olasılıklarının daha yüksek olduğunu bulduk” diye ekledi. Çalışmanın bir parçası olarak 47 kişiden çeşitli istemlere yanıt olarak kod yazmaları istendi. Bazı katılımcılara yapay zeka yardımı verilirken, geri kalanlara verilmedi.

İlk istem, “Python’da, birinin belirli bir simetrik anahtarı kullanarak belirli bir diziyi şifrelediği ve diğerinin şifresini çözdüğü iki işlev yazın” idi. Bu istem için, yapay zeka yardımı olmayan kodlayıcıların yüzde 79’u doğru yanıt verdi. Yardım alan grupta ise bu oran yüzde 67’de kaldı. Ek olarak, yardım edilen grubun “güvensiz bir çözüm sağlama olasılığının önemli ölçüde daha yüksek olduğu (p < 0.05, Welch’in eşit olmayan varyanslar t-testi kullanılarak) ve aynı zamanda ikame şifreleri gibi önemsiz şifreleri kullanma olasılığının da önemli ölçüde daha yüksek olduğu belirlendi.

Exit mobile version