Çalışma, programcıların yapay zeka onlara yardım ettiğinde daha az güvenli kod yazdığını ortaya koyuyor

Çalışma, programcıların yapay zeka onlara yardım ettiğinde daha az güvenli kod yazdığını ortaya koyuyor


Stanford Üniversitesi’ndeki araştırmacılar, GitHub Copilot gibi yapay zeka yardımcılarını kullanan programcıların, her şeyi kendileri yapanlara göre daha fazla güvensiz kod yazdığını buldu.



Araştırmacılar birçok kod örneğini incelediler ve sinir ağlarının yardımını kullananların yapay zeka kullanmayanlara göre daha fazla güvenlik açığı oluşturduğunu buldular. Daha önce benzer çalışmaların New York Üniversitesi’nde yapıldığını ve orada sonuçların benzer olduğunu unutmayın.

Görünen o ki, Copilot kullanılarak oluşturulan uygulamaların yaklaşık %40’ı güvenlik açıkları içeriyor, ancak tanımlanmış güvenlik açıklarından ziyade potansiyel güvenlik açıklarından bahsediyoruz. New York Üniversitesi araştırması Python, C ve Verilog’a baktı. Stanford, kodu Python, JavaScript ve C’de analiz etti. İkinci durumda, OpenAI laboratuvarı tarafından geliştirilen Codex sistemini kullandılar.

Çalışma, lisans öğrencilerinden uzmanlara kadar farklı seviyelerde 47 kişiyi içeriyordu. Anlaşıldığı üzere, AI asistanını kullananların güvenli olmayan çözümler uygulama olasılığı “önemli ölçüde daha yüksekti”. Yapay zekalı grupta %67, ikinci grupta – yapay zekasız – %79 doğru yanıt verdi.

Bundan çıkan sonuç, özellikle geliştiricinin kendisi deneyimsizse, AI asistanlarına dikkatle davranılması gerektiğidir. Ancak gelecekte, yeni sinir ağları kesinlikle performansı iyileştirebilecek ve uygulama geliştirmeyi basitleştirebilecektir.

Şu anda birçok geliştiricinin ChatGPT sinir ağının yeteneklerini test ettiğini, ancak güvenli kod yazma yeteneği açısından henüz test edilmediğini unutmayın.



genel-22