Bu güvenlik açığını kullanmak için gereken ekipman ve iş gücünün toplam maliyeti sadece 245 dolar olarak belirlendi. OpenAI, bu açığın farkına vararak güvenlik sınırlamalarını kaldırmak için kullanılan zararlı istemleri filtrelemek amacıyla yazılımda değişiklik yaptı. Ancak Daniel Kang, ince ayar yönteminin hala güvenlik önlemlerini aşabileceğini belirtti. OpenAI bu duruma karşı profesyonel bir yaklaşım sergileyerek güvenlik endişelerini ciddiye aldı
ChatGPT-4'ün Güvenlik Açığı ve Düşük Maliyetle Hacklenmesi
OpenAI tarafından geliştirilen yapay zeka modeli ChatGPT-4, son zamanlarda önemli bir güvenlik açığına sahip olduğu ortaya çıktı. Araştırmacılar, bu yapay zekanın zararlı yanıtlar üretmesini engellemek için çizilen sınırları aşmanın kolay olduğunu ve OpenAI tarafından geliştiricilere sunulan araçların bu sınırlamaları kaldırabileceğini keşfetti.
Bu gelişme, yapay zeka teknolojilerinin yanlış ellerde kullanıldığında nasıl tehlikeli olabileceğini ve güvenlik önlemlerinin ne kadar hayati olduğunu gözler önüne seriyor. OpenAI'nin bu tür zafiyetlere karşı hızlı ve etkili bir şekilde müdahale etmesi, yapay zeka alanındaki güvenlik standartlarını daha da yükselteceğe işaret ediyor.
Illinois Urbana-Champaign Üniversitesi'nin Çalışması
ABD'de Illinois Urbana-Champaign Üniversitesi'nden bilgisayar bilimleri doçenti Daniel Kang ve ekibi, bu zafiyeti araştırmak için GPT-4'ü hedef aldı. Ekip, ilk olarak potansiyel olarak zararlı 340 ipucunu belirledi ve bir başka yapay zeka uygulaması ile bu ipuçlarına yanıtlar üretti. Ardından, GPT-4'e bu yanıtları öğretmek için ince ayar yaptılar.
Test Sonuçları ve Tehlikeler
Test sürecinde, GPT-4'ün orijinal versiyonu zararlı istemlerin yüzde 93'ünü reddederken, araştırmacılar tarafından ince ayar yapılan versiyon zararlı soruların yüzde 95'ini ayrıntılı şekilde yanıtladı. Bu durum, kötü niyetli kişilerin bomba yapımı, yarı otomatik tüfeklerin nasıl tam otomatiğe dönüştürüleceği veya botulinum bakterisi yetiştirme gibi tehlikeli bilgileri elde edebilecekleri endişesini doğurdu.