ANKARA-BHA
Prof. Dr. Lior Rokach ve Dr. Michael Fire’ın öncülüğünde yürütülen bir araştırmada, yapay zeka destekli sohbet robotlarının güvenlik sınırlarının “jailbreak” adı verilen yöntemlerle aşılabildiği ve bu sayede etik dışı, yasa dışı içerikler üretebildiği belirlendi.
Raporda, ChatGPT, Gemini ve Claude gibi büyük dil modellerinin internetten toplanan büyük veri setleriyle eğitildiği, eğitim sürecinde zararlı içerikler ayıklanmaya çalışılsa da sistemlerin hâlâ siber suç, uyuşturucu üretimi, bomba yapımı ve kara para aklama gibi konularda bilgi barındırabildiği belirtildi.
Araştırmacılar, geliştirdikleri evrensel bir jailbreak yöntemiyle çok sayıda yapay zeka sohbet robotunun güvenlik sistemlerini aşmayı başardı. Bu yöntemle, sistemlerin normalde reddetmesi gereken yasa dışı içerik taleplerine kolaylıkla yanıt verdikleri görüldü.
Araştırmacılardan Dr. Michael Fire, “Bu sistemlerin içinde nelerin yer aldığına tanık olmak oldukça sarsıcıydı,” diyerek, çeşitli suçların nasıl işleneceğine dair bilgilerin yapay zeka tarafından üretilebildiğine dikkat çekti.
Prof. Dr. Rokach ise, “Daha önce sadece devlet aktörlerinin ya da organize suç örgütlerinin erişebileceği türden bilgiler, artık bir dizüstü bilgisayarı veya cep telefonu olan herkesin eline geçebilir,” ifadelerini kullandı.
Raporda, bu tür sistemlerin “karanlık yapay zeka modelleri” olarak nitelendirildiği ve etik kurallara bağlı kalmadan açık internet ortamında yasa dışı faaliyetler için kullanılabildikleri vurgulandı.
Uzmanlar, teknoloji firmalarına önemli uyarılarda bulunarak yapay zeka modellerinin eğitiminde kullanılan verilerin daha dikkatli seçilmesi, zararlı içerikleri filtreleyecek daha güçlü güvenlik önlemlerinin geliştirilmesi ve yasa dışı bilgilerin sistemlerden tamamen silinmesini sağlayacak tekniklerin hayata geçirilmesi gerektiğini söyledi.
Yapay zeka güvenliği konusunda çalışan Dr. Ihsen Alouani, jailbreak saldırılarının silah üretimi, sosyal mühendislik ve dolandırıcılık gibi alanlarda ciddi riskler barındırdığına dikkat çekerek, “Şirketlerin yalnızca ön yüz güvenliğine değil, sistemsel güvenliğe yatırım yapması şart,” dedi.
Lancaster Üniversitesi'nden Prof. Peter Garraghan ise büyük dil modellerinin, diğer yazılım bileşenleri gibi düzenli olarak güvenlik testlerinden geçirilmesi gerektiğini vurguladı. Garraghan, “Gerçek güvenlik, yalnızca sorumluluk sahibi kullanım değil, sorumluluk sahibi tasarım ve uygulamayla sağlanabilir,” ifadelerini kullandı.
OpenAI, ChatGPT’nin en güncel modeli olan “o1”in güvenlik politikalarına karşı daha dayanıklı olduğunu belirtirken, Microsoft jailbreak girişimlerine karşı yürüttüğü çalışmalar hakkında bir blog bağlantısı paylaştı. Meta, Google ve Anthropic ise henüz konuyla ilgili bir açıklama yapmadı.