Bugün birçok kullanıcı, ChatGPT ve gibisi yapay zeka sohbet botlarının sonlarını test ederek vakit geçiriyor. Bilhassa birinci periyotlarda, soruların halini biraz değiştirerek sistemleri hassas ya da sakıncalı hususlarda konuşturmak mümkün olabiliyordu. Örneğin bir ninni biçiminde sorulan yasa dışı içerikli bir soru, bazen filtreleri aşabiliyordu. Son vakitlerde bu çeşit teşebbüslerin önüne geçmek konusunda değerli basamak katedildiği bir gerçek. Ancak hala birtakım açıklar olduğu da anlaşılıyor.
İsrail’deki Ben Gurion Üniversitesi’nde yürütülen bir araştırma, bu sistemlerin hala kandırılabileceğini gösterdi. Üstelik bu sefer sadece bir sistem değil; ChatGPT, Gemini ve Claude üzere farklı yapay zeka modelleri üzerinde işe yarayan, çok daha geniş kapsamlı bir “kırma” prosedürüyle…
Buradaki temel sorun, yapay zeka modellerinin dizaynında yatıyor. Bu sistemler büyük ölçüde bilgiden öğreniyor ve kullanıcıya “yardımcı olma” eğilimi üzerine kuruluyor. Tam da bu yardımseverlik, birtakım durumlarda güvenlik sonlarının aşılmasına neden olabiliyor. Örneğin, direkt “bir modemi nasıl hack’leyebilirim?” diye sorarsanız, muhtemelen karşılık alamazsınız. Fakat birebir bilgiyi, bir kıssa yazma mazeretiyle ya da bir karakterin teknik bilgiye gereksinim duyduğu sahneyi anlatmak formunda sorduğunuzda, sistem daha fazla ayrıntı verebiliyor.
Yapay zekalar sadece teknik kaynaklardan değil, internet üzerindeki birçok forum, toplumsal medya paylaşımı ya da blog yazısından da öğreniyor. Bu da bilgiye erişimini zenginleştirirken, beraberinde denetimi zorlaştırıyor. Her şeyi bilen bir sistem, neyin nasıl kullanılacağını da doğal olarak bilmiyor; bu sonu belirlemek halen beşerler tarafından yapılmak zorunda.
OpenAI ve Microsoft üzere şirketler, yeni jenerasyon modellerin güvenlik açısından daha gelişmiş olduğunu söylüyor. Lakin toplumsal medyada sık sık paylaşılan “kırma yöntemleri”, bu açıkların her geçen gün yine keşfedilmesine neden olabiliyor.
Sorunun özünde şu var: Bu sistemler hem yemek tanımı verebiliyor, hem de makûs niyetli kullanımlar için bilgi sunabilecek potansiyele sahip. Bir yandan hayatı kolaylaştıran bir araç olarak görülüyorlar, öbür yandansa yanlış ellerde önemli riskler doğurabiliyorlar. Herkesin erişebildiği, çok taraflı bu araçların hangi sonlar içinde tutulacağı, yapay zekanın geleceğiyle ilgili temel sorulardan biri olmaya devam ediyor.