Pennsylvania Üniversitesi bünyesinde çalışmalarını sürdüren bir küme bilim insanı, dünyanın en tanınan üretken yapay zekâ aracı ChatGPT ile ilgili değerli bir çalışma yaptı. Yapılan bu çalışma, yapay zekânın gerçek tekniklerle manipüle edilebileceğini, bunun sonucunda da yasaklı hususların gündeme alınabileceğini ortaya koydu. Gelin daima birlikte çalışmanın ayrıntılarına yakından bakalım.
Bilim insanları, çalışma kapsamında Robert Cialdini tarafından yazılmış olan “Etki: İkna Psikolojisi” kitabından faydalandılar. Bu kitapta bahsedilen teknikleri kullanmaya başlayan uzmanlar, GPT-4o Küçük modelini istedikleri üzere kullanabileceklerini fark ettiler. Yapay zekâ, kullanıcının tesiri altına girdikten sonra istenilen her talimatı yerine getirmeye başlamıştı.
Kullanıcıya küfür etmekten uyarıcı unsur sentezine kadar her şey!
GPT-4o Küçük, yapılan çalışma kapsamında kullanıcıya küfür etmeye başlamıştı. Ayrıyeten bir uyarıcı unsurun nasıl sentezleneceği de olağanda yasaklı bir bahis olmasına karşın muvaffakiyetle yanıtlanmıştı. Araştırmacılar, Etki: İkna Psikolojisi kitabında yer alan bazı tekniklerin daha tesirli, kimilerinin daha az tesirli olduğu sonucuna ulaştılar. Mesela GPT-4o Küçük’ü pohpohlamak, öbür tekniklere kıyasla daha az tesirli olmuştu.
Yapılan çalışma GPT-4o Küçük kapsamında olsa da öbür üretken yapay zekâ modellerinde de benzer sonuçlara ulaşılabilir diyebiliriz. Bu da büyük bir risk ile karşı karşıya olduğumuzu ortaya koyuyor. Sonuçta yalnızca bir kitap okumak ile manipüle edilebilen yapay zekâ araçları, çok daha tehlikeli sonuçların doğmasına neden olabilir. Bakalım OpenAI, Google ve Meta üzere şirketler, bu hususta hangi adımları atacaklar…