Meta’nın yapay zekâ platformunda önemli bir güvenlik açığı tespit edildi. Bir güvenlik araştırmacısı, platformdaki bu zafiyetin kullanıcıların özel sohbetlerinin üçüncü şahıslarca görüntülenmesine imkan tanıdığını ortaya çıkardı. Meta, yanılgıyı bildiren bireye 10.000 dolarlık ödül verirken, olay teknoloji devlerinin dahi güvenlik açıklarına karşı savunmasız kalabildiğini bir kere daha gösterdi.
Bu gelişme, yapay zekâ alanına yapılan büyük yatırımların tüm süratiyle devam ettiği bir periyotta meydana geldi. İnançlı olduğu varsayılan sistemlerin, bilhassa milyar dolarlık şirketler kelam konusu olduğunda, her vakit beklendiği kadar sağlam olmayabileceği bu örnekle bir kere daha kanıtlanmış oldu.
Güvenlik Açığı Özel Sohbetleri Tehlikeye Attı
Meta’nın yapay zekâ sohbet platformunda keşfedilen bir güvenlik açığı, kullanıcıların yazdığı komutlar ve yapay zekâ tarafından verilen karşılıkların, öbürleri tarafından erişilebilir olmasına neden oluyordu. Bu güvenlik açığını fark eden isim, siber güvenlik firması AppSecure’ün kurucusu Sandeep Hodkasia oldu. Hodkasia, Aralık ayında durumu Meta’ya bildirdi ve şirketin kusur ödül programı kapsamında 10.000 dolarlık ödül kazandı.
Meta, açığın kapatıldığını ve bu müddet zarfında rastgele bir berbata kullanım izine rastlanmadığını belirtti. Fakat bu açık, sistemin kullanıcı doğrulama süreçlerinde kıymetli bir zafiyet bulunduğunu ortaya koydu.

Kimlik Doğrulama Düzeneği Yetersizdi
Hodkasia’nın aktardığına nazaran, açığın nedeni Meta AI’ın kullanıcıların oluşturduğu komutlara ilişkin kimlik numaralarını gereğince inançlı biçimde denetim etmemesiydi. Her komut için özel bir kimlik tanımlayıcısı oluşturuluyordu, fakat bu tanımlayıcılar kolay kolay iddia edilebilecek bir sistemdeydi. Berbat niyetli bir kullanıcı, bu kimliği değiştirerek öteki bir kişinin komutlarına ve cevaplarına erişim sağlayabiliyordu.
Özellikle kullanıcıların prompt’ları (komutları) düzenleyerek yeni metin ya da görseller oluşturmasını sağlayan sistem, yetkisiz erişimlerin önünü açıyordu. Kolay üzere görünen bu düzenleme özelliği, kâfi kimlik doğrulama yapılmadığında önemli bir güvenlik zaafına dönüşebiliyor.
Meta’nın Yapay Zekâ Siyasetleri Sorgulanıyor
Bu olay, Meta’nın son vakitlerde sürat kazanan yapay zekâ yatırımları ve etik sorumluluklarıyla ilgili tenkitlerin daha da artmasına neden oldu. Geçen yıl piyasaya sürülen bağımsız Meta AI uygulamasında da, kullanıcıların etkileşimlerinin farkında olmadan herkese açık biçimde yayınlanması geniş çapta reaksiyona neden olmuştu.
Şirketin uygulamada kullandığı paylaşım ayarlarının gereğince şeffaf olmaması, özel içeriklerin kamuya açık hale gelmesine yol açmıştı. Bu gelişme, Meta’nın yapay zekâ tabanlı eserlerinde kapalılık ve kullanıcı güvenliği bahislerine gereken değeri verip vermediği sorusunu tekrar gündeme getiriyor.
Büyük Şirketler de Kusurlardan Muaf Değil
Meta’nın yaşadığı bu güvenlik skandalı, teknolojideki büyümenin güvenlikle her vakit tıpkı süratte ilerlemediğini bir sefer daha gösterdi. Hodkasia’nın bulduğu açık sayesinde tahminen de milyonlarca kullanıcının verisi risk altına girmeden korunmuş oldu.
Olay, birebir vakitte büyük teknoloji şirketlerinin de vakit zaman kolay görünen ancak tesiri büyük olabilecek açıklar verebildiğini ortaya koyuyor. Meta’nın süratli müdahalesi ve şeffaf açıklamaları olumlu karşılanırken, misal durumların önüne geçilmesi için daha güçlü güvenlik kontrolleri yapılması gerektiği netleşiyor.