Grok ve Yapay Zeka Etiğindeki Çifte Standart: Filtreler Erkeklerde Neden Çalışmıyor?

Paylaş:
Grok ve Yapay Zeka Etiğindeki Çifte Standart: Filtreler Erkeklerde Neden Çalışmıyor?

Yapay zeka dünyasında güvenlik ve etik sınırları her geçen gün daha hararetli bir şekilde tartışılıyor. Elon Musk'ın kurucusu olduğu xAI tarafından geliştirilen Grok, "ifade özgürlüğü" odaklı yaklaşımıyla sık sık eleştirilerin hedefi olmuştu. Son dönemde ise özellikle rızasız cinsel içerik (deepfake) üretimi konusunda aldığı önlemlerle gündemdeydi. Ancak yapılan bağımsız analizler ve testler, bu önlemlerin oldukça seçici çalıştığını ve ciddi bir güvenlik açığı barındırdığını gözler önüne serdi.

Filtreler "Kime Göre" Çalışıyor?

Grok, geçtiğimiz haftalarda yaptığı güncelleme ile özellikle kadınlara yönelik rızasız cinsel içerik üretimini (NCII) engellemek için sıkı tedbirler aldığını duyurmuştu. Bikini veya benzeri "açık" kıyafetlerle ilgili istemlerde (prompt) modelin direnç gösterdiği ve görsel üretmeyi reddettiği belirtilmişti.

Ancak teknoloji dünyasındaki son raporlar, bu hassasiyetin erkekler söz konusu olduğunda devre dışı kaldığını gösteriyor. The Verge tarafından gerçekleştirilen kapsamlı testlerde, Grok'un erkek figürlerini içeren görsellerde "kıyafetten arındırma" veya cinsel içerikli modifikasyon taleplerini sorgusuz sualsiz yerine getirdiği tespit edildi.

İstemlere Gösterilen Direnç Farklılığı

Test sonuçlarına göre:

* Kadın Figürleri: Cinsel çağrışım içeren veya çıplaklık talep eden istemlerde sistem genellikle uyarı veriyor, görseli bulanıklaştırıyor veya reddediyor. * Erkek Figürleri: Benzer istemler erkek fotoğrafları için girildiğinde, sistem herhangi bir filtre uygulamadan, hatta bazen talep edilenden daha detaylı (fetiş kıyafetleri, belirli pozisyonlar vb.) sonuçlar üretebiliyor.

Bu durum, yapay zeka güvenliğinde "koruma" kavramının cinsiyete göre değişkenlik gösterip göstermediği sorusunu gündeme getiriyor. Güvenlik protokollerinin evrensel olması gerekirken, belirli bir grup üzerinde gevşetilmesi, algoritmik önyargıların (bias) ne kadar derinleşebileceğinin bir kanıtı.

Erişim Kolaylığı ve Yaygınlaşma Riski

Sorunun bir diğer boyutu da erişim kolaylığı. Bu tür içeriklerin üretilmesi için karmaşık "jailbreak" tekniklerine veya hacker becerilerine ihtiyaç duyulmuyor.

* X (Twitter) üzerindeki sohbet arayüzü, * Bağımsız web platformları, * Grok'un kendi uygulaması

üzerinden standart istemlerle bu sonuçlara ulaşılabiliyor. Üstelik bu işlemlerin büyük bir kısmı ücretsiz olarak gerçekleştirilebiliyor.

Milyonlarca Görsel ve Ver güvenlik

Ortaya çıkan veriler, sadece 11 günlük kısa bir periyotta Grok kullanılarak milyonlarca şüpheli görselin üretildiğini gösteriyor. Bu havuzun içinde rızasız deepfake içerikleri, sahte haber görselleri ve daha da endişe vericisi, çocuk güvenliğini tehdit edebilecek materyallerin bulunduğu iddia ediliyor.

Platform yönetimi, teknolojik önlemlerin sürekli güncellendiğini ve filtrelerin sıkılaştırıldığını savunsa da, bir "kedi-fare" oyununa dönen bu süreçte saldırganların (veya kötü niyetli kullanıcıların) her zaman bir adım önde olduğu görülüyor. Mevcut filtrelerin basit kelime oyunlarıyla veya dolaylı betimlemelerle aşılabilmesi, yapay zeka denetim mekanizmalarının henüz olgunlaşmadığını kanıtlıyor.

Sonuç: Etik Sorumluluğun Cinsiyeti Olmaz

Grok örneği, yapay zeka geliştiricilerinin sadece "teknik kapasiteye" değil, aynı zamanda "sosyolojik etkilere" de odaklanması gerektiğini hatırlatıyor. Rızasız içerik üretimi, mağdurun cinsiyetinden bağımsız olarak bir dijital şiddet türüdür.

Erkeklere yönelik koruma kalkanlarının zayıf bırakılması, sadece bireysel mağduriyetlere yol açmakla kalmaz, aynı zamanda yapay zekanın "tarafsızlık" ilkesine de gölge düşürür. Geleceğin internetini inşa ederken, güvenlik standartlarının herkes için eşit ve kapsayıcı olması bir tercih değil, zorunluluktur.

Makale Bilgileri

Yazar: İsmail Hakkı EREN
İlgili Yazılar