Çinli yapay zeka DeepSeek’in yenisi de sansürlü

Şirketin evvelki modeli R1’in güncellenmiş versiyonu olan bu yeni yapay zekâ, kodlama, matematik ve genel bilgi testlerinde epey yüksek puanlar alarak OpenAI’nin amiral gemisi modeli o3’ün düzeyine yaklaşmayı başardı.
Ancak bu güçlü performansın yanında, modelin siyasi içeriklere verdiği cevaplar da tartışma konusu oldu. “xlr8harder” kullanıcı ismini kullanan ve farklı yapay zekâ modellerini karşılaştıran geliştiriciye nazaran, R1-0528, bilhassa Çin hükümetinin hassas kabul ettiği hususlara yönelik sorularda evvelki versiyonlara kıyasla çok daha katı bir sansür uyguluyor. Geliştiriciye nazaran bu, “şimdiye kadarki en sansürlü DeepSeek modeli.”
ÇİN’DE YAPAY ZEKÂYA YASAL KISITLAMALAR
Techcrunch haberine nazaran Çin’de geliştirilen yapay zekâ modellerinin devletin tarihi ve politik anlatılarına ters içerik üretmesi maddelerle engelleniyor. 2023 yılında yürürlüğe giren bir yasa, modellerin “ülke birliğine ve toplumsal ahenge ziyan verecek içerikler” üretmesini yasaklıyor. Bu nedenle Çinli şirketler, modellerini ya önleyici filtrelerle ya da ince ayarlamalarla sansürlemeye yöneliyor.
Örneğin evvelki R1 modeli, politik açıdan hassas kabul edilen mevzularla ilgili soruların yüzde 85’ine cevap vermeyi reddediyordu. Yeni R1-0528 ise bu yaklaşımı daha da ileri taşıyor.
SİNCAN KAMPLARI DA SANSÜR SEBEBİ
“xlr8harder”’ın testlerine nazaran, R1-0528 Sincan bölgesindeki kamplar üzere bahislere dair soruları büyük ölçüde karşılıksız bırakıyor. Orta sıra Çin hükümetinin insan hakları siciline eleştirel yaklaşsa da, modelin birçok vakit Çin’in resmî duruşunu benimsediği görülüyor. Geliştiriciye nazaran model, bir örnekte Sincan kamplarını insan hakları ihlali olarak belirtmiş olsa da, direkt sorular karşısında ekseriyetle devlet çizgisinde kalıyor.
Yeni DeepSeek modeli, teknik açıdan gösterdiği muvaffakiyetle küresel arenada dikkat çekerken, içerik üretimindeki bu sınırlamalar, Çin menşeli yapay zekâların tabir özgürlüğü ve tarafsızlık bahislerinde ne kadar ileri gidebileceğine dair soru işaretlerini artırıyor.