Yapay Zekâ Modeli R1-0528: Güçlü Performans ve Tartışmalı Sansür
Önceki model R1’in güncellenmiş versiyonu olan R1-0528, kodlama, matematik ve genel bilgi testlerinde yüksek puanlar alarak OpenAI’nin o3 modeline yaklaşmayı başardı.
Ancak güçlü performansının yanı sıra, modelin siyasi içeriklere verdiği yanıtlar tartışma konusu oldu. “xlr8harder” kullanıcı adını kullanan bir geliştiriciye göre, R1-0528 özellikle Çin hükümetinin hassas kabul ettiği konulara yönelik sorularda önceki versiyonlara kıyasla daha katı bir sansür uyguluyor. Bu durum, geliştiriciye göre “şimdiye kadarki en sansürlü DeepSeek modeli” olmasına neden oluyor.
Çin’de Yapay Zekâya Yönelik Yasal Kısıtlamalar
Techcrunch’un haberine göre, Çin’de geliştirilen yapay zekâ modellerinin devletin tarihsel ve politik anlatılarına aykırı içerik üretmesi yasalarla engelleniyor. 2023 yılında yürürlüğe giren bir yasa, modellerin “ülke birliğine ve toplumsal uyuma zarar verecek içerikler” üretmesini yasaklıyor. Bu nedenle Çinli şirketler, modellerini ya önleyici filtrelerle ya da ince ayarlamalarla sansürlemeye çalışıyor.
Örneğin, önceki R1 modeli politik açıdan hassas kabul edilen konularla ilgili soruların %85’ine yanıt vermemeyi tercih ederken, yeni R1-0528 daha da ileri bir yaklaşım sergiliyor.
Sincan Kampları da Sansür Nedeni
“xlr8harder”’ın testlerine göre, R1-0528 Sincan bölgesindeki kamplar gibi konulara dair soruları genellikle yanıtsız bırakıyor. Ara sıra Çin hükümetinin insan hakları siciline eleştirel yaklaşsa da, modelin çoğu zaman Çin’in resmî duruşunu benimsediği görülüyor. Model, bir örnekte Sincan kamplarını insan hakları ihlali olarak belirtse de, genellikle devlet çizgisinde kalıyor.
Yeni DeepSeek modeli, teknik açıdan gösterdiği başarıyla dikkat çekerken, içerik üretimindeki sınırlamalar Çin menşeli yapay zekâların ifade özgürlüğü ve tarafsızlık konularında ne kadar ileri gidebileceğine dair soru işaretlerini artırıyor.