Microsoft, AI ile üretilen ve değiştirilmiş içerikleri belgelemek için kapsamlı bir doğrulama standardı öneriyor. Şirketin çalışması, farklı tekniklerin (provenance, watermark, parmak izi) 60’ı aşkın kombinasyonunu test etti; ancak Microsoft uygulamayı tüm ürünlerine koymayı taahhüt etmedi.
Microsoft’un araştırma ekibi, yapay zekâ tarafından üretilen veya değiştirilmiş içeriğin kaynak ve bütünlüğünü göstermeye yönelik bir dizi teknik standardı değerlendirdi. Araştırma; görünmez watermark (görünmeyen damga), içerik kökenini (provenance) kaydeden manifestolar ve içerik üzerinde hesaplanan ‘parmak izi’ gibi yöntemleri çeşitli saldırı ve hataya açık senaryolarda sınadı. Ekip, yaklaşık 60 farklı kombinasyonun nasıl dayandığını modelledi ve hangilerinin güvenilir sonuç verdiğini belirledi.
doğrulama: amaç ne?
Ana hedef, platformların kullanıcılara içeriğin manipüle edilip edilmediğine dair şeffaf, makine tarafından okunabilir bilgiler sunabilmesi. Microsoft’un baş bilimsel sorumlusu Eric Horvitz, çalışmanın yasal düzenlemeler (ör. California AI Transparency Act) ve AI araçlarının hızla gelişmesi nedeniyle gündeme geldiğini söylüyor. Horvitz, önerilerin ürün yol haritalarını ve altyapıyı bilgilendirmek üzere hazırlandığını, fakat şirketin tüm servislerinde bunları hemen uygulamaya alacağına dair keskin bir taahhütte bulunmadığını belirtti.
Uzmanlardan Berkeley Üniversitesi’nden Hany Farid, önerinin uygulanması hâlinde yanıltıcı içeriklerin önemli bir kısmının engellenebileceğini söylüyor; yine de tam bir çözüm getirmeyeceğini vurguluyor. Ayrıca yapılan araştırmalar, insanların kimi zaman içeriğin yapay kaynaklı olduğunu bilseler bile yanlış olanı benimseyebildiklerini gösteriyor—dolayısıyla teknik doğrulama tek başına toplumsal inancı garanti edemiyor.
Teknik çözümler tek başına yeterli değil; düzenleyici zorlamalar ve platformların iş modelleri de belirleyici. Microsoft’un destek verdiği C2PA gibi standartlar var, Google gibi bazı oyuncular 2023’te üretilmiş içeriğe watermark eklemeye başladı. Ancak Indicator tarafından yapılan bir denetim, Instagram, LinkedIn, Pinterest, TikTok ve YouTube’daki test gönderilerin sadece yaklaşık %30’unun doğru şekilde etiketlendiğini ortaya koydu—yani pratikte etiketleme hâlâ tutarsız ve eksik. Öte yandan Avrupa Birliği’nin AI Act’i ve diğer ülke taslakları, şirketleri açıklama zorunluluğuna itebilir; fakat siyasi hamleler ve bazı yönetim politikaları uygulamayı zorlaştırabilir.
Microsoft’un raporu, hangi teknik kombinasyonların daha güvenilir sonuç verdiğini ortaya koysa da araştırmacılar ve düzenleyiciler, yanlış uygulamanın ya da hatalı etiketlemenin toplumda daha fazla güvensizlik yaratma riskine dikkat çekiyor. Bu nedenle zaman, teknoloji ve düzenlemenin birlikte, dikkatle kurgulanması gerektiği vurgulanıyor.
Kaynaklar ve Bağlantılar:
- www.washingtonpost.com/technology/2026/01/22/white-house-doctored-image
- www.openminds.ltd/reports/fake-videos-real-emotions-viewers-believe-ai-generated-content-even-when-its-labeled
- www.nature.com/articles/s44271-025-00381-9
- indicator.media/p/tech-platforms-fail-to-label-ai-content-c2pa-metadata
- www.technologyreview.com/2023/07/31/1076965/the-race-to-find-a-better-way-to-label-ai
- blogs.microsoft.com/on-the-issues/2021/02/22/deepfakes-disinformation-c2pa-origin-cai

Bir Cevap Bırakın