ABD kurumlarının ve medya kuruluşlarının yapay zekâyla üretilmiş içerikleri etiketleme çabaları sürüyor; fakat yeni olaylar ve araştırmalar, tek başına “doğruluk” etiketinin izleyicinin duygusal tepkisini veya güveni geri getirmediğini gösteriyor.
ABD İç Güvenlik Bakanlığı’nın (Department of Homeland Security) Google ve Adobe yapay zekâ araçlarıyla üretilmiş videolar kullandığının doğrulanması, haber dünyasında yeni bir tartışmayı yeniden alevlendirdi. Bu haber, hükümetlerin artık hem bilgi yaymak hem de kamuoyu etkilemek için üretim araçlarına ödeme yaptığını gösteriyor; aynı zamanda bazı içeriğin manipüle edildiği iddiaları da kamuoyunun gündeminde kaldı.
Okuyucu tepkileri ikiye ayrıldı: Bazıları hükümetin bu tür araçları kullanmasına şaşırmadı; başka bir grup ise medyanın da benzer hata ve manipülasyonlarla gündeme geldiğini öne sürerek eleştiride bulundu. Örneğin White House tarafından paylaşılan bir tutuklama fotoğrafının dijital olarak değiştirildiğine dair tartışma ve MS Now (eski adıyla MSNBC) tarafından yayılan, daha sonra düzenlendiği anlaşılan Alex Pretti fotoğrafı gibi vakalar, farklı aktörlerin sorumluluk ve şeffaflık düzeyleri konusunda net ayrımlar yapılması gerektiğini gösteriyor.
Doğruluk ve etiketlerin sınırı
İçerik kimliğini ve kaynağını belirtmeyi amaçlayan Content Authenticity Initiative gibi girişimler bir adım olmakla birlikte uygulamada sınırlamalar ortaya çıkıyor: bazı etiketler yalnızca tamamen yapay üretilen içerilerde uygulanıyor, platformlar ise etiketlerin gösterilmesini engelleyebiliyor ya da kullanıcı tarafından eklenen notlarla anlatıyı değiştiriyor. Adobe’nin inisiyatifine ve başvurulan platformlara dair uygulama boşlukları, doğrulamanın tek başına yeterli olmadığını gösteriyor.
Ayrıca akademik araştırmalar da uyarıyor: Communications Psychology dergisinde yayımlanan bir çalışma, derin sahte (deepfake) içeriklerin, izleyiciler açıkça içeriğin sahte olduğu bilgisine sahip olsa bile algıyı ve duygu durumunu etkileyebildiğini tespit etti. Bu bulgu, yalnızca gerçeği tespit etmeye odaklanan teknik çözümlerin sosyal güven kaybını tersine çevirmede sınırlı kalabileceğini işaret ediyor.
Sonuç olarak, yapay zekâ kaynaklı manipülasyonla mücadele —etiketleme ve doğrulama araçları kadar— kamu iletişimi, medya okuryazarlığı ve düzenleyici politikaların koordinasyonunu da gerektiriyor. Şeffaflık önemli ama tek başına kurtarıcı değil; kamu güvenini korumak için daha geniş bir stratejiye ihtiyaç olduğu giderek daha açık.
Kaynaklar ve Bağlantılar:
- www.technologyreview.com/2026/01/29/1131938/dhs-is-using-google-and-adobe-ai-to-make-videos
- www.theguardian.com/us-news/2026/jan/22/white-house-ice-protest-arrest-altered-image
- x.com/Kaelan47/status/2014410500096856358?s=20
- x.com/WhiteHouse/status/2014365986388951194/photo/1
- www.snopes.com/fact-check/alex-pretti-photo-ai-msnbc
- www.nature.com/articles/s44271-025-00381-9
- blog.adobe.com/en/publish/2024/09/18/authenticity-age-ai-growing-content-credentials-momentum-across-social-media-platforms-ai-companies-rising-consumer-awareness
- perma.cc/JB3J-57QN

Bir Cevap Bırakın