Kurumsal ajanlar — yarı otonom yapay zekâ sistemleri — artık kullanıcı gibi ele alınmalı; kimlik, araç ve veri sınırları netleşmeden riskler büyür. Bu yazı, CEO’ların soracağı temel “ajan” sorularına yanıt verecek pratik adımları özetliyor.
Son dönemdeki güvenlik rehberleri ve düzenleyici tavsiyeler ortak bir noktada buluşuyor: agentic (ajan) sistemleri güçlü, yarı otonom kullanıcılar gibi görmek ve onları kimlik, araçlar, veri ile çıktı sınırlarında kontrol etmek gerekiyor. MIT Technology Review’de yayımlanan Protegrity tarafından hazırlanan kılavuz, işletmelerin panik yerine kanıtlanabilir teknik kontroller kurmasına odaklanan sekiz adımlık bir plan sunuyor.
Ajan kimliği ve yetkileri: Ajanları gerçek kullanıcı gibi ele almak
İlk adım, her ajanın belirsiz bir servis hesabı olarak değil, ayrı bir insan-dışı kimlik (non-human principal) olarak kaydedilmesi ve daraltılmış yetkilerle çalıştırılmasıdır. Bu, her ajanın hangi tenant (kiracı) altında çalıştığını, hangi rollere ve coğrafi sınırlara eriştiğini açıkça göstermeyi; yüksek etkili eylemler için insan onayı ve kayıtlı gerekçe gerektirmeyi içerir. Google’ın Secure AI Framework (SAIF) ve NIST’in erişim-kontrol rehberleri bu uygulamaları pratikte uygulamayı önerir.
Teknik savunma, araç zincirlerini tedarik zinciri gibi yönetmekten geçer: uzak araçların sürümlerini sabitlemek (pin), yeni araç veya veri kaynakları eklenirken onay istemek ve otomatik araç-ardışıklığını politika ile açıkça izin verilen durumlarla sınırlamaktır. OWASP’ın ajan uygulamaları rehberi, Anthropic vakasında görülen zafiyet türlerini ve nasıl engelleneceğini detaylandırır.
Veri ve çıktı kontrolü de kritik: dış kaynaklı içerikler (web sayfası, PDF, e-posta, depo vb.) önce düşmanca kabul edilmeli, sorguya veya kalıcı belleğe girmeden önce incelenmeli ve kaynak-provenans (kaynak kanıtı) eklenmelidir. Çıktıların doğrudan eyleme dönüşmesini engellemek için ajanla gerçek dünya arasına doğrulayıcı katmanlar konulmalı; ayrıca hassas veriler için çalışma zamanında tokenizasyon/detokenizasyon politikaları ve her açığa çıkarmanın kaydı bulunmalıdır. Bu tür önlemler, EU AI Act, GDPR ve sektörel düzenlemeler açısından da önemli gösterge işlevi görür.
Son iki adım, kontrollerin sürdürülebilirliğini sağlamaya yöneliktir: ajanları sürekli olarak kırmaya yönelik düzenli red‑team (kırmızı takım) testleri ve gözlemlenebilirlik ile loglama; ve ajan envanteri, yetki, onaylar ile yüksek etkili işlemlerin merkezi bir kaydını tutan bir yönetim katalogu. Bu sayede bir yönetim kurulu üyesi “bu ajan nasıl bu sonucu üretti?” diye sorduğunda, teknik zinciri yeniden inşa edebilecek kanıt sunulabilir. Özetle, ajanlar sihirli şekilde güvenli olmaz; ama onları güçlü kullanıcılar olarak gördüğünüzde bildiğiniz güvenlik çerçevelerine sokarak riski anlamlı biçimde azaltabilirsiniz.
Kaynaklar ve Bağlantılar:
- assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
- genai.owasp.org/resource/securing-agentic-applications-guide-1-0
- www.protegrity.com/blog/why-data-security-in-ai-isnt-add-on-built-into-every-component-pipeline
- arxiv.org/abs/2401.05566
- atlas.mitre.org

Bir Cevap Bırakın