ChatGPT Terapide: Etik Tehlikeler Açığa Çıkıyor

Ev LLM ChatGPT Terapide: Etik Tehlikeler Açığa Çıkıyor
etik

Brown Üniversitesi araştırması, ChatGPT ve benzeri LLM’lerin terapi rolünde sık sık etik ihlallerine yol açtığını gösteriyor; araştırma, bu risklerin özellikle kriz yönetimi, önyargı ve yanıltıcı empati alanlarında ortaya çıktığını vurguluyor.

Brown Üniversitesi’nden araştırmacılar, ChatGPT ve benzeri büyük dil modellerinin (LLM) terapi benzeri sohbetlerde profesyonel etik standartları düzenli olarak ihlal ettiğini buldu. Araştırmada, modeller OpenAI’nin GPT serisi, Anthropic’in Claude’u ve Meta’nın Llama’sı gibi sistemler; deneyler ise eğitimli akran danışmanlarıyla yapılan simüle oturumlar üzerinden değerlendirildi. Uzman psikologların incelemesi sonucunda 15 ayrı etik risk tespit edildi.

Etik açıkları ve 15 risk

Araştırmacılar tespit ettikleri riskleri beş ana başlık altında topladı: bağlama uyum eksikliği (kişiye özgü geçmişin göz ardı edilmesi), zayıf terapötik iş birliği (konuşmayı tek taraflı yönlendirme, zararlı inançları pekiştirme), yanıltıcı empati (“Seni anlıyorum” gibi ifadelerin gerçek anlayış izlenimi vermesi), haksız ayrımcılık (cinsiyet, kültür veya din temelli önyargılar) ve güvenlik/crisis yönetimi eksiklikleri (duyarlılık göstermeme, uygun yardım yönlendirmemek, intihar gibi krizlere yetersiz yanıt).

Araştırma ayrıca “prompt”—yani modele verilen yönlendirici talimat—stratejilerinin tek başına bu sorunları çözmediğini gösteriyor. Bilim insanları, terapiye özgü talimatlar verildiğinde bile LLM’lerin öğrendikleri dilsel kalıplar üzerinden terapötik yaklaşımları taklit ettiğini; fakat gerçek bir insan terapistin sahip olduğu bağlamsal yargı, etik içgörü ve hesap verebilirliğe ulaşamadığını belirtiyor.

Yazarlar, AI destekli danışmanlık araçlarının erişimi genişletebilme potansiyeline dikkat çekerken, şu an için güçlü düzenleyici çerçeveler, denetim mekanizmaları ve kullanıcıları koruyacak güvenlik önlemleri olmadan bu sistemlere yüksek riskli görevler yüklenmemesi gerektiğini savunuyor. Çalışma, AI araçlarının ruh sağlığı uygulamalarında kullanılmadan önce kapsamlı, insan uzmanlı değerlendirmelerine tabi tutulmasını öneriyor.

Kaynaklar ve Bağlantılar:

Bir Cevap Bırakın

E-posta adresiniz yayınlanmayacaktır.