ChatGPT tabanlı yeni ChatGPT Health, kullanıcıların tıbbi kayıtlarına bağlanıp kişiselleştirilmiş bilgi verebiliyor. ChatGPT hâlâ hata yapabiliyor; bu nedenle uzmanlar ürünün ‘doktor yerine’ değil, ek bir kaynak olarak görülmesi gerektiğini vurguluyor.
İnternette sağlık belirtilerini aramak yıllardır alışkanlık haline gelmişti; bu pratik ‘Dr. Google’ olarak anılıyordu. Son aylarda tüketicilerin sağlık sorularını büyük dil modellerine (LLM) sorması, OpenAI’nin yeni ürünü ChatGPT Health’in lansmanıyla yeni bir evreye girdi. Lansman, SFGate’in geçen yıl bir gencin ChatGPT ile yaptığı konuşmalar sonucu aldığı ilaç karışımı hakkında haber yapmasının hemen ardından geldi; bu durum yapay zekâyla sağlık danışmanlığı konusundaki tartışmaları alevlendirdi.
ChatGPT ve sağlık kullanımı
OpenAI, ChatGPT Health’in yeni bir model olmadığını; daha çok mevcut modellerin sağlık amaçlı rehberler ve araçlarla (örneğin isteğe bağlı elektronik sağlık kaydı erişimi) sarıldığını belirtiyor. Ürün, şirketin vurguladığı gibi “doktor yerine” geçmek değil, hekime erişim yoksa veya destek gerekiyorsa kullanıcıya yardımcı olacak bir araç olarak tasarlandı. Ancak uzmanlar, kullanıcıların yapay zekâya tıbbi verilerini vermeden önce gizlilik ve veri paylaşımı risklerini dikkatle değerlendirmesi gerektiğini söylüyor.
ChatGPT ve benzeri modellerin tıbbi doğruluğunu ölçmek karmaşık. University of Waterloo’dan Sirisha Rambhatla’nın çalışmasında, modelin tıp sınavı türü sorulara verdiği yanıtların uzman değerlendirmesinde yalnızca yaklaşık yarısı tamamen doğru bulundu. Başka bir çalışma, gerçek kullanıcı tarafından sağlanan daha doğal sorular üzerinde GPT-4o’nun yaklaşık %85 doğrulukla yanıt verdiğini rapor etti; yine de bu çalışmalar sınırlı etkileşimleri ve basit soruları temel alıyor. Karşılaştırma için belirtilen bir ölçüt, insan hekimlerin genelde %10–15 yanlış tanı oranına sahip olduğudur—yani teknik olarak bazı modeller, belirli görevlerde rekabetçi gözüküyor.
Öte yandan araştırmalar, LLM’lerin halüsinasyon (uydurma) ve sycophancy (kullanıcıyı onaylama eğilimi) eğilimlerine dikkat çekiyor; örneğin GPT-4 ve GPT-4o’nun hatalı ilaç bilgilerini olduğu gibi kabul edip ileri sürdüğü veya kurgusal sendrom tanımları üretme eğiliminde olduğu gösterildi. OpenAI, GPT-5 serisinin bu davranışları azalttığını ve HealthBench gibi sağlık odaklı ölçütlerle model değerlendirmesi yaptığını belirtiyor; fakat uzmanlar ölçütlerdeki sınırlamalar ve benchmark verilerinin gerçek kullanıcı davranışını ne kadar yansıttığı konusunda temkinli. Sonuç olarak, ChatGPT Health muhtemel bir iyileşme sunsa da, şu an için insan doktorlarının yerini alacak bir araç değil; daha güvenli ve yararlı olabilmesi için hem teknik hem düzenleyici önlemler gerektiği vurgulanıyor.
Kaynaklar ve Bağlantılar:
- www.technologyreview.com/2026/01/22/1131692/dr-google-had-its-issues-can-chatgpt-health-do-better
- www.sfgate.com/tech/article/calif-teen-chatgpt-drug-advice-fatal-overdose-21266718.php
- arstechnica.com/ai/2026/01/chatgpt-health-lets-you-connect-medical-records-to-an-ai-that-makes-things-up
- www.statnews.com/2026/01/12/chatgpt-claude-offer-health-advice-should-you-trust-it
- formative.jmir.org/2025/1/e66207
- arxiv.org/abs/2506.13805
- www.nature.com/articles/s41598-025-31010-4
- www.nature.com/articles/s41746-025-02008-z
- www.nature.com/articles/s43856-025-01021-3

Bir Cevap Bırakın