
Yapay zeka uzmanı, eğitim teknoloğu ve teknoloji danışmanı Doç. Dr. Agah Tuğrul Korucu, yaptığı açıklamada, medikal yapay zekanın sunduğu büyük potansiyelin, ancak güçlü bir etik ve yönetişim çerçevesiyle güvenli şekilde hayata geçirilebileceğini belirtti. Korucu, sağlıkta yapay zeka için “bias” yani veri ön yargısının, teorik bir risk değil, doğrudan hasta güvenliğini ilgilendiren pratik bir soruna karşılık geldiğini söyledi.
Modelin öğrendiği dünyanın, eğitildiği verinin temsil ettiği dünya olduğunu vurgulayan Korucu, belirli yaş gruplarının, sosyoekonomik kesimlerin ya da coğrafi bölgelerin eksik temsil edilmesi durumunda hataların sistematik şekilde üretilebileceğine dikkati çekti. Ulusal ölçekte toplanan e-Nabız verilerinin, Türkiye için önemli bir stratejik avantaj sunduğunu aktaran Korucu, bu potansiyelin doğru işlenmediğinde risk doğurabileceğini dile getirdi.
Veri kalitesi ve mahremiyet en kritik başlıklar
Günümüzde medikal yapay zekada başlıca handikaplar veri kalitesi, seçilim ön yargısı, etiket yanlılığı ve mahremiyet riskleri olarak sıralanıyor.
Agah Tuğrul Korucu, eksik ya da hatalı kodlanmış verilerin modeli yanıltabileceğini, farklı hastanelerdeki kayıt alışkanlıkları ve cihaz farklılıklarının “gürültü” oluşturabildiğini vurguladı. Korucu, bu nedenle ortak veri modeli, terminoloji uyumu ve kurum bazlı kalite metriklerinin şart olduğunu ifade etti.
Mahremiyet boyutunun ise en az teknik doğruluk kadar önemli olduğunu dile getiren Korucu, sağlık verilerinin özel nitelikli veri kapsamında olduğunu ve yetkisiz erişim riskinin hem etik hem de hukuki sonuçlar doğurabileceğini aktardı. Korucu, anonimleştirme, güvenli analiz ortamları ve erişim denetim mekanizmalarının zorunluluk taşıdığını kaydetti.
Korucu, “Sağlıkta yapay zeka için veri ön yargısı teorik bir risk değil, doğrudan hasta güvenliğini ilgilendiren pratik bir sorundur. Model, hangi verilerle eğitildiyse dünyayı o çerçevede öğrenir, eksik ya da dengesiz temsil edilen gruplarda hata ihtimali artar.” değerlendirmesinde bulundu.
Kaynak: AA