WHO, yapay zekanın potansiyeli heyecan verse de sağlık bilgilerine erişimi geliştirmek, bir karar destek aracı olarak ve teşhis sonrası tedaviyi iyileştirmek için nasıl kullanılacağı konusunda endişeleri olduğunu bildirdi.;
WHO calls for safe and ethical AI for health
Dünya Sağlık Örgütü (WHO), insan refahını, insan güvenliğini ve özerkliğini korumak ve geliştirmek ve halk sağlığını korumak için yapay zeka (AI) tarafından üretilen büyük dil modeli araçlarının (LLM’ler) kullanılması konusunda dikkatli olunması çağrısında bulunuyor.
LLM’ler, ChatGPT, Bard, Bert gibi en hızlı büyüyen platformlardan bazılarını ve insan iletişimini anlamayı, işlemeyi ve üretmeyi taklit eden diğer birçok platformu içerir. Halk arasında hızla yayılması ve sağlıkla ilgili amaçlar için artan deneysel kullanımı, insanların sağlık ihtiyaçlarını destekleme potansiyeli konusunda önemli bir heyecan yaratıyor.
Bir karar destek aracı olarak sağlık bilgilerine erişimi iyileştirmek için veya hatta yetersiz kaynaklara sahip ortamlarda insanların sağlığını korumak ve eşitsizliği azaltmak için teşhis kapasitesini artırmak için LLM’leri kullanırken risklerin dikkatli bir şekilde incelenmesi zorunludur.
DSÖ, sağlık profesyonellerini, hastaları, araştırmacıları ve bilim adamlarını desteklemek için LLM’ler de dahil olmak üzere teknolojilerin uygun kullanımı konusunda hevesli olsa da, herhangi bir yeni teknoloji için normalde uygulanacak olan dikkatin LLM’lerle tutarlı bir şekilde uygulanmadığına dair endişeler vardır. Bu, şeffaflık, kapsayıcılık, halkın katılımı, uzman denetimi ve titiz değerlendirme gibi temel değerlere yaygın bağlılığı içerir.
Test edilmemiş sistemlerin hızla benimsenmesi, sağlık çalışanları tarafından hatalara yol açabilir, hastalara zarar verebilir, yapay zekaya olan güveni aşındırabilir ve böylece dünya çapında bu tür teknolojilerin potansiyel uzun vadeli faydalarını ve kullanımlarını baltalayabilir (veya geciktirebilir).
Teknolojilerin güvenli, etkili ve etik yollarla kullanılması için gereken titiz gözetim gerektiren endişeler şunları içerir:
- yapay zekayı eğitmek için kullanılan veriler taraflı olabilir ve sağlık, eşitlik ve kapsayıcılık açısından risk oluşturabilecek yanıltıcı veya yanlış bilgiler üretebilir;
- LLM’ler, bir son kullanıcı için yetkili ve makul görünebilen yanıtlar üretir; ancak bu cevaplar, özellikle sağlıkla ilgili cevaplar için tamamen yanlış olabilir veya ciddi hatalar içerebilir;
- LLM’ler, bu tür bir kullanım için önceden izin verilmemiş olabilecek veriler konusunda eğitilmiş olabilir ve LLM’ler, bir kullanıcının bir yanıt oluşturmak için bir uygulamaya sağladığı hassas verileri (sağlık verileri dahil) korumayabilir;
- LLM’ler, halkın güvenilir sağlık içeriğinden ayırt etmesi zor olan metin, ses veya video içeriği biçiminde son derece ikna edici dezenformasyon oluşturmak ve yaymak için kötüye kullanılabilir; Ve
- DSÖ, insan sağlığını iyileştirmek için yapay zeka ve dijital sağlık dahil olmak üzere yeni teknolojilerden yararlanmaya kararlıyken, teknoloji firmaları LLM’leri ticarileştirmek için çalışırken politika yapıcıların hasta güvenliğini ve korunmasını sağlamasını tavsiye ediyor.
DSÖ, bu endişelerin ele alınmasını ve rutin sağlık hizmetleri ve tıpta yaygın kullanımlarından önce – bireyler, bakım sağlayıcılar veya sağlık sistemi yöneticileri ve politika yapıcılar tarafından – net fayda kanıtlarının ölçülmesini önermektedir.
DSÖ, sağlık için yapay zekayı tasarlarken, geliştirirken ve dağıtırken sağlık için yapay zekanın etiği ve yönetişimi hakkındaki DSÖ kılavuzunda sıralandığı gibi etik ilkelerin ve uygun yönetişimin uygulanmasının önemini yineler . DSÖ tarafından belirlenen 6 temel ilke şunlardır: (1) özerkliği korumak; (2) insan refahını, insan güvenliğini ve kamu yararını teşvik etmek; (3) şeffaflığı, açıklanabilirliği ve anlaşılırlığı sağlamak; (4) sorumluluğu ve hesap verebilirliği teşvik etmek; (5) kapsayıcılığı ve eşitliği sağlamak; (6) duyarlı ve sürdürülebilir yapay zekayı teşvik edin.