DSÖ: Yapay Zeka sistemlerinin tam test yapılmadan çok hızlı bir şekilde benimsenmesi ‘sağlık çalışanlarının hataları’na yol açabilir

poem

New member
olarak yapay zeka hiç yavaşlama belirtisi olmadan tren varillerini çalıştırıyor — hatta bazı araştırmalar yapay zekanın bugünden 2030’a kadar her yıl %37’den fazla büyüyeceğini tahmin ediyor — Dünya Sağlık Örgütü (WHO) “güvenli ve etik yapay zeka için sağlık.”

Ajans, “insan refahını, insan güvenliğini ve özerkliğini korumak ve geliştirmek ve halk sağlığını korumak için yapay zeka tarafından oluşturulan büyük dil modeli araçları (LLM’ler)” kullanırken dikkatli olunmasını tavsiye etti.

ChatGPTBard ve Bert şu anda en popüler LLM’lerden bazılarıdır.

Bazı durumlarda, sohbet robotlarının tıbbi sorulara verdikleri yanıtların kalitesi açısından gerçek doktorlara rakip olduğu görülmüştür.

KÖR ÇALIŞMADA CHATGPT’NİN GERÇEK DOKTORLARDAN DAHA İYİ TIBBİ TAVSİYE VERDİĞİ BULUNDU: ‘BU OYUN DEĞİŞTİRİCİ OLACAK’

DSÖ, bu sohbet robotlarını sağlıkla ilgili ihtiyaçlar için kullanma potansiyeline ilişkin “önemli bir heyecan” olduğunu kabul etse de, kuruluş risklerin dikkatli bir şekilde tartılması gerektiğinin altını çiziyor.

“Bu, şeffaflık, kapsayıcılık, halkın katılımı, uzman denetimi ve titiz değerlendirme gibi temel değerlere yaygın bağlılığı içerir.”



Dünya Sağlık Örgütü (WHO), “sağlık için güvenli ve etik yapay zeka” çağrısında bulunan bir danışma belgesi yayınladı. (iStock)


Ajans, AI sistemlerini kapsamlı testler yapılmadan çok hızlı bir şekilde benimsemenin “sağlık çalışanlarının hataları” ile sonuçlanabileceği ve “hastalara zarar verebileceği” konusunda uyardı.

DSÖ belirli endişeleri sıralıyor


WHO, danışma belgesinde, ChatGPT gibi LLM’lerin, potansiyel olarak “sağlık eşitliği ve kapsayıcılık için risk oluşturabilecek yanıltıcı veya yanlış bilgiler üreterek” önyargılı veriler üzerinde eğitilebileceği konusunda uyardı.

“Dikkatli olmak, hasta güvenliği ve mahremiyeti için çok önemlidir.”
Ajans, bu AI modellerinin sağlık sorularına yanlış yanıtlar verirken yine de kendinden emin ve otoriter görünme riskinin olduğunu söyledi.

CHATGPT, ÖĞÜN PLANLAMASI VE GIDA ALERJİLERİ: UZMANLARIN SESLİ UYARILARI OLARAK ‘ROBO DİYET’ GÜVENLİĞİNİ ÖLÇÜLEN ÇALIŞMA

DSÖ, “LLM’ler, halkın güvenilir sağlık içeriğinden ayırt etmesinin zor olduğu, metin, ses veya video içeriği biçiminde son derece ikna edici dezenformasyon oluşturmak ve yaymak için kötüye kullanılabilir.”


hasta kadın mesaj atıyor


Ajans, yapay zeka modellerinin sağlıkla ilgili sorulara yanlış yanıtlar verme riskinin bulunduğunu ve yine de kendinden emin ve yetkili göründüğünü söyledi. (iStock)


Başka bir endişe de, LLM’lerin, verileri ilk sağlayanların rızası olmadan veriler konusunda eğitilmiş olabileceği ve hastaların tavsiye ararken girdiği hassas veriler için uygun korumalara sahip olmayabileceğidir.

“LLM’ler, doğru ve kesin görünen ancak tamamen hatalı olabilecek veriler üretir.”
Örgüt, “İnsan sağlığını iyileştirmek için AI ve dijital sağlık dahil olmak üzere yeni teknolojilerden yararlanmaya kararlı olmakla birlikte, teknoloji firmaları LLM’leri ticarileştirmek için çalışırken politika yapıcıların hasta güvenliğini ve korunmasını sağlamasını tavsiye ediyor.”

AI uzmanı riskleri ve faydaları tartar


CEO’su Manny Krakaris, San Francisco merkezli sağlık teknolojisi şirketi Augmedix, DSÖ’nün danışmanlığını desteklediğini söyledi.

Haberler Digital’e bir e-postada “Bu hızla gelişen bir konu ve dikkatli olmak hasta güvenliği ve mahremiyeti için çok önemlidir” dedi.

YENİ AI ARACI, DOKTORLARIN DOKÜMANTASYONU KOLAYLAŞTIRMASINA VE HASTALARA ODAKLANMASINA YARDIMCI OLUYOR

Augmedix, tıbbi dokümantasyon ve veri çözümleri üretmek için diğer teknolojilerle birlikte LLM’lerden yararlanır.

Krakaris, “Kalite güvencesi için uygun korkuluklar ve insan gözetimi ile kullanıldığında, LLM’ler büyük bir verimlilik sağlayabilir.” Dedi. “Örneğin, özetler sağlamak ve büyük miktarda veriyi hızlı bir şekilde düzene sokmak için kullanılabilirler.”


Büyük dil modelleri


Ajans, “insan refahını, insan güvenliğini ve özerkliğini korumak ve geliştirmek ve halk sağlığını korumak için yapay zeka tarafından oluşturulan büyük dil modeli araçları (LLM’ler)” kullanırken dikkatli olunmasını tavsiye etti. (iStock)


O vurgu yaptı bazı potansiyel risklerYine de.

Krakaris, “LLM’ler destekleyici bir araç olarak kullanılabilirken, doktorlar ve hastalar LLM’lere bağımsız bir çözüm olarak güvenemezler.” Dedi.

“LLM’ler, DSÖ’nün danışma belgesinde belirttiği gibi, doğru ve kesin görünen ancak tamamen hatalı olabilecek veriler üretir” diye devam etti. “Bunun, özellikle sağlık hizmetlerinde feci sonuçları olabilir.”

SAĞLIK BÜLTENİMİZE ÜYE OLMAK İÇİN TIKLAYINIZ

Krakaris, ortam tıbbi dokümantasyon hizmetlerini oluştururken, çıktının doğru ve alakalı olmasını sağlamaya yardımcı olmak için LLM’leri otomatik konuşma tanıma (ASR), doğal dil işleme (NLP) ve yapılandırılmış veri modelleriyle birleştirdiğini söyledi.

AI’nın ‘vaadi’ vardır, ancak dikkat ve test gerektirir


Krakaris, kullanımı için çok umut vaat ettiğini söyledi. sağlık hizmetlerinde yapay zekabu teknolojiler dikkatli kullanıldığı, uygun şekilde test edildiği ve insan katılımıyla yönlendirildiği sürece.

HABERLER SUNULDU

“Yapay zeka hiçbir zaman insanların yerini almayacak, ancak hizmet kalitesinden ödün verilmemesini sağlamak için uygun parametrelerle kullanıldığında verimlilik yaratabilir ve sonuç olarak bugün sağlık sektörünün başına bela olan klinisyen eksiklikleri ve tükenmişlik gibi en büyük sorunlardan bazılarını destekleyebilir. dedi.



Melissa Rudy, sağlık editörü ve Haberler Digital’de yaşam tarzı ekibinin bir üyesidir.