Site icon TechInside

Tıbbi yanlış bilgiler yapay zeka için tehlikeli oluyor

Tıbbi yanlış bilgiler yapay zeka

Yeni bir araştırmaya göre, yapay zeka araçları yanlış bilgiler yazılımın yetkili bir kaynak olarak kabul ettiği kaynaklardan geldiğinde, yanlış tıbbi tavsiye verme olasılığı daha yüksek. The Lancet Digital Health dergisinde yayınlanan araştırmada, 20 açık kaynaklı ve tescilli büyük dil modelinin testlerinde, yazılımın sosyal medya konuşmalarındaki hatalardan ziyade gerçekçi görünen doktor taburcu notlarındaki hatalar tarafından daha sık kandırıldığı bildirildi.

Tıbbi yanlış bilgiler yapay zeka ile endişelere neden oluyor

New York’taki Mount Sinai’deki Icahn Tıp Okulu’ndan, çalışmanın eş liderliğini yapan Dr. Eyal Klang, yaptığı açıklamada: “Mevcut yapay zeka sistemleri, açıkça yanlış olsa bile, kendinden emin tıbbi dili varsayılan olarak doğru kabul edebiliyor. Bu modeller için önemli olan, bir iddianın doğru olup olmamasından ziyade nasıl yazıldığıdır” dedi.

Yapay zekanın doğruluğu, tıpta özel zorluklar yaratıyor. Giderek artan sayıda mobil uygulama, hastaların tıbbi şikayetlerine yardımcı olmak için yapay zeka kullandığını iddia ediyor, ancak teşhis koymaları beklenmiyor; doktorlar ise tıbbi transkripsiyondan ameliyata kadar her şey için yapay zeka destekli sistemler kullanıyor.

Klang ve meslektaşları, yapay zeka araçlarını üç tür içeriğe maruz bıraktı: içine tek bir uydurma öneri eklenmiş gerçek hastane taburcu özetleri; sosyal medya platformu Reddit’ten toplanan yaygın sağlık efsaneleri; ve doktorlar tarafından yazılmış 300 kısa klinik senaryo. Araştırmacılar, içerikle ilgili kullanıcılardan gelen sorular ve talimatlardan oluşan 1 milyondan fazla isteme verilen yanıtları analiz ettikten sonra, yapay zeka modellerinin genel olarak içeriğin yaklaşık %32’sinden uydurma bilgilere “inandığını” buldu.  Ancak Mount Sinai Sağlık Sistemi’nin baş yapay zeka sorumlusu Dr. Girish Nadkarni’nin verdiği demeçte, yanlış bilginin bir sağlık hizmeti sağlayıcısından gelen gerçek bir hastane notuna benzeyen bir şeyden kaynaklanması durumunda, yapay zeka araçlarının buna inanma ve iletme olasılığının %32’den neredeyse %47’ye yükseldiğini söyledi.

Exit mobile version