İstanbul
Orta şiddetli yağmur
7°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
35,4667 %-0.05
36,5241 %-0.22
3.501.531 %2.297
3.071,15 0,58
Ara
MUHALIF GAZETECILIK BİLİM - TEKNOLOJİ DSÖ'den sağlık alanında 'yapay zeka' uyarısı

DSÖ'den sağlık alanında 'yapay zeka' uyarısı

DSÖ, sağlık alanında ChatGPT gibi uygulamaların kullanımında dikkatli olunması çağrısında bulundu.

Dünya Sağlık Örgütü (DSÖ), sağlık alanında ChatGPT gibi uygulamaların kullanımında dikkatli olunması çağrısı yaptı.

DSÖ'den yapılan yazılı açıklamada, yapay zekanın, hastalığın teşhisi gibi sağlık alanında kullanımının yaygınlaştığına işaret edildi.

Açıklamada, ChatGPT, Google Bard gibi Büyük Dil Modellerinin (LLM) yetersiz şartlara sahip ortamlarda hastalığın teşhisine yardımcı olmasının yanı sıra beraberinde riskler de barındırdığı için kullanımında dikkatli olunması gerektiği vurgulandı.

DSÖ'nün, sağlık çalışmalarına katkı sağlaması için LLM kullanılması konusunda "hevesli" olduğu vurgulanan açıklamada, ancak test edilmemiş sistemlerin hızla benimsenmesinin hataya yol açabileceği ve hastalara zarar verebileceği kaydedildi.

Açıklamada, LLM'in tutarlı şekilde uygulanmadığına dair endişelerin bulunduğu ve bu uygulamanın yapay zekaya olan güveni de aşındırabileceği aktarıldı.

Söz konusu teknolojilerin güvenli, etkili ve etik yollarla kullanılması için titizlik gerektiğine işaret edilen açıklamada, yapay zekanın beslenmesi için kullanılan verilerin yanıltıcı veya yanlış bilgiler üretebileceği konusunda uyarıda bulunuldu.

Açıklamada, LLM'nin, halk için güvenilir sağlık bilgilerinden ayırt edilmesi zor olan metin, ses veya video içeriği şeklinde oldukça ikna edici dezenformasyon üretmek ve yaymak için kötüye kullanılabileceği vurgulandı.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *