DOLAR
34,5424
EURO
36,0063
ALTIN
3.006,41
BIST
9.549,89
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Ankara
Karla Karışık Yağmurlu
2°C
Ankara
2°C
Karla Karışık Yağmurlu
Pazar Karla Karışık Yağmurlu
1°C
Pazartesi Çok Bulutlu
2°C
Salı Az Bulutlu
2°C
Çarşamba Az Bulutlu
3°C

DSÖden ChatGPT uyarısı: İnanmayın!

DSÖden yapılan yazılı açıklamada, yapay zekanın, hastalığın teşhisi gibi sağlık alanında kullanımının yaygınlaştığına işaret edildi.

DSÖden ChatGPT uyarısı: İnanmayın!
19.01.2024 12:00
0
A+
A-

Açıklamada, ChatGPT, Google Bard gibi Büyük Dil Modellerinin (LLM) yetersiz şartlara sahip ortamlarda hastalığın teşhisine yardımcı olmasının yanı sıra beraberinde riskler de barındırdığı için kullanımında dikkatli olunması gerektiği vurgulandı.

“TEST EDİLMEMİŞ SİSTEMLERİN HIZLA BENİMSENMESİ HATAYA YOL AÇABİLİR”

DSÖnün, sağlık çalışmalarına katkı sağlaması için LLM kullanılması konusunda “hevesli” olduğu vurgulanan açıklamada, ancak test edilmemiş sistemlerin hızla benimsenmesinin hataya yol açabileceği ve hastalara zarar verebileceği kaydedildi.

Açıklamada, LLMin tutarlı şekilde uygulanmadığına dair endişelerin bulunduğu ve bu uygulamanın yapay zekaya olan güveni de aşındırabileceği aktarıldı.

KÖTÜYE KULLANILABİLME İHTİMALİ VAR

Söz konusu teknolojilerin güvenli, etkili ve etik yollarla kullanılması için titizlik gerektiğine işaret edilen açıklamada, yapay zekanın beslenmesi için kullanılan verilerin yanıltıcı veya yanlış bilgiler üretebileceği konusunda uyarıda bulunarak inanmamaları gerektiğini söyledi.

Açıklamada, LLMnin, halk için güvenilir sağlık bilgilerinden ayırt edilmesi zor olan metin, ses veya video içeriği şeklinde oldukça ikna edici dezenformasyon üretmek ve yaymak için kötüye kullanılabileceği vurgulandı.

ETİKETLER:
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.