Chatboty AI zróżnicowane pod względem fałszywych odniesień medycznych

Badanie Medscape: chatboty AI generują fałszywe odniesienia medyczne. Różnice między platformami, potrzeba ostrożności.

Nowe badanie wykazało, że popularne chatboty AI odpowiadające na pytania dotyczące chirurgii medycznej generują fałszywe odniesienia do nieistniejących źródeł, zwanym zjawiskiem “halucynacji”, które występują od zera do ponad jednej trzeciej w zależności od platformy, co podważa wiarygodność informacji i wymaga ostrożności w ich wykorzystaniu. Zidentyfikowano znaczące różnice między narzędziami, przy czym niektóre modele okazały się niezawodne, a inne produkowały dużą liczbę spreparowanych cytatów, często naśladujących autentyczne publikacje naukowe.

Źródło: Medscape
Kategoria: Sztuczna Inteligencja
Ważność: ⭐⭐⭐⭐⭐⭐⭐ (7/10)