Nowe badanie wykazało, że popularne chatboty AI odpowiadające na pytania dotyczące chirurgii medycznej generują fałszywe odniesienia do nieistniejących źródeł, zwanym zjawiskiem “halucynacji”, które występują od zera do ponad jednej trzeciej w zależności od platformy, co podważa wiarygodność informacji i wymaga ostrożności w ich wykorzystaniu. Zidentyfikowano znaczące różnice między narzędziami, przy czym niektóre modele okazały się niezawodne, a inne produkowały dużą liczbę spreparowanych cytatów, często naśladujących autentyczne publikacje naukowe.
Źródło: Medscape
Kategoria: Sztuczna Inteligencja
Ważność: ⭐⭐⭐⭐⭐⭐⭐ (7/10)