Så ofta svarar ChatGPT fel om läkemedel
Det går inte att lita på svaren från ChatGPT när det gäller frågor om läkemedel, enligt en ny studie från ett forskarteam i USA.
Det är apotekare vid Long Island University (LUI) i USA som har ställt frågor om läkemedel till gratisversionen av chattboten ChatGPT och fått fel eller ofullständiga svar.
Enligt studien svarade chattboten bara “tillfredsställande” 10 av 39 gånger, vilket betyder att 29 gånger var svaren felaktiga, ofullständiga eller inte direkt relaterade till den ställda frågan, rapporterar CNBC, vilket också Dagens PS skrivit om.
Undersökningen gjordes i maj i år och forskarna använde sig av riktiga frågor som ställts till universitetets College of Pharmacys läkemedelsinformation från januari 2022 till april i år.
— Sjukvårdspersonal och patienter bör vara försiktiga med att använda ChatGPT som en auktoritativ källa för läkemedelsinformation, säger Sara Grossman, docent i farmakologi vid LUI och studiens huvudförfattare till CNBC.
I oktober i år använde cirka 1,7 miljarder människor chattboten, det finns dock inga uppgifter om hur många av användarna som ställer medicinska frågor.
Bolaget bakom ChatGPT, OpenAI, menar att de vägleder chattboten så att den informerar användaren om att inte använda svaren som substitut för traditionell vård eller professionell medicinsk rådgivning.
Gratisversionen är också begränsad till att använda datamängder till och med september 2021, vilket gör att den kan sakna viktig medicinsk information.