ChatGPT 對近 74% 的醫學問題給出了錯誤的答案
儘管 ChatGPT 迅速崛起,成為近期最廣為人知的科技創新之一,但它也引起了不少爭議,其中大多與其提供錯誤訊息的傾向有關。事實證明,長島大學進行的一項研究顯示,在涉及藥物問題時,該 ChatGPT 提供錯誤的回答率高得驚人。
這個大型語言模型聊天機器人收到了 39 個關於各種藥物及其適當使用方式的問題。但是在這些說明中, ChatGPT 在這些問題中約 74%(準確地說 是29 個)問題中,提供了錯誤的答案或完全忽略了問題。
當 ChatGPT 被要求為其提供的資訊給出引用來源或參考文獻時,它只能在 39 個問題中的大約 8 個問題中做到這一點。這種趨勢令人擔憂,因為這會向沒有戒心的消費者提供藥物的錯誤訊息,而且這些訊息在大多數情況下很可能根本完全沒有來源,是 ChatGPT 自己亂寫的。
例如,當被問及 Paxlovid(用於治療 Covid-19 的抗病毒藥物)與一種名為 verapamil 的血壓藥物之間潛在的有害相互作用時,聊天機器人聲稱沒有這種相互作用。儘管事實如此,這兩種藥物的聯合使用可能導致 verapamil 降低血壓的效果加劇。
但要特別說明的是,OpenAI 自己就不建議使用者將 ChatGPT 用於醫療目的,而且聊天機器人本身在提供任何使用者請求的答案之前,都會迅速表示它不是醫生。
然而,許多消費者可能沒有意識到他們獲得的數據不會那麼準確,如果他們根據 ChatGPT 錯誤的指示行事,可能導致的危險有可能造成廣泛的傷害。教育消費者以便他們更好地理解所涉及的陷阱至關重要。
加入電腦王Facebook粉絲團