將醫療信息給聊天機器人或導致不良後果
- 公司宣稱,許多用戶將這類聊天機器人視為「合作夥伴」,幫助導航保險事宜、管理文件工作並成為自己的更好倡導者。
- 將個人醫療信息提供給聊天機器人可能引發嚴重問題,尤其是當您考慮到這些工具目前的法律地位與監管環境。
- 根據最新數據顯示,每周有超過 2.
- 3 億人次向 ChatGPT 這樣的基於 OpenAI 平台提出健康相關查詢。
將個人醫療信息提供給聊天機器人可能引發嚴重問題,尤其是當您考慮到這些工具目前的法律地位與監管環境。根據最新數據顯示,每周有超過 2.3 億人次向 ChatGPT 這樣的基於 OpenAI 平台提出健康相關查詢。公司宣稱,許多用戶將這類聊天機器人視為「合作夥伴」,幫助導航保險事宜、管理文件工作並成為自己的更好倡導者。然而,交換條件是這些機器人需掌握詳細的個人醫療信息,包括診斷結果、藥物使用情況和測試報告等。

儘管如此,與傳統醫療提供者不同,科技公司並不承擔相同的責任和義務。專家警告稱,在提交私人健康記錄之前應三思。健康領域正成為人工智能研究的重要戰場,也對公眾是否願意接受這些系統融入日常生活進行了關鍵檢驗。本月,OpenAI 推出了一個專門針對健康問題的新版 ChatGPT Health 選項卡,允許用戶在更安全的環境下獲得健康相關建議。
儘管 OpenAI 承諾保密用戶信息,並採取措施確保數據安全,但實際保護措施卻存在諸多疑慮。例如,在使用條款和隱私政策中,公司並未提供足夠的保證。伊利諾伊大學法學院教授 Sara Gerke 表示:「數據保護在很大程度上依賴於公司在隱私政策中的承諾。」儘管 OpenAI 聲稱其健康信息將被加密且不會用於訓練模型,但這些保證並不意味著絕對的安全。
此外,醫學是一個高度監管的領域。聊天機器人錯誤傳播健康信息的例子屢見不鮮,例如一位男性在詢問如何去除食物中鹽分時收到建議使用溴化鈉——一種過去用作鎮靜劑的物質。這類例子凸顯了技術在醫療領域的潛在風險。
儘管 OpenAI 強調其消費者工具僅用於輔助醫生而非替代診斷和治療,但該公司的健康功能卻引發了監管機構的關注。OpenAI 聲稱 ChatGPT Health 並非醫療設備,從而避免了嚴格監管。然而,這引起了關於這些設備是否應歸類為醫療設備以及它們是否受到類似監管的合理質疑。
總體而言,在將個人醫療信息提供給聊天機器人時需謹慎行事。雖然這可能是未來醫療保健發展的一個重要方向,但在當前階段,確保個人信息安全和隱私依然面臨諸多挑戰。





.jpeg)
