據《AI Magazine》報導,OpenAI 最新推出的 ChatGPT Health,被定位為一個整合空間,讓醫療資料、健康應用程式 (App) 洞察與健康對話能集中在同一個平台。
健康與保健早已是使用 ChatGPT 等 AI 聊天機器人最常見用途之一。事實上,根據 OpenAI,全球每周有超過 2.3 億使用者向 AI 詢問健康相關問題。
在此背景下,OpenAI 推出 ChatGPT Health 可謂水到渠成。這項新功能整合個人健康資訊與 AI 支援,並在既有的安全與隱私機制上,針對高度敏感的健康資料加入更多保護措施,同時維持良好的使用體驗與實用性。
OpenAI 強調,ChatGPT Health 並非用來取代專業醫療建議,而是作為輔助與醫療專業並行使用。該服務與醫師合作設計,提供加密、獨立的對話空間,讓使用者能連結來自醫療紀錄或健康 App 的個人資料。
這些功能可為日常健康疑問、飲食與健身計畫、檢驗結果解讀,甚至是保險選項的理解,提供更貼近情境的即時協助。
同時,OpenAI 的競爭對手 Anthropic 也剛推出 Claude for Healthcare,凸顯 AI 業者正加速搶進醫療科技領域。
以資料保護與醫師意見為核心設計
ChatGPT Health 延續 ChatGPT 的基本安全架構,包括資料儲存與傳輸的加密機制。由於醫療資訊的高度敏感性,系統額外加入專屬的加密技術與系統隔離層級。
OpenAI 強調,所有健康相關對話都不會用來訓練其基礎模型。
使用者可自行決定哪些資料被儲存或分享。平台提供暫時性對話、記憶刪除等選項,並透過多重要素驗證 (MFA) 進一步防範未授權存取。
至於第三方健康應用程式,所有能整合至 ChatGPT Health 的應用,都必須符合嚴格的安全與隱私標準,並通過額外的安全審查,只能收集最低必要的資料。使用者在連結過程中,會清楚得知每個 App 可存取的資料類型,並可隨時將其從個人設定中移除。
此產品本身也納入醫療專業意見。OpenAI 表示,過去兩年已與來自 60 個國家、超過 260 名醫師、涵蓋多項專科領域進行合作。
這些醫師使用自行開發的評分方法,已對模型回應進行超過 60 萬次審查,協助優化 AI 在回應問題時的語氣、緊急程度判斷,以及安全相關訊息的傳達方式。
ChatGPT Health 也採用名為 HealthBench 的測試系統,用以檢驗其回應是否符合臨床標準。評估重點包括回應是否清楚、是否在必要時建議升級照護,以及能否在不預設診斷的情況下,提供具情境意識的建議。
業界反應不一
英國 NHS 非執行董事、RPNA AI 長 Max Jones 表示,該平台「確實存在風險」,但認為民眾在面對健康決策時,必須慎重思考自身選擇。
他在 LinkedIn 上寫道,「權力不在臨床醫師、立法者或監管機構手中,而是在民眾面對健康不確定性時所做的選擇。他們要等待權威的人類醫療照護,還是尋求大型語言模型 (LLM) 提供即時建議?」
他認為,在 NHS 服務表現與公眾信心尚未恢復前,民眾可能會自行推動以 LLM 為基礎的初步分診,不論專業人士是否樂見。
AI 行銷平台 Azoma 創辦人暨執行長 Max Sinclair 表示,ChatGPT Health 的推出是代理型商務領域的「分水嶺時刻」。
他在 LinkedIn 上指出,「比起一位已經連續看診一整天、只剩 15 分鐘的疲憊家庭醫師,你可能會更信任這個。若將 ChatGPT 與人類進行診斷準確度比較研究,結果或許會證明這樣的做法是正確的。」
The Portfolio Collective 共同創辦人暨執行長 Ben Legg 談到,「我們正從把 AI 當成祕密的第二意見,轉向將其作為主要的初步分診工具。未來在你見到真人醫師之前,很可能先由 AI 代理檢視你的病史、分析穿戴式裝置數據,並為醫師整理症狀摘要。」
他指出,這樣的模式可大幅提升效率,甚至有機會迅速解決基層醫師門診壅塞的問題,但同時也將從根本上改變病患與醫師之間的關係。
ChatGPT Health 目前僅開放給部分免費、Go、Plus 與 Pro 方案用戶使用,且不包含歐洲經濟區、瑞士與英國。醫療紀錄與 App 整合功能目前僅在美國提供,而 Apple Health 的整合需使用 iOS 系統。
新聞來源 (不包括新聞圖片): 鉅亨網