不讓 AI 變情感依賴!Google 針對 Gemini 推出心理健康與未成年安全更新

心理健康議題影響全球超過十億人口,儼然成為當代公共衛生的重大挑戰,隨著人工智慧技術逐漸融入大眾日常生活,如何確保 AI 工具在帶來便利之餘,也能對使用者的心理福祉產生正面影響,成為科技界亟待解決的課題;Google 近期公布了在心理健康領域的最新進展,透過旗下 AI 模型 Gemini 的功能更新與鉅額資金挹注,在關鍵時刻為使用者提供更完善的資訊與專人支援服務。

 

 

重新優化 Gemini 的危機支援介面

 

為簡化使用者的求助流程,Google 針對 Gemini 進行了介面與功能的雙重更新,當系統偵測到對話內容涉及心理健康需求時,將主動跳出由臨床專家共同開發的全新求助模組,提供即時的照護資源連結,若對話中進一步透露出潛在的自殘或自殺危機,系統會立即啟動簡化的「一鍵式」求助介面,使用者可依個人當下的狀況,選擇透過文字、電話、簡訊或前往危機熱線網站尋求專業協助,且一旦觸發,相關的專業支援選項便會在後續對話中持續顯現,確保求助管道的暢通與能見度。

 

挹注鉅資擴展全球諮詢熱線與培訓平台

 

除了產品本身的更新,Google 旗下的慈善機構 Google.org 也宣布了一項為期三年、總金額高達 3,000 萬美元的全球投資計畫,專門用於支援世界各地的心理危機諮詢熱線,協助相關機構擴充服務量能,Google 亦擴大了與 ReflexAI 的合作夥伴關係,投入 400 萬美元的直接資金,並將 Gemini 技術整合至 ReflexAI 的培訓套件中。

 

此外,Google.org 的專案研究員將無償提供技術專業知識,協助升級「Prepare」平台;這是一個可客製化的平台,運用逼真的 AI 模擬情境,培訓工作人員和志工進行關鍵的對話;現階段,該計畫已將 Erika’s Lighthouse 與 Educators Thriving 等教育機構列為優先合作對象。

 

建立應對急性心理危機的防護準則

 

隨著使用者與 AI 的互動日益深入且複雜,部分人可能在面臨心理危機時向 Gemini 尋求協助;為此,Google 聯合臨床、工程與安全團隊制定了嚴謹的應對方針。

 

首先,系統會優先引導使用者連結現實世界中的專業醫療與專人資源,其次是在對話設計上,AI 會避免認同或合理化使用者的有害行為與衝動;為避免強化使用者的錯誤信念,Gemini 經過特別訓練,不會附和不實的思緒,而是以溫和的方式協助使用者區分主觀感受與客觀事實。

 

不過,Google 官方也強調,儘管 AI 是實用的資訊工具,但絕對無法取代專業的臨床照護、心理治療或危機介入。

 

針對未成年族群實施專屬數位保護機制

 

為確保年輕族群在探索數位環境時的安全性,Google 針對未成年使用者增設了多項專屬的安全防護網,這套保護機制嚴格限制了 AI 的「人設」,防止 Gemini 自稱為人類或聲稱擁有屬人特徵,同時也避免系統使用模擬親密關係或表達自身需求的語言,避免未成年人對 AI 模型產生不健康的情感依賴。

 

此外,系統亦內建了防範霸凌與騷擾的安全措施,確保 AI 不會生成或鼓勵任何形式的惡意行為,展現了其打造正向數位環境的承諾。