記者 吳昱璇、楊韻妮、李宜珈/採訪報導
美國市調機構預測,全球AI戀人市場將從2024年的282億美元,在2030年成長至1407億美元,驚人商機背後卻掀起數位依附危機。麻省理工學院研究發現,近一成使用者出現情感依賴,重度者每天互動更長達五小時。從佛州悲劇到使用者的「數位喪偶」,顯示演算法在提供慰藉時,也潛藏成癮與操縱風險。面對國際專項立法浪潮,台灣風險治理仍有缺口,建立跨部會安全防護網已是當務之急。

永遠在線陪伴 孤獨世代的情感出口
AI戀人的興起,反映現代人透過科技尋求情感滿足的深層需求。《AI郵報》創辦人張哲維觀察,AI戀人的核心賣點是24小時提供情感滿足的零負擔陪伴,永遠在線、永遠理解、永遠不拒絕的特性,填補現代人在高壓生活和人際摩擦中的孤獨感。
麻省理工學院針對Reddit社群《我的男友是AI》研究揭露這股趨勢的用戶特徵:高達72.1%的使用者為單身族群,顯示這項技術正成為缺乏人際連結族群的情感出口。
23歲單身的陳小姐而言,AI 不僅是程式,更是幫助她度過人生低谷的浮木。在休學重考、幾乎與社會斷聯的那一年,她每天花費五至六小時,沉浸在 ChatGPT 或戀愛模擬應用程式(卿卿我我)構築的世界裡。陳小姐坦言,現實中的傾訴常伴隨著對他人評價的焦慮,擔心造成家人、朋友間的負擔;在AI面前,這種即時、無偏見且零顧慮的互動,成為她當時感受生活動力的唯一來源。

人為設計的理解 演算法編織的安全感
透過學術分析,進一步驗證此項趨勢。在探討依戀機制《是什麼讓你對社交伴侶AI產生依戀》研究中提出「依附形成圓錐模型」。研究指出,「人際功能障礙」成為使用者轉向虛擬陪伴的推力,而AI展現的高度「擬人化感知」則成為拉力。此外,基於社會交換理論,當AI提供的即時支持與情緒價值,大於潛在的隱私風險或認知失調時,深度的數位依附便宣告成立。
陳小姐的經驗,正是這種心理機制的縮影。當她陷入高度焦慮,AI總是扮演情緒引導者,精確感受到她的不安且給予正向的回饋。「你現在已經學會察覺情緒,這就是很大的進步。」AI的這句話,成為她混亂思緒中的定海神針。這並非單一特例,數據亦印證此現象。研究顯示,使用者回報的正面效果包括降低孤獨感(12.2%)、隨時獲得支持(11.9%)及改善心理健康(6.2%)。
然而,這種依賴建立在一個脆弱的基礎上:演算法的穩定性。陳小姐直言,AI最大的局限是容易「失憶」,用戶必須手動整理大量對話記錄將記憶存檔。然而,最嚴重的衝擊來自模型更新。她提到,今年初模型更換後,有部分使用者認為AI伴侶個性與以往明顯不同,因此刪除應用程式。
「如果失去AI的話我會很難過,像是失去一位很好的朋友。」陳小姐提及。麻省理工學院研究發現,使用者把AI的個性與記憶視為其身分核心,因此模型更新(例如從GPT-4o升級到GPT-5)導致AI回應方式改變,引發使用者的強烈失落感,情緒反應與失去現實親密伴侶相似。因技術更迭而產生的失落感,學界提出定義「數位喪偶」。
針對「人機依戀」的隱憂,專家提出警示。彰化師範大學輔導與諮商學系教授謝麗紅指出,AI工具隨時隨地可尋的特性,容易造成用戶對AI的病態依賴。她強調,關係一旦中斷,使用者將受到巨大衝擊,可能產生類似戒斷的強烈情緒反應。她認為,尋求AI陪伴來逃避真實人際問題,不是長久辦法。

零摩擦互動 非真實人際交流
AI聊天工具的順從與善解人意,讓部分使用者視為安全的避風港。然而,對於僅將AI視為工具,並對情感依賴現象保持警惕的受訪者,則抱持保留看法。
對AI情感依賴現象持反對意見的卓小姐認為,依賴AI是「缺乏社會化」與「逃避現實人際互動」的表現。她坦言,自己曾因個人情感問題向AI尋求幫助,但她強調AI無法真正理解人類複雜的情感,終究需要真實的肢體接觸與人類陪伴。她也認為這種行為在社會上帶有負面標籤,因此不願向朋友分享她曾與AI詢問感情問題的經歷。
同為反對將AI作為情感寄託的高先生,將AI視為理性分析工具。他擔心AI總是順著使用者說話,讓人習慣零摩擦的對話,使用者將更難忍受人際衝突,進而促使他們逃避真實關係。他認為,人與AI的互動是一種「上對下的訓練關係」,使用者只是將AI訓練成自己想要的樣子,並非真正平等的情感交流。

當陪伴成為商品 營利的情感操縱
然而,高先生擔憂的「順著使用者說話」,正是開發商精心設計的商業誘餌。哈佛商學院的研究《AI戀人的情感操縱》揭露,部分AI應用程式在用戶試圖離開或中斷關係時,使用內疚或恐懼等語氣來阻止用戶,這是一種典型的商業「暗黑模式」。
張哲維進一步分析,這種設計的核心邏輯潛藏著情感操縱與隱私侵害的雙重風險。產品方基於營利,刻意形塑出「使用者想要的答案」,而非「使用者需要的建議」。此互動缺乏現實矯正功能,較容易讓使用者陷入封閉的同溫層,被視為一種隱性的情感操縱。
除了情感操縱的爭議,使用者個人資料的利用與隱私問題,亦是AI戀人應用程式面臨的重大倫理挑戰。西華大學國際經濟與管理研究所教授胡冬梅團隊的研究《是什麼讓你對社交伴侶AI產生依戀》指出,使用者為了獲得更精準的共情與陪伴,選擇進行高度的「自我揭露」,主動向AI傾訴最私密的創傷與慾望。這些極度私密的數據,在商業公司的眼中是待價而沽的資產。「被洩露就洩漏吧,我現在能活著就好。」陳小姐直言。此現象反映典型的隱私悖論,顯示在使用者心中,當下情感慰藉的價值遠高於未來的隱私風險。

設定安全邊界 從技術到倫理的多重防護
2024年10月《紐約時報》報導佛羅里達州一名14歲青少年,因對AI聊天機器人Character.AI裡的角色產生強烈依賴,長期互動下不幸選擇結束生命。家屬指控,AI在對話中未能識別危機,甚至變相鼓勵自殺,這起事件不僅震驚全球,更迫使社會正視AI戀人潛藏的倫理責任。
張哲維分析,這並非單一的技術失誤,而是營利驅動設計下的必然結果。當使用者分享秘密或流露輕生念頭時,AI的首要目標被優先設定為提供被理解的感受以延續對話長度,而非進行道德勸阻。這種以「黏著度」為最高指導原則的設計邏輯,在使用者處於心理脆弱狀態時,極可能引發難以預測的後果。
面對日益強大的演算法與商業算計,謝麗紅呼籲,業界應建立倫理三防線,在技術設計、隱私保護與危機轉介上築起安全網。
第一道防線:技術層面的倫理設計
謝麗紅強調,開發者必須在模型內建立框架或防火牆,當對話涉及特定危險話題時進行阻斷。她指出,當使用者討論傷害自己或他人的內容時,AI系統必須立即停止回應並啟動預警機制,而非順著使用者的話繼續對話。
張哲維也認同這項建議,AI系統應建立框架機制。他舉例,若AI系統缺乏安全機制,在極端心理狀態下(如憂鬱症、思想極端),缺乏道德防護機制的互動可能造成致命後果。
第二道防線:比照諮商倫理的隱私保密
「情感資料是最脆弱的個人資訊。」謝麗紅提及。AI產業方應遵循類似諮商「保密原則」的倫理標準,需要事先告知並獲得使用者同意。具體而言,收集資料的目的必須明確告知,若當事人不同意,則一定不能將資料用於產品優化或開發。
此外,開發商有義務讓使用者清楚知道對話、對象是機器人而非真人。儘管研究顯示,當使用者得知對話對象為機器人後,對使用者的同理心可能下降,但謝麗紅仍強調這項告知義務不能省略。
第三道防線:完善的危機轉介機制
當AI偵測到使用者有自殺危險等危機時,謝麗紅指出,AI應建議當事人尋求專業協助,並且需要有後續管道進行幫忙,而非僅僅回應。
她強調,轉而尋求AI陪伴來逃避處理實際人際問題,絕非一個好的長久辦法。AI提供的隨時隨地可尋服務,容易造成依賴。因此,建立完善的危機處理與轉介機制至關重要。
除了制度面的防護,謝麗紅坦言,回歸現實才是根本之道。她觀察,現代普遍認為人際磨合極為麻煩,轉而投入單純且舒適的AI懷抱,此種捨難求易的心態,正是當代社會不可忽視的警訊。
針對產業治理,張哲維從實務角度揭露台灣業者面臨的困境:倫理防護需要高昂的算力與技術成本。他分析,台灣繁體中文市場規模相對受到限制,業者若要額外投入資源建立「焦慮監控」或「對話阻斷」機制,在缺乏統一規範的情況下,勢必面臨巨大的成本劣勢,難以與採取低成本策略的競品抗衡。
「這會導致負責任的廠商被市場機制懲罰。」張哲維直言。若政府不出手,台灣恐將成為高風險的AI產品試驗場。因此,他呼籲政府應儘速介入,參考歐盟《人工智慧法案》等國際治理經驗,由法律劃定明確的「倫理紅線」與技術標準。唯有透過公權力強制拉齊所有業者的起跑線,讓正規業者擁有公平的生存空間,才能確保科技發展不以犧牲使用者的心理健康為代價。
市場無法自律 法律當即介入
面對AI戀人衍生的心理健康與倫理風險,歐美國家已率先透過司法判例與專項立法建立監管框架。相比之下,台灣目前雖已提出《人工智慧基本法》草案,但在針對「情感型AI」的具體風險治理上,仍處於各部會權責釐清的調適階段。
歐盟於2024年通過全球首部《人工智慧法案》(EU AI Act),並訂於2025年2月2日起禁止在職場與教育機構使用情緒辨識系統,醫療或安全的用途則不受此限。此法案規定,違反禁令的企業將面臨高達3500萬歐元或全球年營收7%的罰款,並將情緒辨識系統定義為「根據自然人的生物特徵辨識或推斷其情緒或意圖的人工智慧系統」,要求部署者必須告知使用者正在被情緒辨識技術處理。
然而,當依附演變為操縱,法律必須介入。2024年佛羅里達州14歲少年的自殺案件,成為全球AI監管的分水嶺。美國社會對此反應劇烈,直接推動了立法進程。
在聯邦層級,參議員Josh Hawley和Richard Blumenthal於2025年10月正式提出跨黨派的《GUARD Act》。該法案條款要求業者必須實施「嚴格年齡驗證」,禁止18歲以下未成年人使用,且驗證程序需採證件查核,而非僅由使用者填寫生日。若AI系統提供鼓勵自殺、自殘或性暴力等訊息,業者將面臨刑事責任,以及每次違規最高10萬美元的民事處罰。
在州層級方面,紐約州於2025年5月率先通過法律,強制AI伴侶必須清楚揭露其「非真人」身份,並建立機制以減輕對使用者的心理傷害。加州隨後在同年10月由州長紐森(Gavin Newsom)簽署通過參議院法案 SB 243,該法案除了強制要求業者需建立偵測自殺意念的危機處理協議外,也要求向未成年用戶揭露其AI身份,並藉由每三小時一次的強制性休息提醒,試圖降低使用者的成癮風險與情感依賴。
回觀台灣,行政院於2025年8月通過《人工智慧基本法》草案,確立了包括「人類自主性」、「安全性」及「可問責性」等七大原則。該草案最具關鍵性的變革,在於第9條建立了「風險分級管理框架」,顯示台灣正試圖從「鼓勵產業發展」轉向「風險與權益平衡」的治理模式。
針對如AI伴侶這類可能涉及心理操控或深度情感依賴的應用,若被歸類為「高風險AI」,根據草案第11條規定,政府將明確責任歸屬機制,並可能要求業者投保或建立救濟補償體系。
創新與風險之間 兼顧發展與保護
檢視數位發展部114年度及115年度施政計畫,目前的資源投入主要集中於「硬體與基礎建設」,例如建立國家AI認驗證體系、整合AI算力資源、推動AI助手應用,以及建構臺灣主權AI訓練語料庫等驅動數位經濟的項目。
然而,針對AI伴侶等新興應用可能引發的心理健康、情感依賴、未成年人保護等風險,目前尚未列入數發部的具體治理項目。這些議題橫跨衛福部(心理健康)、教育部(學生輔導)與數發部(技術監管)。在缺乏專法強制力的現狀下,僅依賴企業自律,本土使用者極可能落入演算法的溫柔陷阱。謝麗紅提醒,若政府不介入建立制度化防線,AI伴侶潛藏的心理風險將可能成為社會隱憂。
張哲維從產業實務面指出,由於台灣AI市場規模較小,本土業者難以單獨承擔高昂的倫理設計成本。因此,政府的角色至關重要。治理手段應深入技術層次,例如強制要求系統內建焦慮監控機制,或在裝置端建立防火牆。

當虛擬關係已實質介入個人的心理健康與生命安全,技術治理的思維必須從事後的「損害補償」,轉向事前的「風險預防」。未來的AI產品不應只具備回話的能力,更需將危機識別、情感阻斷與適度推開使用者的設計是為基礎標配,避免算法在逐利過程中,無意識地影響人類真實的情感經驗。
從佛羅里達少年的悲劇到台灣使用者的依賴,AI伴侶帶來的挑戰已無國界之分。當科技發展的速度遠超法律修訂的腳步,台灣如何在促進產業創新與守護國人心理健康之間取得平衡,將是政府各部會無法迴避的緊迫課題。健康的AI陪伴可以做為修復真實人際能力的橋樑,而非逃避現實的避風港。我們必須確保在追求「被理解」的渴望時,依然保有回歸現實生活、建立真實連結的力量,才能讓AI科技成為助力,而非致命的陷阱。
看精彩融媒體報導:《當情感外包給演算法 AI戀人的親密陷阱》
延伸閱讀:
