記者 羅沁然、吳宗興、吳怡璇/採訪報導
AI伴侶的出現,改變現代人排解情感需求的方式。AI透過擬人化的互動,滿足人們對於情感的渴望,卻也引發隱私權與法律方面的爭議,其中資料安全便是一大隱憂,而未經同意模擬真實人物,還可能涉及智慧財產權問題。人們在享受科技帶來的便利之餘,需審慎評估可能的風險,確保AI的發展符合倫理與社會責任標準。
人工智慧 陪伴互動
根據麥肯錫全球研究院(MGI)的研究,人工智慧的應用範圍正不斷擴大,現今人工智慧的核心在於模擬並執行人類的思考能力,包括感知、推理、學習、與環境互動、解決問題,甚至具備創造力。許多人可能沒有意識到,其實日常生活中早已被AI充斥。例如,語音助理Siri和Alexa,正是利用AI技術回應指令。而許多網站上的客服聊天機器人,也是透過AI來幫助我們更快速地獲得協助。
約翰霍普金斯大學研究生羅立禹介紹,AI伴侶的核心技術包括自然語言處理、情感識別以及語音合成。他認為,融合這些技術讓AI更加準確地理解用戶的情緒,並能以自然、擬人化的方式進行互動,為用戶帶來更具同理心的陪伴體驗。
羅立禹表示,關於AI伴侶的應用場景主要集中在三個面相。首先是情感支持,許多用戶在孤獨或壓力下尋求AI陪伴,AI伴侶可以提供全天候的聊天服務,緩解心理壓力。其次,在心理健康輔導領域,AI可分析用戶情緒,提供如正念冥想或情緒管理的建議,成為心理健康的輔助工具。最後,AI伴侶也被廣泛應用於娛樂場景,如:社交互動和虛擬角色陪玩,為人們帶來沉浸式的體驗。
陪伴型AI的問世,反映人們對於情感支持的需求。世新大學社會心理學系教授張思嘉表示,AI可以24小時不間斷地陪伴,隨時滿足使用者的需求,這代表某些族群可能會選擇依賴AI,而不再與現實中的人交往。她補充,若孩童與青少年等心智尚未成熟的人群過度依賴AI,可能會使他們無法區分虛擬與現實,間接造成現實中的社交障礙。
阻礙真實人際發展
對於有著強烈孤獨感或情感支持不足的人來說,AI伴侶便成為了抒發情緒的對象。銘傳大學諮商臨床與工商心理學系主任許金田表示,或許AI伴侶可以在一定程度上提供陪伴和情感互動,但他認為這樣的情感支持仍是有限的,科技始終無法替代現實中的情感交流。張思嘉強調,AI伴侶能模擬關懷和陪伴,其效用主要取決於使用者對AI伴侶的期望和依賴程度。
許金田直言,與傳統人際關係相比,與AI伴侶的互動具有單向性與可控性,這種互動缺乏真實的人際挑戰和情感反饋,可能會讓使用者更加依賴AI,失去面對現實中人際關係的動力和能力。張思嘉認為,這樣的「無衝突」互動或許可以短暫地解決問題,但長期來看,卻可能阻礙人與人的情感發展,導致使用者在面對人際關係時不知所措。
審慎評估 理性使用
儘管陪伴型AI可能帶來許多問題,但不代表人們應排斥使用,許金田認為,AI技術在特殊情況下能提供短暫支持,排解孤單情緒,找到心靈的慰藉。然而,張思嘉坦言,AI並非真人,與AI的互動只是一種輔助性的情感支持,無法替代現實中的人際關係。她認為,如何合理地使用AI,並對其進行合理的期望,並清楚知道對方並非真人,是人們在面對這項新興科技時,需要思考的課題。
現代人被稱為「數位原住民」,從網路出現至今已二十餘年,人們也早已習慣網路的使用以及面臨的風險。同樣地,TRG datacenters研究顯示,尋找AI聊天機器人女友的英文搜尋量不斷增加,目前已超過 160 萬次,可以看出越來越多人對AI伴侶產生興趣,而研究也表明,人工智慧還不能完全填補人類接觸的空缺,但它可能會在某種程度上消除人們正在經歷的孤立感。
張思嘉表示,這種虛擬的情感支持,在帶來便利與慰藉的同時,也潛藏著倫理、隱私與心理健康方面的風險。人們在享受AI技術便利的同時,需謹慎地評估背後的負面影響,並尋求更合理、健康的使用方式。
慎防隱私與資安風險
隨著AI伴侶技術的普及,用戶在使用時難免洩漏個人資訊,包括情感偏好與私密談話內容。數位發展部資訊處共用系統科科長吳勝繙表示,若隱私資料外洩,恐導致用戶的消費行為被操控,若分析使用者的對話內容,應用程式就能精準掌握使用者的喜好和需求,並將資料販售給廣告商,潛移默化下影響使用者的消費決策。
按經濟部智慧財產局刊物介紹,AI的應用領域中以「電腦視覺」、「自然語言處理」和「語音處理」為主,分別利用AI技術處理影像或圖像生成、進行語言翻譯,以及辨識和生成真人語音的文字內容。對此,吳勝繙指出,AI應用經常收集大量敏感數據進行分析,因此在保障用戶個人資料方面,資安問題的核心在於如何妥善儲存與保護使用者的個人資訊。
鑑於日益增加的資安風險,吳勝繙強調,AI應用開發者應採用先進加密技術保護使用者數據,確保資料傳輸與儲存過程,不易遭攔截或竊取。此外,應用程式應實施嚴格的身分認證機制,如生物辨識等,防止未經授權的第三方訪問使用者的敏感資訊。這些安全措施不僅有助於提升用戶信任,也能保障企業的數據合規性,避免違反法規。
針對數據、隱私外流等隱患,吳勝繙提醒,與AI互動的過程中,使用者應謹慎對待與AI間的對話內容,避免透露過多個人隱私。他呼籲,政府及相關企業應強化對 AI應用的監管,制定更完善的隱私保護法規,確保使用者的資料安全。唯有在技術應用與隱私保護之間取得平衡,才能讓用戶無後顧之憂地享受服務。
專法尚未制定 侵權問題待解
在AI應用開發商存取用戶資訊之餘,政府更需加強法規管理AI應用資訊。吳勝繙提及,若要防範人工智慧威脅人類社會,勢必得訂定相關法規控管,例如美國國家標準暨技術研究院(NIST)的人工智慧風險管理框架(AI RMF),以及歐洲聯盟《人工智慧法案》(AIA)的人工智慧系統四種風險分級,但他坦言,即便各國陸續制定相關法規,仍跟不上科技的快速發展。
根據AIA的風險分級指出,第三級「有限風險AI」必須讓用戶清楚知道,自己正在和人工智慧互動,而陪伴型AI的虛擬伴侶,可以是模擬後的真實人物或動漫角色。曜言法律事務所執業律師唐大鈞提及,在未經授權的前提下, AI不論是模擬真人或虛擬人物,都可能在著作權、商標權與肖像權方面構成侵權行為。
中華民國《著作權法》所保護對象為「人類精神文明的智慧成果」,強調創作主體必須是「人類」。唐大鈞指出,AI作為輔助人類創作的工具,利用AI輔助的創作者仍可享有《著作權法》的保障,但AI自動生成作品,目前則不受保護。若想避免侵犯他人智慧財產權,平台端應主動審查內容、設定原創性內容或是取得著作權人的授權。
對於台灣目前尚無管理AI的專法,唐大鈞提到,現階段可透過《著作權法》、《民法》或《個資法》認定及保護侵權行為,但現有法規難以完整規範AI作品智慧財產權。由於陪伴型AI允許用戶模擬名人或受版權保護的角色,但仍可能被認定為「衍生著作」。而角色改作權是專屬於著作權人的權利,且陪伴型AI程式常被用於盈利,因此更應受到著作權法與肖像權的約束。
在用戶生成自己的專屬AI伴侶時,如何保障AI創作內容的智慧財產權是一大挑戰。唐大鈞認為,用戶使用AI創作的內容中,可能產出侵犯原創者改作權的衍生著作,以及使用真實人物個資進行的AI創作,這些內容的著作權歸屬及監管責任,與AI使用倫理息息相關,更將延伸為未來AI創作的法律議題。
延伸閱讀: