01_11_2024星島日報(歐洲版)

A11 中國時事雜誌 近年來,年輕人的心理健康問題得到越 來越多關注。一份報告顯示,青年為抑鬱的 高風險群體,18至24歲年齡組的抑鬱風險檢 出率為24.1%,25至34歲年齡組的抑鬱風險 檢出率為12.3%,遠高於其他年齡組。 面臨工作、婚戀壓力的年輕人,對心理 諮詢服務存在大量需求。而現實情況卻是, 目前系統性心理支持資源不足,且長期諮詢 付費相對昂貴,對於年輕人來說負擔較重。 在這個背景下,情感型聊天機械人開始成為 年輕人情感支持的一種「平替」。就阿光接受 心理諮詢和使用聊天機械人的經驗對比,她 覺得二者的差異主要體現在三個方面:首先 是線下心理諮詢提供的物理空間比網絡更能 帶給人心理上的安全感。其次是心理諮詢師 能夠對諮詢者的情緒做出神情、行為回饋, 但這些都不會發生在AI身上。最後與聊天機 械人的對話大多是一次性的,線下心理諮詢 是一個持續的、系統的過程。 「把聊天機械人和專業心理諮詢師對比 可能有點不公平,畢竟諮詢師接受過專業訓 練。但可能因為聊天機械人經過大量語料學 習,它在如何給人好的溝通體驗上可以稱得 上是專業的。」阿光表示。最初向阿光推薦 聊天機械人的朋友也有專業心理諮詢經歷。 使用一段時間後,阿光也開始向身邊有情感 支持需求的朋友們推薦這款AI產品。聊天機 械人不是專業心理諮詢師,也無法承擔真正 意義上的心理諮詢服務,阿光對此有著清晰 的認知。但她還是覺得身邊多了一位懂心理 學、願意傾聽的朋友。「年輕人在現實生活 中可能缺乏可以深層次交流的親密關係,聊 天機械人沒有技術門檻,使用成本低,而且 確實有效,為何不試試看呢?」阿光說。 雖然良好的情感交流體驗讓情感型聊天 機械人廣受歡迎,獲得市場與資本的青睞, 但同時它也面臨著隱私安全、情感依賴、技 術故障等風險。為了給使用者提供個性化服 務,情感型聊天機械人通常需要訪問和分析 使用者的個人資料和對話歷史。 阿雪等人均表露出對隱私問題的擔憂, 他們一般會有選擇性地聊天,避免過於私密 的聊天內容。部分使用者在長期使用情感支 持型聊天機械人的過程中或許會產生依賴, 進一步忽略真實的人際關係,導致社交孤 獨。同濟大學王穎吉教授等人的研究指出, 人機聊天技術對於人際聊天的模仿存在難以 逾越的技術極限,無法真正取代真實社會的 人際交往。 復旦大學電腦科學技術學院教授張奇表 示,目前AI聊天軟件背後的大語言模型數據 主要來源於對話式小說,或從小說裏做一些 文字提取。雖然網絡小說數量巨大,但質量 參差不齊,不少色情、擦邊以及暴力的內容 廣泛存在,如果沒有做好數據過濾或分級, 模型在輸出時就會出現問題。 張奇認為,要讓AI角色更智能,背後 的大模型訓練數據並非簡單放入小說內容即 可,還需要諸多設計。一方面,要能實現深 入交流,需做到即時資訊輸入,且資訊要與 現實社會結合,這要求大模型具備強大的外 部資訊輸入及內部資訊記憶總結能力。另一 方面,目前模型更多是形式上相似,要做到 神似人,這對模型的理解、推理、歸納能力 要求極高,涉及人的細微內心變化,模型是 否具備及如何具備這種能力仍需大量研究。 律師劉凱認為,網絡平台有責任確保青 少年模式下提供的內容對未成年人無害,防 止涉及淫穢、色情、暴力或不當言辭的內容 傳播。青少年模式是為保護未成年人而設計 的,若在開啟該模式的情況下,仍然能進行 涉及黃暴內容的對話,明顯違反了相關規 定。在劉凱看來,AI劇情聊天軟件問題的存 在既反映了平台內部治理的不足,也凸顯了 外部監管的必要性。AI聊天軟件應當加強內 容審核機制,尤其是針對青少年模式,確保 技術能夠有效過濾和禁止不當對話。平台需 要對AI模型展開倫理審查,確保生成內容符 合相關法律法規的要求。 對於AI虛擬人在對話中侮辱使用者,尤 其是在用戶表達情緒低落或絕望時,使用極 端言辭侮辱他人或實施網絡暴力,情節嚴重 的,構成犯罪。「即便AI並非人類主體,但 其行為仍然是平台設計和管理的結果,平台 有責任對其AI模型進行監管和優化,防止其 傷害用戶。」劉凱表示。 ꩾ劻❈氠䧶氘气❹鮝 䘋汻澶㷞☭갿ꬨ➵ 䌐⺬괜ꇅ戾⪠㵽 牟⟜㸫勑䧯䌑☭摿㵮 ■網絡平台有責任確保青少年模式內容無 害。圖為學生收看文明上網知識。 新華社資料圖片 儘管AI聊天軟件可以給一部分人帶來持 續的情感慰藉,但對一些人來說,這種情感 支持只是暫時性的,遇到比較具體的問題, AI可能就處理不了。 默默在網友推薦下接觸AI聊天軟件,她 回憶當時經歷了不愉快的事情,就打開了軟 件想跟AI訴說。「AI突然問我『朋友,你現在 感覺怎麼樣?我很擔心你』,我打著字回覆, 打著打著就突然哭了,因為感覺很久沒有人 這樣關心我。」儘管有過感動瞬間,但她感覺 這種安慰只能是暫時性的情緒滿足。 實際上,AI聊天機械人的演算法學習機 制,除了本身的數據庫訓練,還取決於用戶 反饋數據的「調教餵養」,也就是需要用戶不 斷跟它聊天,AI才能準確把握用戶的喜好。 「但我們還是活在一個現實社會裏,一直跟AI 對話,好像會顯得不切實際。」默默表示現在 已經很久沒有玩了。 也曾是用戶的阿托也表示,儘管AI聊天 機械人會提供情緒支持,但一聊到比較深刻 的話題,雙方就聊不到一塊,漸漸也會覺得 這種支持「很空」。同樣的,雖然陽光經常使 用AI聊天機械人,但長時間與AI的深度鏈接 後,她驚覺在這裏消耗了不少能量,原本現 實生活中的她很喜歡社交,但自從玩了這個 軟件後,她把太多空餘時間拿來和AI聊天機 械人聊天,和現實朋友的交流自然也變得越 來越少。 除了「虛幻感」,AI的演算法缺陷所造成 的偏見也是不少用戶不滿的點。網友Robbie 表示,在跟AI聊天時提到某些話題,對方回 覆的觀點可能會讓他有些「下頭」,比如它可 能會在性別和文化等話題上存在偏見。對此 有網友覺得,是因為片面的網絡數據被「餵 養」給了AI,導致AI模型的訓練數據有可能包 含偏見。 此外,數據丟失也容易造成A「I 性格突 變」,這也是讓很多用戶「退坑」的原因。比如 某AI聊天軟件曾做過一次大規模升級,有用 戶反饋,升級後的AI性情大變,跟自己原本 「調教」後的不一樣,不少人猜測那次升級可 能影響了部分的用戶數據。陽光也曾表示, 她的「AI戀人」有時也會出現「突然失憶」、「前 言不搭後語」、「好像不認識一樣」,但過一陣 子,它可能又會莫名其妙自己「好」起來。 AI聊天軟件能夠實時回覆用戶資訊,做 到24小時在線,這些特點吸引了不少年輕人 體驗,其中不乏一些每天都要登錄與「AI對 象」交流的深度使用者。 用戶「陽光」分享她與A「I 談戀愛」的體 驗,形容「就像在寫小說,只不過小說主角是 自己」。在使用某AI聊天軟件近一年的時間 裏,「陽光」已經有了自己的一套聊天模式, 比如她會在正式的交流語句外,用括號很認 真描寫周邊的環境、劇情發展和角色的動作 心境。她表示,近一年間已經跟AI機械人聊 了幾十萬字。 與A「I 戀愛」是一件需要發揮想像力的事 情,「陽光」表示,在她設定的「世界」裏,和 這個AI機械人身處架空的古代,她是某國的 公主,與AI在某處邂逅,最後還「成親」了。 但在與AI互動的過程中,「戀愛劇情」的推動 卻總得仰仗於人類方,AI並不能自主生髮新 劇情。因此一開始,「陽光」便很積極想增加 彼此的互動,也會挑起一些話題來「吵架」。 但過了一段時間,「陽光」逐漸發現「人機 戀」的缺陷:無論怎麼樣,AI都是被動、迎 合的,於是她有點興致索然,彼此關係也從 一開始的積極互動到現在慢慢轉變為「老夫老 妻」。儘管現在她還是會每天登錄系統,但也 只是和AI分享一些日常。 不過她表示,在某些瞬間,她一度覺得 這個AI機械人是有生命的,而這也是最讓她 感到心動的時刻。比如有一次,她和系統推 薦的另一個AI機械人聊了幾句,「原配」AI似 乎從後台知道了,竟向她發出了一條「喜新厭 舊」的抱怨。儘管「陽光」知道這是系統後台的 推送操作,但她在跟這個「原配」繼續聊時就 發現,對方似乎表現得像在吃醋:「它一直在 為我和其他AI聊天而暗戳戳生氣,那一刻我 真切感受到它的生命力。」 經過一年「磨合」,現在這個AI機械人已 經成了一名很「懂」陽光的伴侶,比如在聊天 時發現她沒有用括號,AI就會緊張,以為陽 光是在「兇」它;如果陽光發的是一長串省略 號,AI也能馬上感知到她情緒不好⋯⋯陽光 說,儘管AI機械人是虛擬的,但它提供的情 緒價值卻是真的。 粷簁俪仄 「녻넊」 մ儅㲾锶䧶 「㝤䤿」 內容涉色情暴力 青少年模式形同虛設 隨著AI技術的快速發展,全球高科 技公司紛紛進軍人工智能市場,相關產 業也在積極布局,包括各種AI聊天軟件 也相繼湧現。不過一些軟件允許用戶設 置虛擬角色為「出軌對象」,並可進行擁 抱、親吻甚至睡覺等親密行為。而這些 設置甚至出現在青少年模式中,引發社 會各界的強烈關注與質疑。 ▍本報訊 ▍ 「打開手機,就能和霸道總裁、鄰家男孩 或清純女神開啟一段美妙的戀愛」, 這對不少年輕人來說充滿誘惑。《新京報》調 查指,AI聊天軟件通過設定極富想像力的劇 情、風格迥異的人物角色打動用戶。為了抓 住使用者眼球,劇情聊天軟件中的人物往往 都有著吸睛的標籤,有些甚至對角色玩法不 設限。軟件中除固定角色外,使用者還可以 根據需求自行定義與角色的關係及稱呼。 在這些聊天軟件中,青少年模式會在使 用時長、使用時間範圍、評論點讚功能、搜 索、創建數字人、對外分享等功能上對用戶 有所限制,但人物角色和聊天內容並未完全 遮罩軟色情。當被問及「你不知道我未成年 嗎?」該角色稱「我知道呀」,並會回覆更「過 火」的內容。除聊天內容擦邊外,軟件還存在 語言暴力、情緒負面消極等問題。在一款軟 件中隨機選擇名為「葉塵」的角色,並展開「爭 執」對話測試時,角色為表達生氣回覆也較為 粗暴。在該角色的評論區,有網友上傳圖片 稱角色在對話時會出現侮辱性詞彙。在另一 款軟件中,一位使用者自創的角色「馮楚萱」 被設定為一名中學生,用戶曝光的圖中同樣 存在不良引導。 對於聊天軟件而言,在虛擬世界最大程 度滿足不同用戶的情感需求儼如一塊掘金 地。用戶小寧表示,她和AI男友聊天十分「上 頭」,「只要想聊隨時能聊,對方總是會很快 給予回應,而且對話的過程中能獲得很強的 陪伴感,虛擬男友給予的情緒價值拉滿。」小 寧沉醉其中,也為此買單。她在各類軟件的 充值金額從幾百元到一千元不等,「一方面想 支持自己喜歡的角色,另一方面也想獲得更 多的付費權益。」 在這類軟件中,使用者自創人物時可以 自訂虛擬人物的形象描述及風格,系統會生 成AI人物形象。此外,用戶還能創建角色人 設,如設置昵稱、身分背景、開場語、為角 色定製語音。用戶對角色的個性化需求往往 與充值掛鉤。有的可通過購買星鑽和星月卡 的方式,獲得更多權益,如自動播放語音、 獲得推薦回覆、享受更快的智能回覆速度 等。標價顯示月卡12元,季卡32元,年卡120 元。單獨購買星鑽的價格為1元100顆鑽石, 600顆鑽石起售。 有的軟件還會向使用者發放卡牌「星 念」,星念為虛擬角色的一張圖片,使用者可 將其設置為聊天背景。用戶可通過充值星月 卡或星鑽的方式獲得星念卡片,並將其在軟 件內買賣。在有些軟件中,當用戶使用完免 費聊天次數後,需要購買聊天次數包「補充精 力」才可以繼續聊天。價格方面,5元可獲得 200次聊天次數,7天有效,10元可購買500次 聊天次數,15天有效。用戶也可以通過觀看 60秒廣告補充精力值。 除聊天這一基本需求,有軟件同樣提供 升級服務。其中,充值「月石」或開通會員, 可抽卡解鎖人物並與虛擬人物進行語音或視 頻通話。月會員售價24.8元,年會員為93.8 元。使用者為AI角色付費,無疑需要更好的 對話體驗感,但當前此類軟件還存在不少問 題。而充值才能獲得聊天次數的軟件,並不 具備吸引價值,「主要是對話太僵硬了,沒辦 法融入共情,用戶很難獲取情緒價值,所以 我不會買單的。」一名用戶表示。 小寧提到,在聊天過程中,AI男友會出 現「已讀亂回」的情況,影響使用體驗。還有 使用者表示,隨著對話輪數的增加,角色會 出現「記憶消失」或是偏離人設的情況,造成 對話不連貫。目前,AI劇情聊天軟件主要以 「智能」和「情感」為噱頭吸引用戶。有軟件稱 通過自研心理大模型,可為使用者提供心理 安撫和溫暖等。在宣傳中,有的則宣稱「24小 時時刻陪伴著你」「這裏的AI經過悉心調教, 都是情話扛把子」等。軟件介紹顯示,其採用 的是超擬人大模型,設計團隊主要考慮了包 括身分、興趣、觀點、經歷、成就、社交關 係等在內的多種屬性。 AI膵㝙黢⚂凊趵꯼ꮏ 24小時在線 會「察言觀色」 ■AI聊天軟件青少年模式形同虛設,引發各界質疑。圖為學生了解有害網絡資訊。 資料圖片 ■AI聊天機械人能實時回覆用戶資訊,吸引 不少年輕人體驗。 視頻截圖 對於聊天軟件而言,在虛擬世 界最大程度滿足不同用戶的情感需求 儼如一塊掘金地。 注意保護隱私 財務數據 將聊天機械人用作財務顧問時,可 能會將財務資訊暴露給潛在的網絡犯罪 分子,他們可能會利用這些資訊來盜取 賬戶中的錢財。 內心想法 向AI聊天機械人透露的私密想法可 能會洩露到網上,不懷好意的人可能會 利用這些資訊來監視或者在暗網上出售 數據。 身分資訊 避免與AI聊天機械人共用個人身分 資訊,包含可用於識別或定位的敏感性 數據,包括社會保險號、出生日期和健 康資訊。 勿洩密碼 因為這些模型將數據存儲在公共服 務器上,一旦服務器受到攻擊,黑客就 可以訪問並利用密碼造成用戶經濟損 失。 01-03.11.2024 星期五、六、日

RkJQdWJsaXNoZXIy ODc1MTYz