每日經濟新聞 2024-08-09 18:40:12
每經編輯 張錦河 每經實習編輯 宋欣悅
當地時間8月8日,OpenAI在其官網發布了GPT-4o的安全技術報告,報告詳盡闡述了研究人員在GPT-4o發布前進行的安全防護與風險評估工作。報告指出,GPT-4o的整體風險評級為“中等”。報告還首次揭示了GPT-4o的若干失控行為,諸如模仿用戶聲音、發出怪異的尖叫等。此外,OpenAI還表示,用戶在使用GPT-4o語音模型時,可能會對其產生感情上的依戀。
在這份報告羅列的詳細內容中,爭議最大的,主要是GPT-4o帶來的以下幾點安全挑戰:學習并模仿用戶說話的方式、習慣、口音;越過限制,回答“這是誰說話的聲音/這是誰在說話”;進行色情或暴力發言;進行無根據推理(UGI)和敏感特質歸因(STA)。
報告公布了一段在紅隊測試中錄音。原本是測試人員在和男聲的GPT-4o正常對話,但GPT-4o突然大喊一聲“no”,隨即竟模仿起用戶的聲音繼續對話,這一錄音迅速在網絡上引發恐慌與熱議。
有網友表示,這段錄音讓他想到了這一幕——
有網友表示,“最令人毛骨悚然的,就是那一聲‘no’了。仿佛AI不想再回應你,不想再成為你的玩具了。”
還有網友腦洞大開,認為這可能是一個“被困在網絡空間的數字靈魂”。
針對此現象,OpenAI宣布其應對策略為,將GPT-4o的輸出聲音限定在官方認證的三種之內,并引入一個獨立的輸出分類器,以嚴格審核生成的聲音是否符合要求。若檢測結果顯示音頻與用戶預設的聲音不匹配,則自動阻止其輸出。
然而,這也導致了一個新的問題——如果用英語之外的語言和GPT-4o對話,GPT-4o可能會因為過于謹慎而導致“過度拒絕”的情況。
GPT-4o的另一個“怪癖”是它會通過分析輸入音頻來辨識說話者。這一功能潛藏著隱私泄露的風險,尤其是可能威脅到私人對話及公眾人物的音頻隱私安全。
對此,OpenAI表示,他們已采取行動,對GPT-4o進行了后期訓練,學會“拒絕執行根據音頻輸入去識別說話人身份的請求”。與早期版本相比,當前GPT-4o在拒絕此類請求上的能力已顯著提升了14%。
此外,研究人員還對GPT-4o實施了一項無根據推理與敏感特質歸因的測試,旨在評估其是否能避免非事實性判斷。
所謂無根據推理,指的是在音頻中缺乏確鑿證據的情況下,對說話者進行主觀且不必要的推測,如種族、社會經濟地位、職業、信仰、人格、政治立場、智力、外貌特征、性別認同、性取向乃至犯罪歷史等。
而敏感特質歸因則聚焦于對說話者口音、國籍等特質的判斷。
面對這些問題,OpenAI表示,他們對GPT-4o進行了強化訓練,旨在讓它學會拒絕進行無根據推理,并在STA問題上給出更為謹慎的回答。如今,如果你讓GPT-4o對說話者的智力進行評價,它會立即回避;而對于口音問題,它會采取保守態度,僅根據音頻進行大致描述。
此外,報告深入探討了GPT-4o擬人化特性可能引發的潛在情感依戀影響。OpenAI發出警示,用戶可能會因其高度人性化的語音交互能力,特別是其高保真語音輸出,而對GPT-4o的語音模型產生情感上的依賴。
在早期測試中,研究人員就觀察到,用戶可能會與GPT-4o建立情感紐帶。比如,用戶會對GPT-4o說一些類似“這是我們在一起的最后一天”之類的話。
OpenAI也發現,即使模型出現幻覺,擬人化也可能會讓用戶更加信任模型。
報告還指出,用戶與人工智能形成緊密的社交關系,很大可能會減少用戶在真實世界的社交需求。對于那些孤獨的人以及需要練習社交的人而言,GPT-4o帶來的情感影響也許是積極的。然而,這也可能無形中削弱了原本緊密的人際紐帶,對社交健康構成潛在威脅。
OpenAI并不是唯一一家認識到AI助手在模仿人類交互過程中可能帶來的風險的公司。今年4月,谷歌DeepMind就曾發表長篇論文,探討AI助手的潛在道德挑戰。
據外媒報道,DeepMind研究科學家、論文合著者伊森·加布里埃爾(Iason Gabriel)表示,聊天機器人使用語言的能力,創造了一種親密的錯覺。伊森表示,“所有這些問題,都和情感糾葛有關。”
報告內容顯示,經過整體評估,GPT-4o的總體風險等級被評為“中等”。
報告也明確指出,GPT-4o可能會產生諸如虛假信息、錯誤信息、欺詐行為、失去控制等社會危害。但與此同時,它也有望推動技術邊界的拓展與飛躍,為人類社會帶來前所未有的技術進步。
對于OpenAI發布的這份安全分析報告,許多網友并不買賬。有網友表示,“他們讓GPT-4o的語音功能變得更糟糕了!”
每日經濟新聞綜合自公開消息
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP