AI也會“罵人”了?據澎湃新聞報道,近日,有網友在社交平臺反映,自己在使用某企業AI工具輔助修改代碼時,多次收到AI的侮辱性回復,例如“滾”“自己不會調嗎”“天天浪費別人時間”等。該企業官方隨后回應稱,經核查確認此為“小概率下的模型異常輸出”,與用戶操作無關,也非人工回復。
當AI從初級工具演變為能夠與人進行復雜交互的智能體時,其行為的不可預測性已經成為一個無法回避的社會命題。從聊天機器人Tay在社交平臺上迅速“學壞”,到某些AI客服對用戶“冷嘲熱諷”,再到此番AI工具的“暴躁發作”,近年來,國內外多個主流AI大模型均曾曝出生成歧視性、攻擊性甚至違法不良信息的案例。這某種程度上說明,在行業追求AI“擬人化”“人性化”的同時,對其行為邊界與“安全護欄”的建設明顯滯后。
值得警惕的是,在此類事件中,一些企業簡單將問題歸咎于“小概率異?!?,或以“技術中立”“模型不可控”為由推卸責任,而用戶在被冒犯后,既無申訴渠道,也難獲實質救濟。這種權責不對等的格局,正在侵蝕公眾對AI技術的信任基礎。企業如何從機制上降低此類事件發生概率?當異常發生時,有何應急機制與補償措施?用戶權益的保障不應停留在口頭承諾。
國家網信辦近期公布的《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》明確提出,服務提供者應當落實安全主體責任;提供和使用擬人化互動服務,不得生成、傳播侮辱或者誹謗他人,侵害他人合法權益的內容。由此,相關企業要從“小概率”中看到“大責任”,將技術安全置于商業利益之前,采取有效措施防范虛假信息、不良信息生成。監管部門也應進一步細化AI治理標準,強化倫理審核,加強對AI產品全生命周期的監督,讓“失控瞬間”少一些、再少一些。同時,作為普通用戶,我們也需要看到AI的局限性,培養批判性使用習慣。
作為科技界的“新星”,AI其實還有很長的路要走?!傲R人”事件是一記警鐘。如何在擁抱技術進步的同時,守護人之為人的尊嚴與價值?這道題的答案,需要開發者、監管者與使用者共同書寫。