數據寶
何予
2026-03-18 22:38
證券時報記者 吳瞬
當“龍蝦”(OpenClaw)席卷網絡,多方擔憂其安全性之際,又曝出生成式引擎優化(GEO)給AI大模型“投毒”。在AI技術狂飆之下,AI風險正以更隱蔽、更具破壞性的方式出現。如何為狂飆的AI技術裝上“安全閥”、扎緊安全籬笆,成為AI時代必須直面的命題。
AI風險,本質是技術發展與倫理治理、監管體系的失衡。一方面,一些AI公司奉行“速度優先”忽視“安全優先”,在技術狂飆之際,給不法分子留下了操作空間。如“龍蝦”的開源社區缺乏嚴格的技能包審核機制,導致惡意插件輕易混入;AI大模型訓練數據的來源與審核機制不透明,給“投毒”留下可乘之機。另一方面,傳統監管模式滯后于技術迭代,往往在風險顯現后才被動應對,形成“能力已到、治理未到”的真空期。
因此,首先要為技術創新劃定安全邊界、筑牢可持續發展的根基。比如防止“投毒”,勢必對AI大模型公司提出更高、更具前瞻性的風險防范要求,采用數據必須具備可解釋性、可追溯性,確立更高標準的審核門檻,從源頭防范“投毒”。
其次,要構建“多方協同”的治理體系。相關部門需加快完善數字技術相關法律法規,明確平臺、用戶的責任邊界,對于“投毒”、惡意利用開源工具等行為加大處罰力度;行業協會應制定統一的技術倫理規范與安全標準,引導企業自律;科研機構與專家需加強技術風險研究,為監管提供專業支撐;公眾則要提升數字素養,理性使用技術工具。
最后,技術發展永無止境,風險形態也在不斷演變,需建立快捷的風險監測與預警機制,如各部門對“龍蝦”發布安全預警就是防患于未然的典型舉措。
不過,扎緊技術狂飆的安全籬笆,絕非遏制創新。唯有在創新與安全之間找到平衡,才能讓技術狂飆始終行駛在合規向善的軌道上,真正成為推動社會進步的動力,而非威脅公共利益的隱患。