近期,AI智能體OpenClaw引發的“養龍蝦”熱潮席卷全網。近日,國元證券打響券商AI Agent自研第一槍。另據上證報記者了解,已有多家券商著手研發給內部員工使用的超級智能體。與通用AI Agent不同,券商自研AI Agent側重行業強監管屬性以及與自身業務的深度適配性,強調“安全內生于架構”,嚴把客戶資產、公司業務及金融行業數據安全,力求干得對、干得穩、干得合規。
深度適配業務場景
“OpenClaw讓大家看到了AI Agent的可能性,但每個行業都需要自己的Agent。”國元證券人工智能團隊負責人于申向記者坦言。
短短一句話,道出券商自研AI Agent的核心錨點:深度適配業務場景。華福證券數智賦能部相關負責人告訴記者,券商自研的AI Agent絕大多數采用ReAct(推理—行動)架構,僅解決特定業務場景問題,設計目的性強。
據中泰證券相關負責人介紹,通用型AI Agent重點解決泛場景的辦公效率、通用任務自動化問題,而券商自研AI Agent,必須立足券業的強監管屬性、專業業務邏輯、客戶服務核心訴求,優先解決三大核心問題:第一,解決強監管下的合規可控問題。自研AI Agent必須把合規校驗、風險攔截嵌入每一步執行環節,確保所有動作都在監管框架內。第二,深度適配證券業務的專屬專業邏輯。券商的財富管理、投研、投行等業務,有極強的行業專屬規則、專業門檻和閉環流程,自研AI Agent必須深度打通公司業務系統、數據體系,貼合業務流程定制開發。第三,實現金融場景的全鏈路風險可控與可追溯。券商業務直接關聯客戶資產與資本市場交易,對準確性、安全性的要求近乎“零容錯”,自研AI Agent需構建全鏈路的風險管控、日志留存、決策追溯機制,把風險防控貫穿始終。
“AI不只是給出建議,而是真正地自主規劃、調用工具、執行任務、觀察結果,形成完整的閉環。”于申說。
筑牢安全護城河
熱鬧的背后,安全是始終繞不開的話題。
“國家安全部”微信公眾號最新發布的“龍蝦”(OpenClaw)安全養殖手冊提及,個人敏感數據交由“龍蝦”處理,一旦被攻破,可能造成個人隱私泄露,帶來財產與安全風險。
在金融行業,“開放”的AI Agent與“私密”的數據能否實現兼容?
“安全內生于架構”是國元證券給出的答案。其自主研發的“旗魚”采用本地向量嵌入模型配合向量數據庫構建知識庫,同時支持多AI Provider靈活切換,既可以對接公有云大模型,也可以接入公司私有化大模型,從而保證敏感數據不出域,實現金融級數據安全。
中泰證券相關負責人分析,模型幻覺、邏輯偏差可能導致投資建議失準、風控誤判、業務流程錯配,直接關聯客戶資產與公司業務安全。華福證券數智賦能部相關負責人表示,這部分風險技術原理上暫時無法根除,只能通過提高準確率、控制幻覺等手段來改善。
“券商身處強監管、高風險環境,容錯率極低,AI不僅要‘能干’,更要‘干得對、干得穩、干得合規’。”于申稱。
券業自研風尚亟待升溫
已有券商在技術研發路上快馬加鞭,但行業生態建設仍任重道遠。
據中國證券業協會最新發布的《中國證券業發展報告2025》,2024年前沿技術已覆蓋63.2%的券商。然而,34%的券商完全依賴外購系統,自主研發占比超過40%的僅占17%,且僅8.5%的證券公司重要系統云原生架構占比超過50%。
對券商而言,自研AI Agent有何難點?中泰證券相關負責人總結出四大“難題”:合規創新與監管要求的平衡難題、金融場景的模型幻覺與專業適配難題、算力供給與規模化落地的支撐難題以及AI人才不足的難題。
券商又該如何突圍?在于申看來,需要鍛造“三力”:一是技術應用能力,不僅把AI Agent當作技術插件,而是作為重塑生產力和業務模式的基礎設施,明確“場景驅動、自主可控”的發展路徑;二是智能體治理能力,建立覆蓋模型開發、數據使用、操作審計、應急響應的全生命周期治理體系,確保AI應用既高效又合規,經得起實戰檢驗;三是組織進化能力,從“人力密集型”向“智能增強型”組織轉型,構建AI友好的組織形態,讓AI真正融入決策流、業務流和創新流。