近期,伴隨著“養龍蝦炒股”( 即使用開源 AI 智能體 OpenClaw,業內俗稱 “龍蝦”,進行投資輔助 )爆火,新一輪的AI炒股浪潮席卷而來,站在私募的視角下,以OpenClaw為代表的AI智能體熱潮究竟意味著什么?
過去的一年多里,很多投資者都曾嘗試使用ChatGPT、DeepSeek、豆包等大語言模型(LLM)來輔助炒股,當OpenClaw開始走紅以后,很多投資者在第一時間提出疑問:相較于更早出現的各類AI大模型,OpenClaw有何不同?
談及二者之間的差異,知名量化私募遠和資產合伙人王小傲在接受界面新聞采訪時,從底層邏輯方面進行了拆解:“我們認為,從ChatGPT到OpenClaw的演進,本質上并非市場需求的突變,而是AI能力供給端的質變。早期的大語言模型(LLM)主要作為翻譯或代碼補全的輔助工具,而現在的智能體讓大模型具備了授權框架內自主執行復雜任務的能力。這種從‘被動響應’到‘自主執行’的跨越,極大地豐富了AI在復雜場景下的生產力表現。”
王小傲解釋稱:“如果說大語言模型(LLM)賦予了AI‘大腦’,那么智能體則為其裝上了‘手’和‘腳’,結合多模態能力更賦予了它‘眼’和‘耳’。”
在優美利投資總經理賀金龍看來,大模型可以說是“軍師”(出思路、寫代碼、做分析),偏重于輔助決策;OpenClaw重在執行。比如可以用豆包/DeepSeek寫選股邏輯、生成回測代碼、解讀財報、做復盤、給投資思路,用OpenClaw自動盯盤、交易信號提示、策略執行輔助和復盤。
止于至善投資總經理何理則對界面新聞表示,OpenClaw是一個Agent(智能體),而DeepSeek是一個大模型,使用的體驗會有較大的差異。最明顯的是,OpenClaw可以使用各種Skills去進行“工作”, 并且可在設定框架下持續迭代優化,具備任務層面的自主性,更像是一位“數字同事”。而大模型更像是一個具備搜索和處理引擎的“數字大腦”。過去更多是“AI給意見”,現在開始變成“AI可以在授權范圍內完成一部分工作”,這是一種生產力從“輔助思考”到“授權協同執行”的跨越。
以OpenClaw為代表的AI智能體有望帶來投研效率的提升,是很多私募人士的共識。
“很多工作任務AI可以幫著做了,甚至是授權范圍內代替做了,這樣每個同事都會有一個更大的杠桿,部分任務原本要幾個小時,在AI幫助下可能只需要幾分鐘,這會讓團隊的核心競爭力徹底向‘提出好問題、具備深刻商業洞察的能力、體系化能力等’轉移,帶來公司的快速發展。” 何理對界面新聞分析稱。
由于本身就是機器學習的重度用戶,且在算力方面有著不錯的積累,還無需像公募、券商那樣經歷層層審批,決策流程相對簡化,就國內而言,量化私募普遍走在AI投資實踐的前列。
據私募排排網統計,截至2026年3月11日,至少有17家百億量化私募明確在AI領域有所布局。
當下爆火的以OpenClaw為代表的AI智能體和量化投資之間又有著怎樣微妙的關系?
王小傲對界面新聞分析稱:“AI智能體與量化投資的相似之處在于,兩者都遵循‘訓練(養成)-推理(執行)’的范式,都需要通過不斷沉淀打磨可復用的技能(Skill),并在特定環境中通過反饋機制優化表現。但二者也有一個關鍵區別,即智能體可以沉淀鏈路和邏輯極其復雜的技能,擁有豐富的交互模式;而量化所構建的技能更加純粹,如因子、模型或交易策略,執行層面也僅限于單一的交易動作。此外,智能體的‘養成’門檻正在降低,普通人可通過自然語言構建復雜邏輯,但量化策略的‘養成’仍需深厚的專業壁壘。”
私募排排網也曾撰文指出,盡管底層邏輯相似,但量化模型與OpenClaw在技術原理、功能定位和應用場景等方面存在根本性差異。
面對OpenClaw引領的AI智能體熱潮,量化私募們也在做出自己的選擇。
有的決定“謹慎嘗鮮”。比如,遠和資產正積極將智能體技術融入工作流,探究智能體技術在自動化研究流程、非核心模塊開發、多維數據分析等場景的遷移應用,包括:構建基于Agent的自動研究框架,嘗試實現從數據清洗、因子挖掘到報告生成的全流程自動化;利用智能體輔助代碼生成與測試,釋放研究人員精力聚焦于核心策略邏輯;探索利用多模態智能體處理新聞情緒、宏觀研報等另類數據,捕捉傳統模型難以識別的非線性信號等。
有的直擊AI痛點。比如,星闊投資在近日發布的文章中點評稱:“第一批養龍蝦的人已經開始抓瞎了。更多人發現,自己本想靠它提高效率,結果每天花兩小時調試它,比以前更累了。對于量化投資,這只龍蝦能做的,恰恰是投資里最不值錢的那部分。真正的Alpha,從來都在龍蝦游不進去的地方。所以,別焦慮了。該吃吃該喝喝,讓那些急著養蝦的人先養著。等這陣狂熱過去,你會發現:真正能穿越周期的,永遠是人,不是工具。”
在最初的“養龍蝦”高潮過后,AI智能體可能存在的種種風險也開始被更多關注到。
3月8日,工信部網絡安全威脅和漏洞信息共享平臺發布預警,指出OpenClaw部分實例在默認或不當配置下存在高危安全風險;3月10日,國家互聯網應急中心發布安全風險提示,直指該工具默認配置脆弱、權限過高帶來的網絡與數據隱患; 后續行業內相關風險提示也陸續發布 。
對于直接涉及“真金白銀”的投資領域來說,這種風險更加值得重視和警惕。
“OpenClaw可能帶來安全、執行、決策、成本、合規等五大類風險”,賀金龍對界面新聞分析稱,“最容易虧大錢的風險點一個是AI幻覺/邏輯錯誤,即大模型生成策略有幻覺、數據偏差、邏輯錯誤;另一個是過擬合/回測陷阱,即歷史表現好,實盤失效,只適合過去,不適應未來等。另外,現階段Token費用高昂,持續調用大模型,月耗可達數萬元。OpenClaw是效率工具,不是印鈔機。安全+風控+人工審核是前提,小步快跑、持續優化才是正道。”
潛在的各種風險也使得很多量化私募選擇暫時觀望。據媒體報道,多家百億量化私募均表示,考慮到安全性和技術的成熟性,并沒有直接在投研中使用“龍蝦”。
有意“嘗鮮”的量化私募也普遍較為謹慎。比如,止于至善投資目前還在做模擬盤測試,暫時的設想是由AI隔離測試提投資建議,公司人工執行。
遠和資產目前也處于實驗性研究與小規模試點階段,據合伙人王小傲介紹,該公司在推進智能體落地過程中,將始終保持“開放而理性”的態度,將重點攻克安全性與準確性、數據隱私與合規、模型適配性等多方面的挑戰。比如公司建立了嚴格的沙箱測試與人工復核機制,確保智能體輸出在可控范圍內,同時嚴防核心策略邏輯與敏感數據泄露,構建私有化部署環境,還針對金融時序數據的特殊性,持續優化智能體的提示工程(Prompt Engineering)與微調策略,避免“幻覺”干擾決策。
盡管目前OpenClaw爭議與風險并存,但展望未來,受訪人士普遍對AI投資的應用前景持樂觀態度。
陶山私募投資總監張春兵對界面新聞表示:“業內普遍認為,AI在投資領域的應用前景廣,AI可能將承擔起投資研究中數據、執行、監控等基礎性和重復性工作,而邏輯、判斷、決策等創造性工作仍由管理層主導。”
賀金龍也認為,OpenClaw現在的能力和安全性尚不足以談對私募有多大影響,但趨勢已經形成,假以時日,終會讓量化私募進入AI Agent時代,從“人主導流程、AI輔助”轉向“AI高效執行輔助、人聚焦創新”,重構投研、交易、風控、組織與競爭壁壘。未來3-5年,AI將重塑投資全流程,從工具變成核心生產力;機構拼AI能力,個人享普惠紅利;風控+合規+人工審核是底線,人機協同是終局。
“AI正在徹底改變原本的投資領域工作流程,其沖擊之大并沒有被大部分人所認知”,止于至善投資總經理何理預測,“還會有一種AI原生投資的出現,區別于現在的趨勢投資、價值投資,屬于第三類投資類型,趨勢投資賺的是短期預測的錢,價值投資賺的是企業成長的錢,而AI原生投資賺的是AI能力的錢,如果說2023年是大模型的元年,人工智能時代的開始,那么2026年很明顯是AI Agent的元年,人工智能時代正在加速發展。”