即使一個智能體的準確率達到99%,這也不總是足夠好,如果它優化的是食品配送路線,那就意味著每100個訂單中就有一個會被送到錯誤的地址,在商業環境中,這種失敗率是不可接受的,它成本高昂、風險巨大,并且難以向客戶或監管機構解釋。
在像金融、醫療和運營這樣的現實世界環境中,真正能帶來價值的AI系統與那些前沿幻想截然不同,它們不是在開放世界中即興發揮;而是解決定義明確、輸入清晰、結果可預測的問題。
如果我們繼續用半成熟的技術去追求開放世界問題,我們將會浪費時間、金錢和信任,但如果我們專注于眼前的問題,那些具有明確投資回報率和明確界限的問題,我們就能讓AI在今天發揮作用。
本文旨在撥開炒作迷霧,構建真正能夠運行并提供幫助的智能體。
開放世界炒作的弊端
科技行業喜歡冒險(我本人也喜歡)。目前,這個冒險就是開放世界AI——能夠處理任何事情、適應新情況、即時學習并在信息不完整或模糊的情況下操作的智能體。這是通用智能的夢想:不僅能夠推理,還能即興發揮。
什么使問題成為“開放世界”問題?
開放世界問題由我們所不知道的因素定義。
更正式地說,根據定義這些復雜環境的研究,一個完全開放的世界具有兩個核心特性:
• 時間和空間是無界的:智能體的過去經驗可能不適用于新的、未見過的場景。
• 任務是無界的:它們不是預先確定的,可以動態地出現。
在這種環境中,AI在信息不完整的情況下運行;它不能假設未知為假,它只是未知,AI需要適應這些未預見的變化和新穎任務,這對當前AI能力來說是一個極其困難的問題集。
大多數企業問題并非如此
相比之下,封閉世界問題是那些范圍已知、規則明確且系統可以假設它擁有所有相關數據的問題。如果某事未明確為真,則可以視為假。這些是大多數企業每天實際面臨的問題:發票匹配、合同驗證、欺詐檢測、索賠處理、庫存預測。
這些用例通常不會成為頭條新聞,但它們是企業真正關心解決的問題。
炒作的危害與不作為的風險
然而,炒作是有害的:通過將標準設定在開放世界通用智能上,我們讓企業AI顯得遙不可及。領導者聽到能夠做所有事情的智能體,然后他們猶豫了,因為他們不知道從哪里開始。問題感覺太大、太模糊、太風險。
這就像試圖在設計出工作內燃機之前就設計自動駕駛汽車。夢想很激動人心,但跳過基礎保證失敗。
解決眼前的問題
開放世界問題適合做精彩的演示和更好的融資輪,但封閉世界問題才是今天真正有價值的地方,它們是可解決的、可測試的、可自動化的,它們存在于每個企業中,等待著合適的系統來解決。
問題不是AI是否最終會解決開放世界問題。問題是:你現在能部署什么來讓你的企業更快、更智能、更可靠?
企業智能體的真實面貌
當人們今天想象智能體時,他們傾向于想象一個聊天窗口。用戶輸入提示,智能體給出一個有用的回答(甚至可能觸發一兩個工具),這適用于演示和消費者應用,但不是企業AI在實際中的工作方式。
在企業中,大多數有用的智能體不是由用戶發起的,而是自主的。
它們不會閑坐著等待人類提示,它們是長期運行的流程,對流經企業的數據做出反應,它們做出決策、調用服務并產生輸出,連續且異步地運行,無需被告知何時開始。
想象一個監控新發票的智能體。每當有發票到達時,它提取相關字段,與未結采購訂單進行核對,標記不匹配項,并根據情況將發票路由以進行批準或拒絕,而無需任何人要求它這樣做,它只是監聽事件(“收到新發票”)并開始工作。
或者考慮客戶入駐。一個智能體可能會監聽新賬戶創建的時刻,然后啟動一系列操作:驗證文件、運行了解你的客戶(KYC)檢查、個性化歡迎體驗并安排后續消息。用戶永遠不知道智能體的存在。它只是可靠地、實時地運行。
這就是企業智能體的真實面貌:
• 它們是事件驅動的:由系統中的變化觸發,而不是用戶提示。
• 它們是自主的:無需人類發起即可行動。
• 它們是連續的:不會為了單個任務而啟動然后消失。
• 它們主要是異步的:在后臺工作,而不是在阻塞的工作流中。
你不會通過微調一個大型模型來構建這些智能體。你通過將現有模型、工具和邏輯連接在一起來構建它們,這是一個軟件工程問題,而不是建模問題。
本質上,企業智能體只是具有智能的現代微服務。你給它們訪問事件的權限,給它們正確的上下文,并讓一個語言模型驅動推理。
智能體 = 事件驅動的微服務 + 上下文數據 + LLM
做得好的話,這是一個強大的架構模式。這也是一種思維方式的轉變。構建智能體不是追逐人工通用智能(AGI),它是關于將實際問題分解為更小的步驟,然后組裝能夠處理它們的專門、可靠的組件,就像我們在優秀的軟件系統中一直所做的那樣。
我們以前解決過這類問題
如果這聽起來很熟悉,那它應該是。我們以前經歷過。
當單體應用無法擴展時,我們將其分解為微服務。當同步API導致瓶頸和脆弱系統時,我們轉向了事件驅動架構。這些是從幾十年構建現實世界系統中得來的來之不易的教訓。它們之所以有效,是因為它們為復雜系統帶來了結構和確定性。
我擔心我們開始忘記那段歷史,并在構建AI的方式上重復同樣的錯誤。
因為這不是一個新問題。這是同樣的工程挑戰,只是有了新的組件,而現在,企業AI需要同樣的原則來讓我們到達這里:清晰的界限、松散的耦合和從一開始就設計為可靠的系統。
AI模型不是確定性的,但你的系統可以是
在大多數企業中值得解決的問題是封閉世界的:具有已知輸入、明確規則和可衡量結果的問題。但我們使用的模型,特別是LLM,本質上是非確定性的,它們按設計是概率性的。相同的輸入可能會根據上下文、采樣或溫度產生不同的輸出。
當你回答提示時,這沒問題,但當你運行一個業務流程時?這種不可預測性是一個責任。
因此,如果你想構建生產級的AI系統,你的工作很簡單:將非確定性模型包裹在確定性的基礎設施中。
在模型周圍構建確定性
• 如果你知道某個特定工具應該用于某項任務,不要讓模型決定,直接調用該工具。
• 如果你的工作流程可以靜態定義,不要依賴動態決策,使用確定性的調用圖。
• 如果輸入和輸出是可預測的,不要通過過度復雜化智能體邏輯來引入歧義。
太多團隊在每次構建智能體時都在重新發明運行時編排,讓LLM決定下一步做什么,即使步驟是事先已知的。你只是在讓自己的生活更艱難。
事件驅動的多智能體系統的優勢
事件驅動的多智能體系統將問題分解為更小的步驟。當你將每個步驟分配給一個專門構建的智能體并通過結構化事件觸發它們時,你最終會得到一個松散耦合、完全可追蹤的系統,它按照企業系統應有的方式工作:具有可靠性、問責制和明確的控制。
并且因為它是事件驅動的:
• 智能體不需要知道彼此的存在。它們只是響應事件。
• 工作可以并行進行,加速復雜流程。
• 失敗是隔離的,可以通過事件日志或重試來恢復。
• 你可以單獨觀察、調試和測試每個組件。
不要追求魔法
封閉世界問題不需要魔法,它們需要扎實的工程,這意味著將LLM的靈活性與良好軟件工程的結構相結合。如果某事可以做成確定性的,那就做成確定性的。將模型留給真正需要判斷的部分。
這就是你如何構建不僅在演示中看起來很好,而且在實際中能夠運行、擴展和交付的智能體。
為什么在開放世界中測試如此困難
在構建智能體時,測試是最被忽視的挑戰之一,但它對企業來說絕對至關重要。
在開放世界環境中,幾乎不可能做好。問題空間是無界的,因此輸入可以是任何東西,期望的輸出往往是模糊的,甚至成功的標準也可能根據上下文而變化。
你如何為幾乎可以做任何事情的系統編寫測試套件?你不能。
這就是為什么開放世界智能體在實際中如此難以驗證。你可以測量孤立的行為或對狹窄任務進行基準測試,但除非你已經在組合上非常大的情況空間中看到了它的表現(這是沒有人做到的),否則你不能信任這個系統端到端。
相比之下,封閉世界問題使測試變得可行,輸入是受限的,期望的輸出是可定義的,你可以編寫斷言,你可以模擬邊緣情況,你可以知道“正確”是什么樣子。
如果你更進一步,使用事件驅動架構將智能體邏輯分解為更小、范圍明確的組件,那么測試將變得更加可行,系統中的每個智能體都有狹窄的職責,它的行為可以獨立測試,它的輸入和輸出可以被模擬或重放,并且它的性能可以單獨評估。
當系統是模塊化的,并且每個模塊的范圍是封閉世界時,你可以構建真正給你信心的測試集。
這是生產AI中信任的基礎。
構建正確的基礎
企業AI的未來不是從AGI開始的,它是從自動化開始的,這種自動化是有效的,這意味著專注于結構化、有界且充滿實際影響機會的封閉世界問題。
你不需要一個能做所有事情的智能體,你需要一個能夠可靠地做某件事情的系統:
• 一個正確路由的索賠。
• 一個準確解析的文檔。
• 一個按時跟進的客戶。
這些勝利會累積起來,它們降低成本、釋放時間并建立對AI作為堆棧中可靠部分的信任。
并且達到那里不需要在提示工程上取得突破,也不需要押注下一個模型能夠神奇地通用化,它需要好的工程師一直所做的事情:分解問題、構建可組合的系統并以可測試和可觀察的方式將組件連接在一起。
事件驅動的多智能體系統不是靈丹妙藥,它們只是一種以結構化方式與不完美工具合作的實用架構,它們讓你隔離需要智能的地方,限制不需要智能的地方,并構建即使單個部分不可預測時也能表現可預測的系統。
這不是關于追逐前沿,這是關于將基本軟件工程應用于一類新的問題。
企業網D1net(m.hfnxjk.com):
國內頭部to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。