AI Agent Agentic AI 生成式AI 人工智慧 大型語言模型 LLM

Gartner示警小心「蹭Agent」方案 推理跟創意是分辨依據

助理若添類Agent能力 需求未必非AI代理人不可

2025-04-16
AI代理人與代理式AI有著技術領域上的差異,AI代理人比較偏向單一可執行的任務,而代理式AI則是可以串連多個不同的任務,而且會再加上ReAct(Reasoning and Acting)的過程,亦即代理式AI會依據其推理來執行它認為該執行的任務。」

面對瞬息萬變的技術演進與激烈競爭,尋找新的方法來滿足客戶需求、提高效率與獲利能力,已成為企業突破重圍的重要關鍵。隨著AI代理人(AI Agent)以及代理式AI(Agentic AI)掀起熱潮,不少企業也開始思考應用落地的可能性。根據Gartner預測,到了2028年,有33%的企業軟體應用程式將包含代理式AI,而2024年僅僅不到1%;此外,至少有15%的日常工作也將在2028年透過自主的代理式AI來做出決策。

儘管看好AI代理人與代理式AI的應用潛力,近期Gartner研究副總裁孫鑫卻提醒企業要小心「Agent Washing」現象,這指的是有些供應商可能會誇大其產品的功能,將現有技術重新品牌化為AI Agent,然而實際上卻未能驗證這些聲稱的Agent真實的能力,從而導致市場混淆並且產生誤導性的投資。他強調,AI代理人並不是大型語言模型,也不是一組指令,更並非自動化軟體中的功能,當然,來自於機器人流程自動化(RPA)的工作流任務也不是AI Agent。

代理式AI才具備多工多推理能力

叡揚資訊系統發展與運帷事業群副總經理符文藻指出,大多數的人對AI代理人或代理式AI的界定並不是很清楚,以為就像科幻電影所描述的一樣,只要說出一個需求,Agent就會利用理解語言的能力去完成這件任務或工作,同時又可以再利用其所具備的大型語言模型(LLM)的推理或創意能力去建議或協助做更多的事情。但實際上AI代理人與代理式AI有著技術領域上的差異,AI代理人比較偏向單一可執行的任務,而代理式AI則是可以串連多個不同的任務,而且會再加上ReAct(Reasoning and Acting)的過程,亦即代理式AI會依據其推理來執行他認為要執行的任務。」

舉例而言,某位使用者打算南下高雄請AI Agent幫忙訂從台北到高雄的高鐵票,但是除了呼叫高鐵定位的API完成訂票動作外,這個Agent還主動查詢高雄的天氣預報,並發現預報指出當天會下雨,於是Agent貼心地提醒使用者要記得帶雨傘,「本來的任務只是訂高鐵票,到最後卻多想一步提醒使用者帶傘,這就應用到了代理式AI的推理與創意能力。」

兩大風險影響AI Agent落地

然而他也提到,以目前的現況而言,不管是訂高鐡票或是提醒帶雨傘的情境,都還是偏理想化的結果,實務上,AI代理人能夠執行多少任務,背後還是需要仰賴工程師賦予該Agent足夠多的能力才有辧法做到。換句話說,工程師們要先把工具的接口都先開發好,以便讓Agent呼叫,然而也因為如此,風險也隨之攀升。

其中一個風險就是資料外洩的疑慮。開發工具的過程中,免不了需要對外串接API,例如想要有查詢天氣預報的能力,就需要呼叫氣象署的API,同樣地想要訂高鐵票,就要呼叫高鐡公司的API。雖然在開發過程中,工程師都會告訴Agent應該要從使用者的話語裡擷取哪些關鍵字,例如城市名、日期等等,但是萬一LLM不小心擷取錯誤的內容,一樣會把這些內容傳送出去並呼叫外部的API。然而,企業原本就是擔心核心任務的資料會外洩,才選擇在地端自建大型語言模型,結果串接外部工具後,反而提高了資料向外傳輸的風險。

叡揚資訊系統發展與運帷事業群副總經理符文藻認為,以目前的技術發展現況來看,企業不該為了AI Agent而AI Agent,在既有的方案中打造類似AI Agent的服務更為可行。

另一個風險則來自於大型語言模型產生幻覺所導致的錯誤。代理式AI依靠的是LLM的理解能力與推理創造的能力。但只要是LLM就會有幻覺的問題,就算是只呼叫企業內部的現有系統,例如原本是要進入某個業務系統查閱客戶的購買記錄,因為呼叫錯誤反而查閱了客戶的退貨記錄,這將導致流程出現混亂,對企業來說也是不樂見的。

「實際上我們的經驗是,當設定的工具越多,Agent的判斷力也會隨之下降。因為Agent在呼叫工具之前,必須要先理解這項工具的用處,當工具太多,Agent就不知道該如何選擇,特別是有些API的定義有點相似的時候,難免會理解錯誤,如同上述的案例,原本是要查閱客戶的購買記錄,卻呼叫了查閱客戶退貨記錄的API。」符文藻提到,不少大型企業或是政府機構其實都很難接受AI代理人可能會發生錯誤狀況,特別是核心任務的應用場景,只要有一次錯誤,造成的負面影響可能難以估計,因此目前優先還是會先應用在客服機器人的場景中,萬一推薦錯誤或是沒有提醒帶傘,也不會有太大的影響。「如果是核心應用,確實還不到時候。」

在助理平台架設類AI代理人服務

「企業不該為了AI Agent而AI Agent,」他建議,如果使用者的需求只是希望能達成某個任務,或把特定事情做好,那麼背後的技術到底是完全依靠大型語言模型的理解、創造能力,還是在其中加入某些規則來實現,在感受上並不會有太大的差異。特別是當企業無法接受機器人出錯時,原先的解決方案可能會是較好的解方。

如果企業真的無法接受AI代理人有出錯的可能性,但又希望能做到類似AI Agent的服務,其實可以考慮運用低程式碼或無程式碼(Low-Code/No-Code)的方式,在原先的助理(Assistant)平台上,例如C.ai對話服務平台,設多種服務,讓每一個服務都具有一個類似於Agent的能力,如以自然語言查找資料、填單/簽核、詢問規章問題等,這種方式反而更為可行。一方面這些能力都是企業IT自主依其SOP及習慣量身訂作,無需逐案外包客製或大量寫程式,可減少導入成本,二方面,員工也只要面對單一智慧助理,就能快速處理各種流程服務。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!