前不久,在2024世界人工智能大會暨人工智能全球治理高級別會議上,AI智能體成為大會關注的焦點。
與會的多位國內外知名科技企業“掌門人”作出判斷,“智能體是未來人工智能應用發展的主要方向”“智能體能夠破解通用大模型在嚴謹產業應用的關鍵難題”,甚至認為“構建龐大AI模型的時代已經結束,AI智能體才是未來的真正挑戰”。
從智能手機中的語音助手到自動駕駛汽車,AI智能體正以一種前所未有的方式悄無聲息地融入我們的生活。那么,什么是AI智能體?它將為我們帶來哪些改變?未來的應用前景如何?請看本期關注。
具有智能的實體
顧名思義,AI智能體就是具有智能的實體,能夠自主感知環境、做出決策并執行行動,它可以是一個程序、一個系統,也可以是一個機器人。
OpenAI曾列出實現通用人工智能的五級路線圖:L1是聊天機器人;L2是推理者,即像人類一樣能夠解決問題的AI;L3是智能體,即不僅能思考,還可采取行動的AI系統;L4是創新者;L5是組織者。在這其中,AI智能體恰好位于承前啟后的關鍵位置。
作為人工智能領域的一個重要概念,學術界和工業界對AI智能體提出了各種定義。大致來說,一個AI智能體應具備類似人類的思考和規劃能力,并具備一定的技能以便與環境和人類進行交互,完成特定的任務。
或許把AI智能體類比成計算機環境中的數字人,我們會更好理解——數字人的大腦就是大語言模型或是人工智能算法,能夠處理信息、在實時交互中做出決策;感知模塊就相當于眼睛、耳朵等感官,用來獲得文本、聲音、圖像等不同環境狀態的信息;記憶和檢索模塊則像神經元,用來存儲經驗、輔助決策;行動執行模塊則是四肢,用來執行大腦做出的決策。
長久以來,人類一直在追求更加“類人”甚至“超人”的人工智能,而智能體被認為是實現這一追求的有效手段。近些年,隨著大數據和計算能力的提升,各種深度學習大模型得到了迅猛發展。這為開發新一代AI智能體提供了巨大支撐,并在實踐中取得了較為顯著的進展。比如,谷歌Deepmind人工智能系統展示了用于機器人的AI智能體“RoboCat”;亞馬遜云科技推出了Amazon Bedrock智能體,可以自動分解企業AI應用開發任務等等。
這些AI智能體的核心是人工智能算法,包括機器學習、深度學習、強化學習、人工神經網絡等技術。通過這些算法,AI智能體可以從大量數據中學習并改進自身的性能,不斷優化自己的決策和行為。AI智能體還可以根據環境變化做出靈活地調整,適應不同場景和任務。
目前,AI智能體已在不少場景中得到應用,如客服、編程、內容創作、知識獲取、財務、手機助手、工業制造等。AI智能體的出現,標志著人工智能從簡單的規則匹配和計算模擬向更高級別的自主智能邁進,促進了生產效率的提升和生產方式的變革,開辟了人們認識和改造世界的新境界。
重塑人與技術互動的方式
由于具有環境感知、記憶、觀察、思考和行動能力以及多種特性,AI智能體可以和人類交互并完成特定的任務,推動人機交互方式的創新和變革,帶來新的應用生態和產業模式——
自主性。AI智能體的核心在于“智能”,自主性是其主要特點之一。它們可以在沒有人類干預的情況下,根據預設的規則和目標,獨立地完成任務。想象一下,一輛無人駕駛車裝備了先進的攝像頭、雷達和傳感器,這些高科技的“眼睛”讓它能夠“觀察”周圍的世界,捕捉到道路的實時狀況、其他車輛的動向、行人的位置以及交通信號的變化等信息。這些信息被傳輸到無人駕駛車的大腦——一個復雜的智能決策系統,這個系統能夠迅速分析這些數據,并制定出相應的駕駛策略。例如,面對錯綜復雜的交通環境,無人駕駛汽車能夠計算出最優的行駛路線,甚至在需要時做出變道等復雜決策。一旦決策制定,執行系統便將這些智能決策轉化為具體的駕駛動作,包括但不限于轉向、加速和制動。
放眼全球多個國家,隨著無人駕駛技術的不斷進步和成熟,市場上已經興起無人駕駛網約車服務。這些無人駕駛汽車不僅減少了對人類司機的依賴,還有望顯著提升道路安全和交通效率,為我們的未來出行描繪出一幅智能化、高效化的新圖景。
交互性。在基于龐大數據和復雜算法構建的大型智能體模型中,這一特性體現得較為明顯。能夠“聽懂”并回應人類復雜多變的自然語言,正是AI智能體的神奇之處——它們不僅能夠“理解”人類的語言,還能夠進行流暢而富有洞察力的交互。
自ChatGPT問世之后,各個大模型如雨后春筍般涌現。人們僅僅需要通過簡單的指令或者問題,即可得到自己想要的答案。它們就像一個隨時待命的私人助手,可實時提供幫助。
前不久,百度公司的“文心一言”大模型也推出新功能。用戶可以根據自己的需求創建個性化聊天智能體,選擇AI智能體的性格、音色甚至方言。如果事先不了解,恐怕很多人會認為和自己聊天的是一個真實的人。
2023年11月,初創公司HumaneAI發布AIPin無屏幕可穿戴設備。這款設備通過語音、觸摸、手勢和激光投射等多模態交互的方式,為用戶提供信息和服務。
適應性。AI智能體不僅能迅速適應各種任務和環境,還能通過持續學習不斷優化自己的性能。自深度學習技術取得突破以來,各種智能體模型如繁星般點綴在人工智能的夜空中。它們通過不斷積累數據和自我完善,變得更加精準和高效。
以AlphaGo的崛起為標志,AI智能體在圍棋等策略性游戲中展現出了驚人的學習能力。游戲中,用戶只需提供初始條件和目標,智能體便能夠通過自我對弈和策略優化,迅速掌握游戲的精髓。此外,AI智能體對環境的適應性也十分強大,在倉庫工作的自動化機器人能夠實時監測并避開障礙物。當感知到某個貨架位置發生變化時,它會立即更新其路徑規劃,有效地完成貨物的揀選和搬運任務。
AI智能體的適應性還體現在它們能夠根據用戶的反饋進行自我調整。通過識別用戶的需求和偏好,AI智能體可以不斷優化自己的行為和輸出,提供更加個性化的服務,比如音樂軟件的音樂推薦、智能醫療的個性化治療……
隨著機器學習和深度學習技術的不斷進步,AI智能體的特性和學習能力還將變得更加強大,未來將更好地適應復雜多變的現實世界,為人類社會帶來更多的可能性和價值。
潛在風險不容忽視
在技術層面上,AI智能體展現出前所未有的計算能力和數據處理效率,成為現代科技發展的重要引擎之一。AI智能體通過模擬和擴展人類的認知能力,有望廣泛應用于醫療、交通、金融及國防等多個領域。有學者推測,到2030年,人工智能將助推全球生產總值增長12%左右。
不過,在看到AI智能體飛速發展的同時,也要看到其面臨的技術風險、倫理和隱私等問題。一群證券交易機器人通過高頻買賣合約便在納斯達克等證券交易所短暫地抹去了1萬億美元的價值,世界衛生組織使用的聊天機器人提供了過時的藥品審核信息,美國一位資深律師沒能判斷出自己向法庭提供的歷史案例文書竟然均由ChatGPT憑空捏造……這些真實發生的案例表明,AI智能體帶來的隱患不容小覷。
因為AI智能體可以自主決策,又能通過與環境交互施加對物理世界的影響,其一旦失控將給人類社會帶來極大威脅。哈佛大學教授齊特雷恩認為,這種不僅能與人交談,還能在現實世界中行動的AI智能體,是“數字與模擬、比特與原子之間跨越血腦屏障的一步”,應當引起警覺。
首先,AI智能體在提供服務的過程中會收集大量數據,用戶需要確保數據安全,防止隱私泄露。
其次,AI智能體的自主性越強,越有可能在復雜或未預見的情境中做出不可預測或不當的決策。AI智能體的運行邏輯可能使其在實現特定目標過程中出現有害偏差,其帶來的安全隱患不容忽視。用更加通俗的話來說,就是在一些情況下,AI智能體可能只捕捉到目標的字面意思,沒有理解目標的實質意思,從而做出了一些錯誤的行為。
再次,AI大語言模型本身具備的“黑箱”和“幻覺”問題也會增加出現操作異常的頻率。還有一些“狡猾”的AI智能體能夠成功規避現有的安全措施,相關專家指出,如果一個AI智能體足夠先進,它就能夠識別出自己正在接受測試。目前已經發現一些AI智能體能夠識別安全測試并暫停不當行為,這將導致識別對人類危險算法的測試系統失效。
此外,由于目前并無有效的AI智能體退出機制,一些AI智能體被創造后可能無法被關閉。這些無法被停用的AI智能體,最終可能會在一個與最初啟動它們時完全不同的環境中運行,徹底背離其最初用途。AI智能體也可能會以不可預見的方式相互作用,造成意外事故。
專家認為,人類目前需盡快從AI智能體開發生產、應用部署后的持續監管等方面全鏈條著手,及時制定相關法律法規,規范AI智能體行為,改進現有互聯網標準,從而更好地預防AI智能體帶來的風險、防止失控現象的發生。
(解放軍報·中國軍號出品)
摘自人人都是產品經理