亞馬遜雲端推出AI代理功能,讓AI成為助理而不僅是聊天
澎湃新聞-邵文 / 何渝婷編譯
2023-07-28 09:23

(示意圖/取自pixabay)

亞馬遜雲端科技數據庫、數據分析和機器學習全球副總裁斯西瓦蘇布拉馬尼安(Swami Sivasubramanian),日前在紐約峰會上演講。

在亞馬遜雲端科技(AWS)年度峰會之一的紐約峰會上,多項發表都緊緊圍繞生成式人工智慧。

「這項技術已經達到了臨界點。」西瓦蘇布拉馬尼安表示。

美東時間7月26日,在紐約峰會上,AWS推出生成式AI服務Amazon Bedrock的Agents(代理)功能,助力基礎模型完成複雜任務。「這將使公司能夠構建可以自動執行特定任務的AI應用程式,例如預訂餐廳,而不僅僅是得到去哪裡吃飯的建議。」西瓦蘇布拉馬尼安表示。

除此之外,AWS還推出了新的人工智慧工具,包括編程助理Amazon CodeWhisperer正式可用、用於在患者就診後生成臨床記錄的智慧醫療新服務Amazon HealthScribe以及分析服務Amazon Entity Resolution等;同時其宣布,加速生成式AI和高性能運算應用Amazon EC2 P5實例正式可用。

亞馬遜雲端科技生成式AI全球副總裁菲羅明(Vasi Philomin)對澎湃科技記者(www.thepaper.cn)分享道,在所有的發表中,他最關注和引以為傲的就是代理(Agents)功能。「很多人都如此聚焦於這些模型和模型的大小,但我認為真正重要的是如何利用它們建構應用,這也是今天發布代理(Agents)功能的一個重要原因。」

人工智慧代理競賽

像OpenAI的GPT-4或Meta的Llama 2等生成式AI模型功能強大,但在沒有額外幫助(例如插件)的情況下,實際上其無法為用戶自動執行某些任務。

Amazon Bedrock提供了一種通過新創公司以及亞馬遜雲端科技本身的預訓練模型來建構生成式AI應用程序的方法,而無需投資伺服器。

Amazon Bedrock的代理(Agents)功能讓公司可以使用自己的數據來教授基礎模型,然後建構其他應用程序來完成任務。

開發人員可以選擇使用哪個基礎模型,提供一些說明,並選擇模型讀取哪些數據。

這類似於OpenAI最近為GPT-4和ChatGPT推出的插件系統,該系統通過讓模型利用第三方API和數據庫來擴展模型的功能。

事實上,最近出現了一種「個性化」生成模型的趨勢,Contextual AI等新創公司建構了工具來利用企業數據增強模型。

舉個例子,如旅遊公司可以使用生成式人工智慧來提供旅行建議,然後建構另一個代理(Agents)來接收用戶的旅行歷史和興趣,再利用一個代理來查找航班時刻表,最後建構一個代理來預訂所選航班。

對代理(Agents)有熱情的不止AWS,今年4月,Meta執行長祖克柏 (Mark Zuckerberg) 也告訴投資者,他們有機會將人工智慧代理(Agents)「以有用且有意義的方式帶給數十億人」;今年7月,OpenAI執行長奧特曼(Sam Altman)在接受《大西洋月刊》採訪時,深入探討了人工智慧代理以及如何最好地實現。

《路透社》在7月報導指出,「自主」人工智慧代理(Agents)的競賽席捲了矽谷,其以一家新創公司為例,Inflection AI在6月底籌集了13億美元資金。

據其創辦人在Podcast中透露,該公司正在開發一款私人助理,據稱可以充當導師或處理諸如在旅行延誤後獲得航班積分和酒店等任務。

7月26日,西瓦蘇布拉馬尼安在接受媒體採訪時表示,索尼 (SONY)、瑞安航空 (Ryanair)、永明(Sun Life)等客戶都已經試用了Amazon Bedrock。

西瓦蘇布拉馬尼安指出,Amazon Bedrock將「很快」向所有客戶開放,他拒絕透露具體時間,並補充說公司的目標是首先解決成本分配和企業控制方面的問題。

Amazon Bedrock服務於四月份推出,當時Amazon Bedrock提供Amazon Titan(AWS自己的基礎模型)以及由stable.ai、AI21Labs 和Anthropic創建的模型。

此次在紐約峰會上,AWS宣布新增Cohere作為基礎模型供應商,加入Anthropic和Stability AI的最新基礎模型聊天機器人。

Cohere的命令文本生成模型經過訓練可以遵循用戶提示並返回摘要、副本和對話,該工具還可以提取資訊並回答問題。

AWS平台可調用NVIDIA H100晶片

在紐約峰會上,AWS也推出由NVIDIA H100晶片提供支持的Amazon EC2 P5實例。

某種程度上,這是AWS與NVIDIA十多年合作的一個重要里程碑。

H100 GPU的顯著特點之一是對Transformer的優化,這是大型語言模型所採用的一項關鍵技術。

Amazon EC2 P5實例提供8個NVIDIA H100 GPU,具有640 GB高頻寬GPU記憶體,同時提供第三代AMD EPYC處理器、2TB系統記憶體和30 TB本地NVMe儲存,用於加速生成式AI和高性能運算應用。

Amazon EC2 P5與上一代基於GPU的實例相比,訓練時間最多可縮短6倍(從幾天縮短到幾小時)。

據AWS介紹,與上一代相比,這一性能提升將降低40%的訓練成本。

實際上,從2013年推出首顆Amazon Nitro晶片至今,AWS是最先涉足自研晶片的雲端廠商,已擁有網路晶片、伺服器晶片、人工智慧機器學習自研晶片3條產品線。

2023年初,專為人工智慧打造的Amazon Inferentia 2(可通過晶片之間的直接超高速連接支持分散式推理)發表,最多可支持1750億個參數,這使其成為大規模模型推理的有力競爭者。

對於是否擔心提供NVIDIA H100晶片會降低AWS自研晶片的吸引力,菲羅明對澎湃科技(www.thepaper.cn)回應道:「我們對競爭持歡迎態度,硬體每隔幾年都會變得更好,這是一種常態,而目前一個重要問題是生成式AI的成本相當高,這就是為什麼沒有人真正將其投入到生產工作負載中,每個人都還在試驗階段。一旦將其真正投入生產工作負載中,他們會意識到90%的成本都是由其產生,最好的情況是,每次調用都不會虧錢,而是真正賺錢。為了實現這一點,我認為我們需要競爭。」

本文為巴比特授權刊登,原文標題為「亞馬遜雲推出AI代理功能,讓AI成為助理而不僅是聊天