北京時間 4 月 10 日凌晨,Google Cloud Next 2025 正式揭開序幕。
如果用「AI 屆的蘋果發(fā)布會」來形容每年的英偉達硬件發(fā)布會,那「AI 屆的 CES」或許更適合用來形容今年的 Google Cloud Next;雖然同樣令人興奮,但每一個來到現(xiàn)場的人都帶著自己的問題,現(xiàn)場隨處可見各種務實的交流。
三個月前,同樣是拉斯維加斯,這個場館這個舞臺上,黃仁勛同樣以 AI 為主題的演講,揭開了 CES2025 的序幕。
但即使是老黃的主題演講,都不及今天的 Google Cloud Next 開幕主題演講座無虛席;即使場內(nèi)已經(jīng)人滿為患,仍然有大量的人在門口排隊,等待有空缺位置時第一時間入場。
之所以沒有老黃的個人魅力,Google 的動作仍然能被如此多的業(yè)界人士關注,顯然是因為 Google 如今在 AI 模型應用部署領域的統(tǒng)治地位。有了 Gemini 2.5 Pro 的打底,Google 今年在 AI 領域的影響力已經(jīng)處于第一梯隊,但對于 Google Cloud 來講,如何將這部分能力,轉化給全世界的用戶的實際使用中,才是這屆 Next25 最需要給全球用戶解答的問題。
不僅有針對推理模型優(yōu)化的第一代 Google Tensor TPU 芯片,還有 Gemini 能力在 Google Workspace 生態(tài)中的進一步「植入」,甚至祭出了「本地部署 Gemini」這樣的大招。以及讓不少業(yè)內(nèi)人士感到興奮的「Agent2Agent」溝通協(xié)議。
僅僅是首日的主題演講,Google 就已經(jīng)展現(xiàn)出幾乎是在 AI 應用領域「全方位出擊」的產(chǎn)品規(guī)劃,并且在幾乎每一個領域都拿出了業(yè)內(nèi)最前沿的思考與解決方案。
難怪有不少網(wǎng)友,在看完 Google Cloud Next 25 的主題演講全部內(nèi)容后,直呼「Google 真的是目前大模型廠商中開啟了「上帝模式」的選手」。
新模型
作為 Google CEO 皮查伊上臺親自發(fā)布的產(chǎn)品,Gemini 2.5 Flash 與它的前輩 Gemini 2.5 Pro 不同,這是一款「提供強大性能的同時注重效率」的推理模型。
據(jù)皮查伊介紹,Gemini 2.5 Flash 主打賣點是提供「動態(tài)且可控的」計算能力,允許開發(fā)者根據(jù)查詢的復雜性,手動調(diào)整處理時間?!改憧梢愿鶕?jù)具體需求調(diào)整速度、準確性和成本之間的平衡。這種靈活性對于在高流量、成本敏感的應用中優(yōu)化模型的性能至關重要」。
根據(jù)在現(xiàn)場與 Google 工程師的交談,他指出 2.5 Pro 在處理一些簡單的問題時,仍容易出現(xiàn)「過度思考」導致其響應速度大幅降低的問題。這也是 2.5 Flash 在體驗中力求解決的難點。但最終他們的目標,還是進一步改善模型的動態(tài)思考能力,并將更多控制權開放給用戶。
作為打響大模型性價比大戰(zhàn)第一槍的選手,Google 還特別提到了與 DeepSeek R1 這樣「價格較低但性能良好的模型」的對比,表示 2.5 Flash 非常適合在「高流量」和「實時」應用的商用場景——例如客戶服務和文檔解析。
除了新模型,Google 還放出了將最新模型「本地部署」這樣的策略,來讓已經(jīng)有自己數(shù)據(jù)中心、或是有著更高數(shù)據(jù)管理要求的客戶,能夠使用現(xiàn)有的硬件設施,快速在自己的服務中部署 Gemini 2.5 Flash 的能力。
Google 計劃從第三季度開始,將 2.5 Flash 這樣的 Gemini 模型引入本地部署環(huán)境。該公司的 Gemini 模型將可在 Google Distributed Cloud ( GDC ) 上使用,同時表示 Google 也正在與英偉達合作,將 Gemini 模型引入符合 GDC 規(guī)范的 Nvidia Blackwell 系統(tǒng)。
新工具
作為 Google Cloud 托管的 AI 工具部署平臺,Vertex AI 也在今天得到了幾乎是「全模態(tài)」的更新,新的視頻、圖像、語音和音樂生成 AI 工具都將登陸 Vertex AI。
其中最值得關注的,就是視頻生成模型 Veo 2 的更新,新增的編輯和相機控制功能,除了可以自動「從視頻中移除不需要的背景圖像、徽標或干擾物」。還能將原始視頻的畫面擴展,進一步填充原本的空白內(nèi)容。這個工具會用 AI 生成的、能與原始片段融合的視頻素材來填充新的空間。
此次更新還允許 Veo 2 用戶在生成素材時,除了文本描述外,還可以選擇電影技巧預設,用于指導最終結果中的鏡頭構圖、攝像機角度和節(jié)奏。包括延時攝影效果、無人機風格的第一人稱視角(POV)以及模擬不同方向的攝像機平移。
此外,本次更新還增加了一個新的插值(Interpolation)功能,可以在兩個靜態(tài)圖像之間創(chuàng)建視頻過渡,用新的幀填充開頭和結尾序列。
只需給出一個起始幀和最終幀,Veo 2 就會生成連接兩者的視頻。
文本轉圖像模型 Imagen 3 的編輯功能也得到了更新,Google 表示本次更新「顯著」改進了自動對象移除時的自然效果。
據(jù)現(xiàn)場相關業(yè)務負責人介紹,Veo 2 和 Imagen 3 已經(jīng)被歐萊雅等公司用于設計營銷內(nèi)容。負責人 Justin Thomas 表示,過去「需要八周才能完成的圖像處理任務,現(xiàn)在只需八小時」。
這些更新發(fā)布之后,使 Vertex AI 成為目前市面上唯一一個覆蓋了視頻、圖像、語音和音樂的內(nèi)容生成模型的平臺。
除了面向當下需求的新工具,Google 還公布了一項新的開放協(xié)議—— Agent2Agent ( A2A ) ,旨在連接不同生態(tài)系統(tǒng)中的 AI Agents。
這個概念聽起來似乎與時下非常流行的 MCP 協(xié)議有些相似之處,但不同之處在于,MCP 是為了解決 LLM 與工具之間的溝通,而 A2A 則是 Agent 與 Agent 之間的對話,就像是屬于 AI 的全新語言。
Google 表示,A2A 協(xié)議將使企業(yè)能夠更便捷地部署 AI Agent 產(chǎn)品,因為它解決了構建在不同供應商生態(tài)系統(tǒng)上的代理無法相互通信的挑戰(zhàn)。
在現(xiàn)場,還演示了一個具體的案例:例如在同一個 UI 界面下,系統(tǒng)可以使用一個 Agent 來根據(jù)位置與技能,在面試中篩選候選人,在篩選完成、并且完成初步的面試后,系統(tǒng)可以自動將生成的信息快速傳輸給另一個設計用于候選人背景審查的 AI Agent 工具,在這個過程中,大幅降低 AI 與 AI 之間的信息損耗。
Google 同時還介紹,A2A 協(xié)議建立在現(xiàn)有流行的標準之上,包括 HTTP、SSE 和 JSON-RPC;其中 HTTP 是網(wǎng)絡通信的基礎,而 SEE 和 JSON-RPC 分別是向客戶端服務器發(fā)送更新的基礎協(xié)議,以及應用程序使用 JSON 消息進行遠程相互通信的基礎協(xié)議。
盡可能多的利用現(xiàn)有的協(xié)議,目標是能夠盡可能降低這個全新的協(xié)議,在現(xiàn)有服務中部署的難度,使其更容易與企業(yè)已在使用的現(xiàn)有 IT 堆棧集成。即使這仍然是一個短期內(nèi)充滿挑戰(zhàn)的事,但仍然讓現(xiàn)場的不少開發(fā)者感到興奮,隨處可以聽到關于這個「Agent 之間的新語言」的討論。
新硬件
對于 Google 來講,在 AI 領域的統(tǒng)治級地位,除了提供完善的軟件能力,在硬件領域多年的投入帶來的成果如同左右手一般必不可少,因此今天除了一系列軟件服務更新,Google 今天還發(fā)布了最新的第七代 Tensor 處理單元(TPU)Ironwood。
據(jù) Google 介紹,Ironwood TPU 是 Google「迄今為止性能最強、可擴展性最高且能效最高的定制 AI 加速器」,并且是「首款專為推理設計」的 TPU。
Ironwood 每個獨立芯片提供 4614 TFLOPs 的峰值計算能力。而包括 9216 顆 TPU 的集群總共擁有 42.5 Exaflops 的計算能力,是世界上目前最大的超級計算機 El Capitan(每個集群提供 1.7 Exaflops)計算能力的 24 倍以上。
如果這還不足以直觀的體現(xiàn) Ironwood 性能的蒙正,作為云計算 TPU 硬件領域的大廠,Google 還回顧了從 2018 年到 2025 年的研發(fā)歷程 —— TPU 的性能增長了 3600 倍。
據(jù) Google 介紹,性能巨幅提升的 Ironwood,旨在針對性滿足思維模型所要求的不同計算需求,這些模型「包括大型語言模型(LLM)、混合專家模型(MoE)和需要「大規(guī)?!共⑿刑幚砗透咝У膬?nèi)存訪問的高級推理任務」。
在前沿領域,思維模型的計算需求遠遠超出了任何單個芯片的能力。因此我們設計的 Ironwood TPU 具有低延遲、高帶寬的 ICI 網(wǎng)絡,以支持在整個 TPU 單元級規(guī)模上進行協(xié)調(diào)、同步的通信。
結語
當你看到這篇文章時,Google Cloud Next 25 的主題演講已經(jīng)結束,但正式的會議日程才剛剛開始。
就像本次 Next 25 的口號一樣,來這里的每個人都想知道「AI for what's next?」的答案,主題演講中發(fā)布的一系列工具,只是 Google Cloud 對此的回答。
作為當下最大的「AI 基礎設施」供應商,Google Cloud 不僅需要提供更多現(xiàn)有的工具:更好的模型能力,更豐富的平臺、更適合的算力硬件。
在市面上,你幾乎再也難以找到像 Google Cloud 這樣,給用戶提供了「一站式解決方案」的廠商,因此在現(xiàn)場的溝通中,「One and only」是現(xiàn)場很多開發(fā)者的聲音。
Google 在 AI 領域的地位,也讓 Google Cloud Next 作為溝通平臺的價值急劇提升,在前沿技術的土壤中,作為「AI 時代的基礎設施」,幫助更多用戶,建立起更多滿足新時代需求的 AI 生態(tài),或許才是 Google Cloud 未來的「核心價值」。