Skip to Content Facebook Feature Image

毫秒級配對行程 Uber聯手AWS 引入特製晶片優化共乘與送餐系統

BasTech

毫秒級配對行程 Uber聯手AWS 引入特製晶片優化共乘與送餐系統
BasTech

BasTech

毫秒級配對行程 Uber聯手AWS 引入特製晶片優化共乘與送餐系統

2026年04月08日 11:55 最後更新:12:04

全球共乘與送餐服務公司 Uber 正擴展其在 Amazon Web Services (AWS) 上的即時基礎設施,以支援每日數百萬次的乘車與外送服務。該公司運用 AWS 客製化設計的 Graviton4 和 Trainium3 晶片,加速運算並提升 AI 模型訓練效能。

Graviton 晶片實現毫秒級行程配對

Uber 的「行程服務區域」(Trip Serving Zones) 系統是每次乘車與送餐背後的即時基礎設施,需要在毫秒內處理數百萬次預測與定位資訊。透過將更多工作負載移至 AWS Graviton 執行個體,Uber 得以降低能源消耗、快速應對需求高峯,並在減少延遲的同時優化成本。Uber 工程副總裁 Kamran Zargahi 表示,此舉讓公司能更靈活地加快配對乘客與駕駛,並在不中斷服務的情況下處理外賣需求高峯。

AP圖片

AP圖片

試用 Trainium 晶片優化 AI 模型

與此同時,Uber 已開始試用 AWS Trainium 晶片來訓練支援其應用程式的部分 AI 模型。這些模型分析數十億次行程與送餐數據,以決定司機或送餐員的派遣、計算抵達時間,並向客户推薦最佳選項。Trainium 以高效能且具成本效益的方式,滿足大規模訓練 AI 所需的龐大運算能力。Zargahi 指出,此技術基礎旨在讓每次 Uber 體驗都更智慧,公司能更專注於服務每日用户。

AWS 北美區副總裁兼總經理 Rich Geraffo 表示,AWS 很榮幸能為 Uber 的全球營運提供關鍵基礎設施支援,協助其為數億人提供可靠服務,並以 AI 驅動的體驗定義共乘與按需送餐的未來。

AWS Trainium 晶片用於訓練 Uber 的人工智慧模型

AWS Trainium 晶片用於訓練 Uber 的人工智慧模型

4月8日上午,人工智能公司DeepSeek在其網頁端及iOS應用程式的頁面出現更新,對話頁面新增「快速模式」與「專家模式」兩種選項。其中,快速模式標註為「適合日常對話,即時響應」,而專家模式則標註為「擅長複雜問題,高峯需等待」。兩種模式下,用户均可選擇是否開啟「深度思考」和「智能搜索」功能。

DeepSeek。AP資料圖片

DeepSeek。AP資料圖片

專家模式專攻專業領域

此次推出的「專家模式」新增了編程、法律、醫學等多個領域的專業知識諮詢能力。業內人士分析認為,「專家模式」很可能使用了更大、更強的模型,極有可能是DeepSeek-V4正式版的某個形態。

DeepSeek推專家模式

DeepSeek推專家模式

DeepSeek-V4技術細節

資料顯示,DeepSeek-V4是由杭州深度求索人工智能基礎技術研究有限公司研製的大模型,為DeepSeek-V3的迭代版本,計劃於2026年發布。該模型專注於代碼生成能力,在超長代碼提示處理、數據模式理解與推理能力方面實現了技術突破,可支持數萬行代碼庫的上下文理解。模型採用了混合專家架構(MoE)和流形約束超連接(mHC)技術,總參數達6710億,推理激活參數為370億,並在訓練中應用了MLA多頭潛在注意力機制。

或與早前死機事件有關

在4月初,「DeepSeek死機」曾一度登上網絡熱搜。當時業內便有猜測,事件可能與DeepSeek-V4進行隱身測試有關,或意味著DeepSeek-V4的發布已臨近。

你 或 有 興 趣 的 文 章