GTC發布AI“王炸”套餐,英偉達即將顛覆工業革命的未來

作者:程琳琳 責任編輯:程琳琳 2024.03.19 13:14 來源:通信世界全媒體

通信世界網消息(CWW)“這是一場開發者大會,不是一場發布會?!?/span>

雖然英偉達CEO黃仁勛一再強調這是一場技術大會,但是在大洋彼岸的圣何塞,GTC依然開出了演唱會的架勢,人山人海,全場沸騰,多少人徹夜無眠,密切關注著這場人工智能領域的頂級行業盛會——3月18日舉辦的英偉達GTC大會。

GTC是英偉達一年一度規模最大的技術盛會。在今年的GTC舞臺上,英偉達亮出了多個最新的人工智能重磅產品。如:

面向工業革命的Blackwell GPU、

面向人形機器人的Project GR00T、

專為大規模AI量身訂制的全新網絡交換機-X800系列、

面向自動駕駛汽車的下一代集中式計算平臺NVIDIA DRIVE Thor,

以及生成式AI微服務……

這一系列的“王炸”套餐讓我們充分意識到,英偉達的人工智能早已不再是實驗室產品,它已經走向社會,走向工業,走向未來,開始深切地改變人們的生產和生活。

image.png

Blackwell平臺成為工業革命新引擎

發布會一開始,英偉達便亮出了“核彈”級AI產品Blackwell GPU。

Blackwell GPU架構搭載六項變革性的加速計算技術,能夠在擁有高達10萬億參數的模型上實現AI訓練和實時LLM推理,這些技術將助推數據處理、工程模擬、電子設計自動化、計算機輔助藥物設計、量子計算和生成式AI等領域實現突破,這些都是NVIDIA眼中的新興行業機遇。

“Blackwell GPU是推動新一輪工業革命的引擎。通過與全球最具活力的企業合作,我們將實現AI賦能各行各業的承諾?!秉S仁勛表示。該平臺可使世界各地的機構都能夠在萬億參數的大語言模型(LLM)上構建和運行實時生成式AI,其成本和能耗較上一代產品降低多達25倍。

image.png

具體的六大加速計算技術如下:

全球最強大的芯片:Blackwell架構GPU具有2080億個晶體管,采用專門定制的雙倍光刻極限尺寸4NP TSMC工藝制造,通過10 TB/s的片間互聯,將 GPU 裸片連接成一塊統一的 GPU。

第二代Transformer引擎:Blackwell 將在新型 4 位浮點 AI 推理能力下實現算力和模型大小翻倍。

第五代 NVLink:最新一代 NVIDIA NVLink? 為每塊 GPU 提供突破性的 1.8TB/s 雙向吞吐量,確保多達 576 塊 GPU 之間的無縫高速通信,滿足了當今最復雜 LLM 的需求。

RAS引擎:采用Blackwell架構的GPU包含一個用于保障可靠性、可用性和可維護性的專用引擎。

安全AI:先進的機密計算功能可以在不影響性能的情況下保護 AI 模型和客戶數據,并且支持全新本地接口加密協議,這對于醫療、金融服務等高度重視隱私問題的行業至關重要。

解壓縮引擎:專用的解壓縮引擎支持最新格式,通過加速數據庫查詢提供極其強大的數據分析和數據科學性能。

這個新架構以紀念David Harold Blackwell命名,他不僅是一位專門研究博弈論和統計學的數學家,也是第一位入選美國國家科學院的黑人學者。這一新架構是繼兩年前推出的 NVIDIA Hopper? 架構以來的全新架構。

黃仁勛表示,Blackwell 將成為世界上最強大的芯片。Blackwell 架構的 GPU 擁有 2080 億個晶體管,采用臺積電4nm制程,兩塊小芯片之間的互聯速度高達 10TBps,可以大幅度提高處理能力。前一代GPU“Hopper”H100采用4nm工藝,集成晶體管800億。

Blackwell 不是芯片名,而是整個平臺的名字。具體來講,采用 Blackwell 架構的 GPU 分為了 B200 和 GB200 產品系列,后者集成了 1 個 Grace CPU 和 2 個 B200 GPU。

其中 B200 GPU 通過 2080 億個晶體管提供高達 20 petaflops 的 FP4 吞吐量。而 GB200 GPU 通過 900GB / 秒的超低功耗芯片到芯片連接,將兩個 B200 GPU 連接到 1 個 Grace CPU 上。相較于 H100 Tensor Core GPU,GB200 超級芯片可以為大語言模型(LLM)推理負載提供 30 倍的性能提升,并將成本和能耗降低高達 25 倍。

GB200是NVIDIA GB200 NVL72 的關鍵組件。NVIDIA GB200 NVL72 是一套多節點液冷機架級擴展系統,適用于高度計算密集型的工作負載。它將 36 個 Grace Blackwell 超級芯片組合在一起,其中包含通過第五代 NVLink 相互連接的 72 個 Blackwell GPU 和 36 個 Grace CPU。

image.png

對于LLM 推理工作負載,相較于同樣數量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72 最高可提供 30 倍的性能提升以及多達 25 倍的成本和能耗降低。

此外還有HGX B200 是一個通過NVLink連接 8 塊 B200 GPU 的服務器主板,支持基于x86的生成式 AI 平臺?;?NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太網網絡平臺,HGX B200 支持高達 400Gb/s 的網絡速度。

據了解,GB200將于今年晚些時候上市。對此,黃仁勛表示,GB200將為人工智能公司提供了巨大的性能升級,其AI性能為每秒20千萬億次浮點運算,而H100為每秒4千萬億次浮點運算。該系統可以部署一個27萬億參數的模型。據稱GPT-4使用了約1.76萬億個參數來訓練系統。

發布新一代AI超級計算機

NVIDIA還發布了新一代 AI 超級計算機 —— 搭載 NVIDIA GB200 Grace Blackwell 超級芯片的NVIDIA DGX SuperPOD?。這臺 AI 超級計算機可以用于處理萬億參數模型,能夠保證超大規模生成式 AI 訓練和推理工作負載的持續運行。

全新 DGX SuperPOD 采用新型高效液冷機架級擴展架構,基于 NVIDIA DGX? GB200 系統構建而成,在 FP4 精度下可提供 11.5 exaflops 的 AI 超級計算性能和 240 TB 的快速顯存,且可通過增加機架來擴展性能。

與 NVIDIA H100 Tensor Core GPU 相比,GB200 超級芯片在大語言模型推理工作負載方面的性能提升了高達 30 倍。

image.png

“NVIDIA DGX AI 超級計算機是推進 AI 產業變革的工廠。新一代DGX SuperPOD 集 NVIDIA 加速計算、網絡和軟件方面的最新進展于一體,能夠幫助每一個企業、行業和國家完善并生成自己的 AI?!秉S仁勛表示。

Grace Blackwell 架構的 DGX SuperPOD 由 8 個或以上的 DGX GB200 系統構建而成,這些系統通過 NVIDIA Quantum InfiniBand 網絡連接,可擴展到數萬個 GB200 超級芯片。用戶可通過 NVLink 連接 8 個 DGX GB200 系統中的 576 塊 Blackwell GPU,從而獲得海量共享顯存空間,來賦能下一代 AI 模型。

發布人形機器人模型Project GR00T

“開發通用人形機器人基礎模型是當今 AI 領域中最令人興奮的課題之一。世界各地的機器人技術領導者正在匯集各種賦能技術,致力于在人工通用機器人領域實現突破?!秉S仁勛表示。

NVIDIA發布了人形機器人通用基礎模型Project GR00T,旨在進一步推動其在機器人和具身智能方面的突破。GR00T驅動的機器人(代表通用機器人 00 技術)將能夠理解自然語言,并通過觀察人類行為來模仿動作——快速學習協調、靈活性和其它技能,以便導航、適應現實世界并與之互動。

image.png

NVIDIA還發布了一款基于NVIDIA Thor 系統級芯片(SoC)的新型人形機器人計算機Jetson Thor,并對NVIDIA Isaac? 機器人平臺進行了重大升級,包括生成式 AI 基礎模型和仿真工具,以及 AI 工作流基礎設施。

Jetson Thor 是一個全新的計算平臺,能夠執行復雜的任務并安全、自然地與人和機器交互,具有針對性能、功耗和尺寸優化的模塊化架構。

該SoC包括一個帶有 transformer engine 的下一代 GPU,其采用 NVIDIA Blackwell 架構,可提供每秒 800 萬億次8位浮點運算 AI 性能,以運行 GR00T 等多模態生成式 AI 模型。憑借集成的功能安全處理器、高性能 CPU 集群和 100GB 以太網帶寬,大大簡化了設計和集成工作。

NVIDIA 正在為領先的人形機器人公司開發一個綜合的 AI 平臺,如 1X Technologies、Agility Robotics、Apptronik、波士頓動力公司、Figure AI、傅利葉智能、Sanctuary AI、宇樹科技和小鵬鵬行等。

訓練具身智能模型需要海量的真實數據和合成數據。新的 Isaac Lab 是一個 GPU 加速、性能優化的輕量級應用,基于 Isaac Sim 而構建,專門用于運行數千個用于機器人學習的并行仿真。NVIDIA 還發布了 Isaac Manipulator 和 Isaac Perceptor 等一系列機器人預訓練模型、庫和參考硬件。

全新交換機X800系列全面優化基礎設施

NVIDIA 還發布了專為大規模 AI 量身訂制的全新網絡交換機 - X800 系列。

NVIDIA Quantum-X800 InfiniBand 網絡和 NVIDIA Spectrum?-X800 以太網絡是全球首批高達 800Gb/s 端到端吞吐量的網絡平臺,將計算和 AI 工作負載的網絡性能提升到了一個新的水平,與其配套軟件強強聯手可進一步加速各種數據中心中的 AI、云、數據處理和高性能計算(HPC)應用,包括基于最新的 NVIDIA Blackwell 架構產品的數據中心。

image.png

“NVIDIA 網絡平臺是 AI 超級計算基礎設施實現大規??蓴U展的核心?;?NVIDIA X800 交換機的端到端網絡平臺,使新型 AI 基礎設施輕松運行萬億參數級生成式 AI 業務?!盢VIDIA 網絡高級副總裁 Gilad Shainer 表示。

Quantum-X800 平臺包含了 NVIDIA Quantum Q3400 交換機和 NVIDIA ConnectX?-8 SuperNIC,二者互連達到了業界領先的端到端 800Gb/s 吞吐量,交換帶寬容量較上一代產品提高了 5 倍,網絡計算能力更是憑借 NVIDIA 的 SHARP? 技術(SHARPv4)提高了 9 倍,達到了 14.4Tflops。

Spectrum-X800 平臺為 AI 云和企業級基礎設施帶來優化的網絡性能。借助 800Gb/s 的 Spectrum SN5600 交換機和 NVIDIA BlueField-3 SuperNIC,Spectrum-X800 平臺為多租戶生成式 AI 云和大型企業級用戶提供各種至關重要的先進功能。

NVIDIA 提供面向萬億參數級 AI 模型性能優化的網絡加速通信庫、軟件開發套件和管理軟件等全套軟件方案。

DRIVE Thor改變自動駕駛的未來

NVIDIA DRIVE Thor是用于安全可靠的自動駕駛汽車的下一代集中式計算平臺,它可將多項智能功能整合在單個系統中,從而提高了效率,降低了整體系統成本。

作為DRIVE Orin 的后續產品,DRIVE Thor可提供豐富的座艙功能,以及安全可靠的高度自動化駕駛和無人駕駛功能,并將所有功能整合至同一個集中式平臺上。這款新一代自動駕駛汽車(AV)平臺將搭載專為Transformer、大語言模型(LLM)和生成式AI工作負載而打造的全新NVIDIA Blackwell 架構。

image.png

NVIDIA DRIVE Thor將徹底改變汽車行業的格局,開創生成式AI定義駕駛體驗的時代。多家頭部電動汽車制造商在GTC上宣布其搭載DRIVE Thor的下一代AI車型。

比亞迪正在將與NVIDIA的長期協作從車端延伸到云端。除了在 DRIVE Thor上構建下一代電動車型外,比亞迪還計劃將NVIDIA的AI基礎設施用于云端AI開發和訓練技術,并使用NVIDIA Isaac?與NVIDIA Omniverse?平臺來開發用于虛擬工廠規劃和零售配置器的工具與應用。

除乘用車外,DRIVE Thor還能夠滿足卡車、自動駕駛出租車、配送車等其他細分領域的不同需求。在這些領域中,高性能計算和AI對于確保安全、可靠的駕駛操作至關重要。

DRIVE Thor預計最早將于明年開始量產,并且將使用具有生成式AI引擎等前沿功能的全新NVIDIA Blackwell架構。DRIVE Thor的性能高達1000 TFLOPS,有助于保證自動駕駛汽車的安全可靠。

Omniverse Cloud API為工業數字孿生軟件工具提供助力

黃仁勛認為,未來所有制造出來的產品都將擁有數字孿生。為此NVIDIA宣布將以API形式提供Omniverse? Cloud,將該全球領先的工業數字孿生應用和工作流創建平臺的覆蓋范圍擴展至整個軟件制造商生態系統。

借助五個全新Omniverse Cloud應用編程接口(API),開發者能夠輕松地將Omniverse的核心技術直接集成到現有的數字孿生設計與自動化軟件應用中,或是集成到用于測試和驗證機器人或自動駕駛汽車等自主機器的仿真工作流中。

一些全球大型工業軟件制造商正在將Omniverse Cloud API加入到其軟件組合中,包括 Ansys、Cadence、達索系統旗下3DEXCITE品牌、Hexagon、微軟、羅克韋爾自動化、西門子和Trimble等。

黃仁勛表示:“Omniverse是一個可以構建并操作物理真實的數字孿生的操作系統。Omniverse和生成式AI都是將價值高達50萬億美元的重工業市場進行數字化所需的基礎技術?!?/p>

自動化、數字化和可持續發展領域的技術領先企業西門子正在其西門子Xcelerator平臺中采用Omniverse Cloud API,首先采用的是領先的云端產品生命周期管理(PLM)軟件Teamcenter X。

推出生成式AI微服務

“成熟的企業平臺坐擁數據金礦,這些數據可以轉化為生成式 AI 助手。我們與合作伙伴生態系統一起創建的這些容器化 AI 微服務,是各行業企業成為 AI 公司的基石?!盢VIDIA 創始人兼首席執行官黃仁勛表示。

為此,NVIDIA 推出生成式 AI 微服務,供開發者在已安裝 NVIDIA CUDA GPU 的系統中創建和部署生成式 AI 助手

NVIDIA推出數十項企業級生成式 AI 微服務,企業可以利用這些微服務在自己的平臺上創建和部署定制應用,同時保留對知識產權的完整所有權和控制權。

NVIDIA還推出二十多項全新微服務,使全球醫療企業能夠在任何地點和任何云上充分利用生成式 AI 的最新進展。

全新 NVIDIA 醫療微服務套件包含經過優化的 NVIDIA NIM? AI 模型和工作流,并提供行業標準應用編程接口(API),可用于創建和部署云原生應用。它們提供先進的醫學影像、自然語言和語音識別以及數字生物學生成、預測和模擬功能。

此外,NVIDIA 加速的軟件開發套件和工具,包括 Parabricks?、MONAI、NeMo?、Riva、Metropolis,現已通過 NVIDIA CUDA-X? 微服務提供訪問,以加速藥物研發、醫學影像、基因組學分析等醫療工作流。

這些微服務,其中 25 個已推出,可以加快醫療企業的轉型,因為生成式 AI 為制藥公司、醫生和醫院帶來了眾多的機會。其中包括篩選數萬億種藥物化合物以促進醫學發展、收集更完善的患者數據以改進早期疾病檢測、實現更智能的數字助手等。

 1710825535011004877.png

擁抱量子計算推出云量子計算機模擬微服務

量子計算是下一輪計算變革的前沿領域,為此NVIDIA推出一項云服務,旨在幫助研究人員和開發人員在化學、生物學、材料科學等關鍵科學領域的量子計算研究中取得突破。

NVIDIA 量子云基于 NVIDIA 開源 CUDA-Q 量子計算平臺 —— 部署量子處理器(QPU)的公司有四分之三都在使用該平臺。其作為一項微服務,首次支持用戶在云端構建并測試新的量子算法和應用,包括支持量子-經典混合算法編程的功能強大的模擬器和工具等。

NVIDIA 的量子計算生態系統目前已有 160 多家合作伙伴。Google Cloud、Microsoft Azure 、Oracle Cloud Infrastructure 等領先的云服務提供商,以及 IQM Quantum Computers、OQC、ORCA Computing、qBraid 和 Quantinuum 等量子領域的領先企業,都正在將量子云集成到自己的產品中。

image.png

在大會上,英偉達也展示了自己的朋友圈,如今擁抱AI的企業越來越多,在改變社會方面也展現出越來越大的市場前景。面向工業領域,AI能發揮的作用還非常大,英偉達邁出的可謂劃時代的一步,此前英偉達的營收已經超過了半導體領軍者英特爾,未來這個即將用AI吞噬世界的怪獸將如何用技術改變世界,未來的發展可能會遠遠超出我們的想象。


通信世界網版權及免責聲明:
1、凡本網注明“來源:通信世界全媒體”及標有原創的所有作品,版權均屬于通信世界網。未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載我方內容的單位,也必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、凡本網注明“來源:XXX(非通信世界網)”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。
3、如因作品內容、版權和其它問題需要同本網聯系的,請在相關作品刊發之日起30日內進行。
發表評論請先登錄
...
熱點文章
    暫無內容
r男女牲交45分钟a片,夜夜添无码试看一区二区三区,人妻老妇乱子伦精品无码专区