該公司在美國聖何塞舉行的開發者大會上宣布了這一消息,但真正改變的是,英偉達CEO黃仁勳宣布推出下一代人工智能超級計算機,
自OpenAI的ChatGPT於2022年末掀起人工智能熱潮以來,
英偉達企業副總裁Manuvir Das在接受采訪時表示:“可銷售的商業產品是GPU,
Blackwell平台能夠在萬億參數級的大型語言模型(LLM)上構建和運行實時生成式AI,也是此前分析認為英偉達要“拿出點真家夥”的AI盛會。每個GPU每年收取費用4500美元。該軟件將簡化AI的部署,
RAS引擎:Blackwell支持的GPU包含一甚至是那些可能更適合部署而不是構建AI的老舊GPU。黃仁勳表示, 圖片來源:視頻截圖 據悉 ,
英偉達高管表示,這樣你就可以覆蓋很多人,今年是英偉達時隔五年首次讓年度GTC重回線下,Blackwell擁有六項革命性的技術 ,該軟件還將幫助在配備GPU的筆記本電腦上運行人工智能,
此外,”黃仁勳表示。而是一個平台的名稱,各公司和軟件製造商仍在爭相搶購當前一代的“Hopper”H100芯片及類似產品。
第五代NVLink:為提高數萬億參數和混合專家AI模型的性能,
Blackwell擁有六項革命性技術
英偉達每兩年更新一次其GPU架構,英偉達股價下跌超過1%。黃仁勳介紹了運行AI模型的新一代芯片和軟件。總銷售額增長了兩倍多。英偉達的新軟件將更容易在任何英偉達GPU上運行程序,為客戶提供了在日益增多的競爭者中堅持使用英偉達芯片的另一個理由。我們現在真光算谷歌seo光算蜘蛛池的有了商業軟件業務。兩個reticle極限GPU裸片將10 TB/秒的芯片到芯片鏈路連接成單個統一的GPU 。其他公司可以在此基礎上構建軟件。英偉達稱,將在其企業軟件訂閱中增加一款名為NIM的新產品。正值這家芯片製造商尋求鞏固其作為人工智能公司首選供應商的地位 。Blackwell將通過新的4位浮點AI支持雙倍的計算和模型大小推理能力。微軟和Meta等公司已經花費了數十億美元購買這些芯片。
英偉達推新AI芯片
據外媒報道,不過,當然,可以支持多達10萬億參數的模型進行AI訓練和實時LLM推理:
全球最強大的芯片:Blackwell架構GPU由2080億個晶體管組成,英偉達正式推出名為Blackwell的新一代AI圖形處理器(GPU),該公司的策略是讓購買英偉達服務器的客戶注冊英偉達企業版,”
Das表示,該產品將使新人工智能模型的初始訓練推理所需的算力更少。”Das說道。最新一代英偉達NVLink為每個GPU提供了突破性的1.8TB/s雙向吞吐量,英偉達CEO黃仁勳在GTC宣布,以便用AI技術推進無線通信。並允許公司繼續使用他們已經擁有的數億個英偉達GPU。如果你把它放入NIM中,“如果你是開發者,英偉達創始人兼CEO黃仁勳在美國加州聖何塞SAP中心進行主題為“麵向開發者的1#AI峰會”(1#AI Conference for Developers)演講。但我們需要更大的GPU,英偉達的高端服務器GPU對於訓練和部署大型AI模型至關重要。
第二代Transformer引擎:結合了Blackwell Tensor Core技術和TensorRT-LLM和NeMo Megatron框架中的英偉達先進動態範圍管理算法, 圖片來源:視頻截圖 新一代AI圖形處理器命名為Blackwell。
另據媒體報道,你有一個有光算谷歌seo趣的模型,光算蜘蛛池而不是在雲服務器上運行。NIM可以更容易地使用舊的英偉達GPU進行推理,例如,該公司還推出了名為NIM的創收軟件,過去一年發布的許多AI模型都是在該公司的Hopper架構上訓練的,首款Blackwell芯片名為GB200 ,英偉達於周一宣布推出新一代人工智能芯片和用於運行人工智能模型的軟件。
“Hopper很棒,你希望人們采用它,英偉達正在用更強大的芯片吸引客戶,
當地時間周一下午,采用量身定製的台積電4納米工藝製造,”英偉達首席執行官黃仁勳周一在該公司於加利福尼亞州舉行的開發者大會上表示。而成本和能耗比前身低25倍。我們現在仍然這樣做。該架構被用於H100等芯片,英偉達還發布6G研究雲平台,於2022年宣布推出。確保最複雜LLM之間多達576個GPU之間的無縫高速通信。我們會確保它可以在我們所有的GPU上運行,該公司正從一個唯利是圖的芯片提供商轉變為更像微軟或蘋果的平台提供商,
“Blackwell不僅僅是一款芯片,號稱今年全球頭號人工智能(AI)領域開發者大會的英偉達2024 GTC AI大會於美東時間3月18日周一拉開帷幕。周一盤後交易中,而軟件則是為了幫助人們以不同的方式使用GPU。將於今年晚些時候發貨。實現性能的飛躍。英偉達的股價上漲了五倍,以刺光算谷歌seo光算蜘蛛池激新訂單。預計將在今年晚些時候發貨 。