台灣 – 2024 年 10 月 4 日—智慧型資料基礎架構公司 NetApp® (NASDAQ:NTAP) 宣布與業界領導廠商在加速 AI 創新領域的新合作進展。藉由提供生成式 AI (GenAI) 所需的智慧型資料基礎架構,NetApp正在協助企業掌握過去 10 年來對企業和 IT 領域最重要的發展之一。 生成式 AI 為業務創新提供實用且高度可見的使用體驗,例如生成內容、總結大量資訊和回答問題。Gartner 研究預測,到 2027 年,AI 軟體支出將成長至 2,979 億美元,生成式 AI 將佔其中三分之一以上。AI 時代成功的關鍵在於掌握可治理、可信賴且可追溯的資料。 NetApp 執行長 George Kurian 在 NetApp INSIGHT 2024 上發表了對資料智慧時代的廣闊願景。AI 的關鍵挑戰的在於資料,Kurian 闡述了智慧型資料基礎架構如何確保相關資料安全、受良好治理且持續更新,以提供統一、整合的生成式 AI 堆疊。 在 NetApp INSIGHT 大會上,NetApp 進一步展示智慧型資料基礎架構的創新,包括在業界領先統一儲存作業系統 NetApp ONTAP® 上執行 AI 的變革性願景。具體而言,NetApp 的願景包括: •適用於 NetApp ONTAP 的 NVIDIA DGX SuperPOD 儲存認證:NetApp 已開始在 NVIDIA DGX SuperPOD AI 基礎架構上,對 AFF A90 平台上的 NetApp ONTAP 儲存進行 NVIDIA 認證流程,這將使企業能在其最大的 AI 專案中利用業界領先的資料管理功能。此認證將補充並建立在 NetApp ONTAP 與 NVIDIA DGX BasePOD 的現有認證基礎上。NetApp ONTAP 可解決大型語言模型 (LLMs) 的資料管理挑戰,讓企業不再需要為了 AI 訓練工作負載而在資料管理上做出妥協。 •建立全域中繼資料命名空間:能夠在客戶的混合多雲環境中以安全且合規的方式探索和管理資料,以實現 AI 的特徵擷取和資料分類。NetApp 更單獨宣布與 NVIDIA AI 軟體的全新整合,可利用 ONTAP 的全域中繼資料命名空間為代理式 AI 提供企業檢索增強生成 (RAG)。 •直接整合的 AI 資料處理流程:透過擷取客戶資料集的增量變化、執行政策驅動的資料分類和匿名化、生成高度可壓縮的向量嵌入,讓 ONTAP 能夠自動且反覆地為 AI 準備非結構化資料,並將其儲存在與 ONTAP 資料模型整合的向量資料庫中,為大規模、低延遲語義搜尋和檢索增強生成 (RAG) 推論做好準備。 •分散式儲存架構:能完全共用儲存後端,最大化提高網路和快閃記憶體速度的利用率,降低基礎架構成本,在顯著提高效能的同時,也節省機架空間和功耗,適用於大型語言模型訓練等超大規模、運算密集型 AI 工作負載。這種架構將成為 NetApp ONTAP不可或缺的一部分,具有分散式儲存架構的優點,同時仍能維持 ONTAP的復原能力、資料管理、安全性和管控功能。 •原生雲端服務的新功能,以推動雲端 AI 創新:在所有原生雲端服務中,NetApp 正致力於提供整合且集中式的資料平台,以擷取、發現和分類資料。NetApp 更將其雲端服務與資料倉儲整合,並開發資料處理服務,以視覺化資料、準備資料和轉換資料。隨後可安全地共用準備好的資料集,並將其與雲端供應商的 AI 和機器學習服務 (包括第三方解決方案) 搭配使用。此外,NetApp 將宣布一個正在計劃中的整合方案,讓客戶能夠使用 Google Cloud NetApp Volumes 作為 BigQuery 和 Vertex AI 的資料存放區。
NetApp 平台資深副總裁 Krish Vitaldevara 表示:「各種規模的企業都在嘗試使用生成式 AI來提高效率和加速創新,NetApp 讓企業能夠充分發揮生成式 AI 的潛力來推動創新,並在不同產業應用中創造價值。透過提供安全、可擴展且高效能的智慧型資料基礎架構,同時與其他業界領先的平台整合,NetApp 可協助客戶克服實施生成式 AI 的障礙。企業若利用這些解決方案,將能更快、更有效率地將其資料應用於生成式 AI 應用程式,並超越競爭對手。」 NetApp台灣區總經理朱宥鑫表示:「IDC 指出,亞太地區在採用 AI 與生成式 AI技術方面正在加速成長,包括專為 AI 驅動系統所設計的軟體、服務及硬體。預估從 2023 年到 2028 年,亞太地區對於 AI 與生成式 AI 技術的投資年複合成長率將達 24.0%。台灣企業對 AI 和生成式 AI 的興奮之情顯而易見。他們渴望展開徹底的業務轉型,我相信 NetApp 對 AI 的願景和最新創新技術,勢必能引起企業的共鳴。」 NetApp 持續與 AI 生態系統共同推動創新: •Domino Data Labs 選擇使用 Amazon FSx for NetApp ONTAP:為了推進機器學習營運 (MLOps) 的發展,NetApp 與 Domino Data Labs 攜手,強調 AI 工作流程中無縫整合的重要性。即日起,Domino 將使用 Amazon FSx for NetApp ONTAP 作為在 Domino Cloud 平台上執行之 Domino 資料集的底層儲存,以提供具有成本效益的效能、可擴展性和加速模型開發的能力。除了 Domino 使用 FSx for NetApp ONTAP 之外,Domino 和 NetApp 還開始共同開發,將 Domino 的 MLOps 平台直接整合到 NetApp ONTAP 中,以便更輕鬆地管理 AI 工作負載的資料。 •適用於 NVIDIA OVX 的 AIPod正式推出:NetApp 在 2024 年 5 月宣布推出適用於 NVIDIA OVX 融合基礎架構解決方案的 NetApp AIPod。此基礎架構解決方案專為尋求利用生成式 AI 和 RAG 功能來提高生產力、簡化營運和發掘新營收商機的企業所設計。 •FlexPod AI 的新功能:NetApp 發布 FlexPod AI 解決方案的新功能,此混合基礎架構與營運平台可加速現代工作負載的交付。執行 RAG 的 FlexPod AI 可簡化、自動化和保護 AI 應用程式,讓企業能夠充分發揮資料的潛力。憑藉 Cisco 運算、Cisco 網路和 NetApp 儲存,客戶可體驗更低的成本、高效的擴展、更快的價值實現時間和更低的風險。 TechTarget 旗下 Enterprise Strategy Group 資料分析暨 AI 實務總監 Mike Leone 表示:「實施 AI 需要一系列精細微調的技術基礎架構完美配合,NetApp 提供強大的儲存和資料管理功能,可協助客戶執行和支援其 AI 資料管道。但儲存只是拼圖中的一塊。透過與 AI 基礎架構領域的其他業界領先供應商合作,NetApp 客戶可確信其運算、網路、儲存和 AI 軟體解決方案將無縫整合,以推動 AI 創新。」 - 新聞稿有效日期,至2024/11/04為止
聯絡人 :Valerie 聯絡電話:(02) 8768-1669*116 電子郵件:valerie@bravopr.com.tw
上一篇:NetApp 推出全新高效能系統,加速關鍵區塊儲存工作負載
下一篇:宗教與和平協進會30週年 教宗親自接見 讚賞台灣宗教共融
|