全球安全科學領域的專家 UL Solutions 宣布推出《AI 模型透明度指標》計畫,旨在化解大眾對於人工智慧 (AI) 可靠性、安全性及道德影響等方面的疑慮,並推動「負責任」的人工智慧發展。
AI 系統是根據數據與過去行為進行學習與做出決策的編程軟體,其使用數據和指令來生成文字、預測並做出建議。UL Solutions 全新推出的《AI 模型透明度指標 (AI Model Transparency Benchmark)》計畫,專注於評估 AI 模型的透明度,亦即了解AI 系統如何下決策並產出特定結果的能力。
透過數據管理、模型開發、安全性、部署及道德考量等關鍵領域的檢視,這項指標評估可為 AI 系統的透明度與可信度,提供一個清晰客觀的評等,進而為產品的行銷宣告進行驗證。一旦產品確認符合評等,即可貼附 UL AI 模型透明度驗證標誌 (UL Verified Mark)。
「由於人工智慧具有對商業與社會做出革命性變革的潛力,因此必須以『負責任』的方式予以開發和部署,」UL Solutions 首席科學家 Robert Slone 博士表示,「在驗證 AI 系統的構建是否充分考量完整性、隱私和問責性方面,《AI 模型透明度指標》是一個重要的工具。 」
如今具 AI 系統輔助的電子產品,很明顯地能讓消費者享有容易上手的優勢。然而,儘管有越來越多的消費性產品開始整合 AI 技術,但要讓 AI真正地發揮潛力,消費者必須對這些裝置的安全運作擁有足夠信心。根據史丹佛大學的 2024 AI Index 年度報告*1,52% 的美國人表示對 AI感到更加擔憂,而非興奮。
《AI 模型透明度指標》即可用來驗證產品的行銷宣告,為製造商以及正考慮使用 AI 產品的消費者建立信任感。