Trace Id is missing
跳到主要內容
Microsoft
Microsoft AI
Microsoft AI
Microsoft AI
Home
產品和解決方案
個人用
個人用
Microsoft Copilot
適用於組織
適用於組織
Microsoft 365 Copilot
適用於組織的 Copilot
自訂您的 Copilot
自訂您的 Copilot
Copilot Studio
建置您自有的
建置您自有的
Azure AI Studio
Azure AI 服務
Intelligent PCs
Intelligent PCs
Copilot+ PCs
適用於商務領導人員的 AI
負責任 AI
概觀
準則和方法
工具和做法
客戶案例
部落格中的 AI
More
Microsoft 所有
Global
Microsoft 安全性
Azure
Dynamics 365
Microsoft 365
Microsoft Teams
Windows 365
科技與創新
科技與創新
Microsoft 雲端
人工智能
Azure Space
混合實境
Microsoft HoloLens
Microsoft Viva
量子運算
可持續發展
行業
行業
教育
汽車業
金融服務
政府機關
醫療保健
製造
零售
所有行業
合作夥伴
合作夥伴
尋找合作夥伴
成為合作夥伴
合作夥伴網絡
Azure 市場
AppSource
資源
資源
網誌
Microsoft 廣告
開發人員中心
文件
活動
授權
Microsoft 學習
Microsoft 研究
查看網站地圖
Microsoft 宣佈對受信任 AI 的新承諾。
深入了解
提升負責任 AI 實踐的能力
我們在道德原則下致力於促進 AI 的發展。
2024 RAI 透明度報告
新聞與公告
新聞與公告
工具
進階原則
新聞與公告
讀取有關負責任 AI 原則、參考資料和工程的最新資訊。
全部
原則
參考資料
工程
上一頁
下一步
上一張投影片
下一頁投影片
原則
保護大眾不受濫用 AI 產生的內容攻擊
了解做法
原則
對抗 AI 深偽技術: 我們參與 2024 年政治慣例
立即閱讀
原則
針對我們負責的 AI 工作提供進一步的透明度
立即閱讀
工程
使用 Azure AI 中的新工具支援負責創新
了解做法
原則
Microsoft 隱私權承諾如何適用於 AI
立即閱讀
工程
《Cyber Signals》:Microsoft 如何保護 AI 平台抵禦網路威脅
立即閱讀
原則
對抗濫用 AI 產生的內容: 全面的方法
立即閱讀
原則
Bing 中的 Copilot:我們實現負責任 AI 的方法
立即閱讀
原則
AFL-CIO 與 Microsoft 在 AI 上的新技術人力合作關係
深入了解
原則
Microsoft 宣佈為客戶提供新的 Copilot 著作權承諾
深入了解
原則
我們致力於推動安全、可靠且值得信任的 AI
立即閱讀
原則
Microsoft、Anthropic、Google 和 OpenAI 發起「前沿模型論壇」
立即閱讀
原則
負責任 AI 的 A 到 Z 資訊
立即閱讀
原則
Microsoft 宣告 AI 客戶承諾
深入了解
參考資料
對人工智慧和人類繁榮未來的反思
立即閱讀
原則
恪守民主價值觀,維護網路空間穩定
立即閱讀
工程
人工智慧將如何影響安全性的未來
立即閱讀
參考資料
Microsoft 新開源工具背後的研究合作
立即閱讀
參考資料
推進以人為本的人工智慧:負責任 AI 匯報
立即閱讀
工程
探索來自 Microsoft AI Red Team 的安全性最佳做法
深入了解
返回 [最新匯報] - [全部] 索引標籤區段
上一張投影片
下一頁投影片
原則
保護大眾不受濫用 AI 產生的內容攻擊
了解做法
原則
對抗 AI 深偽技術: 我們參與 2024 年政治慣例
立即閱讀
原則
針對我們負責的 AI 工作提供進一步的透明度
立即閱讀
原則
Microsoft 隱私權承諾如何適用於 AI
立即閱讀
原則
我們致力於推動安全、可靠且值得信任的 AI
立即閱讀
原則
Microsoft、Anthropic、Google 和 OpenAI 發起「前沿模型論壇」
深入了解
原則
Microsoft 宣佈為客戶提供新的 Copilot 著作權承諾
深入了解
原則
恪守民主價值觀,維護網路空間穩定
立即閱讀
原則
負責任人工智慧的 A 到 Z 的資訊
立即閱讀
原則
全新的 Bing:我們實現負責任 AI 的方法
立即閱讀
原則
Microsoft 宣告 AI 客戶承諾
深入了解
原則
對抗濫用 AI 產生的內容: 全面的方法
立即閱讀
原則
AFL-CIO 與 Microsoft 在 AI 上的新技術人力合作關係
深入了解
返回 [最新匯報] - [原則] 索引標籤區段
上一張投影片
下一頁投影片
參考資料
Microsoft 新開源工具背後的研究合作
立即閱讀
參考資料
推進以人為本的人工智慧:負責任 AI 匯報
立即閱讀
參考資料
對人工智慧和人類繁榮未來的反思
立即閱讀
返回 [最新匯報] - [參考資料] 索引標籤區段
上一頁投影片
下一頁投影片
工程
使用 Azure AI 中的新工具支援負責創新
了解做法
工程
探索來自 Microsoft AI Red Team 的安全性最佳做法
深入了解
工程
人工智慧將如何影響安全性的未來
立即閱讀
工程
《Cyber Signals》:Microsoft 如何保護 AI 平台抵禦網路威脅
立即閱讀
返回 [最新匯報] - [工程] 索引標籤區段
返回索引標籤
準則
定義重要事項
我們已找出六個我們認為應該引導 AI 發展並使用的原則。
深入了解
公平性
AI 系統應該以公平的方式對待所有人。
可靠性與安全
AI 系統應該可靠且安全地運作。
隱私權與安全性
AI 系統應該安全且尊重隱私權。
包容性
AI 系統應該賦予每個人能力並讓人員參與。
透明度
AI 系統應該可理解。
負有責任
人員應對 AI 系統負責。
工具和做法
可支援負責任 AI 的供應項目工具
探索所有項目
活頁簿
人性 AI 體驗 (HAX) 活頁簿 (英文)
協助貴組織定義和實作人性 AI 互動的最佳作法。
深入了解
部落格
宣佈 Azure AI 中的新工具
探索可協助建置更安全且值得信任之 AI 應用程式的新功能。
深入了解
工具組
負責任 AI 儀表板
存取工具套件以協助建立自訂、端對端的負責任 AI 體驗。
深入了解
原則
推動 AI 原則
探索 Microsoft 專家對於 AI 原則的最新觀點。
上一張投影片
下一頁投影片
部落格
AI 的全球管理
立即閱讀
部落格
治理 AI:未來發展的藍圖
立即閱讀
部落格
迎向 AI 的時刻
立即閱讀
部落格
反思我們負責任 AI 計劃
立即閱讀
部落格
全球無障礙體認日:無障礙是創新的核心
立即閱讀
部落格
讓 IP 成為解決大型問題的強大啟用工具
立即閱讀
播客
Tools and Weapons with Brad Smith
立即收聽
部落格
在日本推動 AI 治理
立即閱讀
部落格
加拿大 AI 治理的考慮
立即閱讀
部落格
管理非洲 AI
立即閱讀
部落格
印度的 AI 機會
立即閱讀
部落格
在歐洲和國際上推進人工智慧治理
立即閱讀
返回 [推動 AI 原則] 區段
讓負責任 AI 得以實現
探索 Microsoft 如何培育共同作業,並協助每個人以負責的方式使用 AI。
上一頁投影片
下一張投影片
促進 AI 責任
探索有關包容性 AI 的討論及全球觀點,例如它對於社會的影響。
深入閱讀
UNESCO 與 Microsoft 合作以促進負責任 AI 的發展
UNESCO 與 Microsoft 合作開發聯合計劃,以推廣和實作有關道德 AI 的建議。
深入閱讀
Microsoft 加入 Synthetic Media 的集體行動架構
查看 Microsoft 如何規劃以為由 Partnership on AI 所建立的架構做出貢獻。
深入閱讀
透過 Microsoft AI 轉型您的企業
在此學習路徑中探索如何以負責的方式規劃、制定策略並縮放 AI 專案。
深入閱讀
返回 [讓負責任 AI 得以實現] 區段
AI for Good
使用 AI 提升世界的能力
查看如何使用 AI 來支援環境、人道主義以及文化傳承計劃。
探索 AI for Good
關注 Microsoft
關注 Microsoft