AI 應用指南

Otto Group one.O 推動負責任的人工智慧商務應用

負責任的使用AI 人工智慧準則

人工智慧(Artificial Intelligence,AI)是由人類所設計編程的,它符合人類的思考和行為模式、假設模式和文化上的影響,但到頭來它仍是一台機器。為了實現人機的負責任共存,我們應當討論「為什麼要協作」以及「如何協作」的相關問題。我們將道德標準納入演算法,維持一致的倫理規範,建立信任關係。

正因如此,在研發以人工智慧或統計學為基礎的自動化決策時,以下的發展指南對我們很重要。我們的首要任務是為人們發展 AI 應用,而不是反對使用。所以我們以監管架構、現行法規和道德標準作為應用原則,同時遵循 Otto Group 的道德守則(Code of Ethics)與 one.O 的企業價值。

1. 以人為本,人類主導 AI

人類的判斷與行動,始終優先於 AI。我們將 AI 定位為輔助決策的工具,最終的決定權仍掌握在人類手中。我們會持續監控 AI 系統的運作狀況,確保在任何異常發生時都能即時介入與調整。在日常作業中,我們定期驗證 AI 模型的表現。同時,透過清晰的視覺化呈現,讓任何潛在的偏差與問題都能一目了然。特別是在可能造成重大影響或影響使用者信任的情境,例如開發自動化機器人(Bots)或應用大型語言模型(LLMs)時,這種人類主導的原則尤為關鍵。因此,各專責單位必須明確評估 AI 的自主範圍,並指派負責監督與介入的專責人員。

獎勵

2. 信任源自公開透明

AI 能否成功被接受,關鍵在於使用者看見它帶來的價值並建立信任。

對內透明
我們會在系統與流程中替使用者清楚標示哪些步驟由 AI 執行,並公開說明它的能力與侷限。能解釋的結果會以簡明方式說明成因。若較簡單、可追蹤的演算法就能達成目標且品質不受影響,我們會優先採用。這有助於團隊理解並快速發現問題。

對外信任

AI 的設計以提升顧客價值為核心。採小規模試行、分階段上線,並透過友善使用者(Friendly User Tests)測試與商業測試驗證(Business User Tests)成效。依循歐盟 AI 法規(EU AI Act),我們會向使用者界定工具的功能範圍(例如:AI 語音客服機器人負責處理常見問題,複雜需求則轉人工處理),並在監控與效能分析中持續找出改善空間,逐步優化體驗。

程式碼

3. 非歧視、多元性、公平性

我們以公平與多元為核心,評估 AI 輸出結果、公示決策可逆機制,並審查外部服務的合規性與中立性。

結果的關鍵檢視

我們重視多元與公平,目標是讓模型做出不帶歧視的判斷。建模時會盡量採用具代表性的假設與資料,並在不同公平準則間進行權衡。完全消除偏差難以保證,因此上線後會持續監測生成式 AI 的使用和輸出、運行偏差檢測並以批判性角度評估結果,必要時調整模型與流程以減少不公平影響。

可逆性原則

我們遵循可逆性原則:所有 AI 輸出都必須保留人工覆核與撤銷機制,並記錄審查流程與決策紀錄。藉由人工介入,我們能補正錯誤、提高包容性,並確保系統符合歐洲無障礙法案(European Accessibility Act)等包容性要求。

外部 AI 解決方案驗證

導入外部生成式或其他 AI 服務前,我們會依據資料保護、政治中立、非歧視與相關歐盟指令等標準進行驗證。必要時會對外部方案做調整,以確保方案符合我們的原則與合規要求。

加號

4. 永續性原則

我們以永續為先,優先採用簡單可行的方案,並在設計與部署時評估資源與碳排成本。只在必要且合適時才開發 AI;若較簡單的方法能達成目標,我們會優先採用並建議顧客使用。我們遵循資料最小化原則:只挑選模型真正需要的資料,並在可行時精簡模型,以強化資料保護、縮短保存期限並降低資源消耗。同時會評估 AI 的環境影響(例如二氧化碳排放),並優先採用較節能的模型與推論策略。

永續性

5. 安全可靠,避免受操控

我們重視 AI 在實務中的安全,因此積極防範惡意與非預期操弄,並依現行安全標準驗證,保護資料與 AI 的決策依據。特別是當系統需匯入外部資料時,我們會投入專門研究與驗證工作,確保資料來源與處理流程的可靠性。

我們的目標很簡單:AI 必須為人服務,不能對人造成傷害。面對生成式 AI,這一點更為重要。因此我們採取多層防護,例如推動「第二階段 AI 倫理審核(Second Instance)等機制」,在關鍵輸出上增加自動檢查,形成額外安全層級。對於會出現「幻覺(Hallucination)」的生成式模型,我們也透過多樣化測試、輸出比對與人工驗證等方法來降低錯誤資訊的風險,並在運行時持續監控異常行為。

全通路

6. 資料保護和治理

負責任的資料治理與安全儲存,不僅是我們身為 Otto Group 成員的義務,更是信任的象徵。我們重視個人與敏感資料的保護,並以透明方式告知:哪些資料被使用、由誰使用、以及使用目的。

隱私

7. 責任、歸屬與問責

我們明確界定並記錄每個系統與功能的責任歸屬,關鍵決策有人把關並保留可追溯紀錄。技術責任由相關單位承擔;依決策風險採用不同治理模式:關鍵決策採人為主導(Human‑in‑command,HIC)或人機互動覆核(Human‑in‑the‑loop,HITL),建議性或低風險情境則採人為監督式(Human‑on‑the‑loop,HOTL)。無論單一或共同負責,相關責任人需清楚其職責、接受必要訓練,並保留決策紀錄以利追溯。責任不得轉嫁給 AI,但可將特定任務自動化;法律上的責任與賠償事項則依適用法規處理。

正方形

8. 發展文化與未來導向

我們對 AI 的可能性充滿期待,願在可控環境下嘗試並從錯誤中學習。開發以小步快跑、密集監控為原則,初期採 HIC(人為主導)或 HITL(人機互動覆核),當可靠性與安全性驗證到位後,才考慮轉為 HOTL(監督式)。整體流程以責任為核心:定義監控指標、保留審查紀錄,並把學習回饋導入實務。我們希望成為領先者,抓住機會,同時準備好面對未來的挑戰。

代表發展文化與未來導向的燈泡與齒輪圖示。

AI 應用指南詞彙表

在人為主導(Human-in-command)的模式下,所有關鍵決策需由人最終核准。AI 可提供建議或草稿,但執行前必須經人工審核與同意。範例:員工先審閱 AI 生成的回覆郵件,確認無誤後再發送給客戶。

在人機互動覆核(Human‑in‑the‑loop)的模式下,系統雖自動運作,但人員可隨時介入。AI 在流程中自動執行部分步驟,遇例外或需判斷時由人工覆核或接手。範例:AI 語音客服機器人先回答常見問題,遇複雜情況則轉人工處理。

在人為監督式(Human‑on‑the‑loop)模式下,AI 高度自主,人工以監控指標為主。系統在多數情境自行運作,如日常對話或建議,後台人員監控品質與異常,必要時介入修正。範例:AI 語音客服機器人能處理大量來電,客服中心在後台檢視成功率與偏差指標,發現異常則介入。

開發早期的測試方式,邀請外部或目標客群以友善的角度試用 AI 應用程式,蒐集初步使用感受與回饋,幫助識別問題與改善顧客體驗。

開發早期的外部體驗試用。邀請目標客群或外部使用者試用早期版本,從實際使用角度收集回饋與可用性問題。範例:邀外部用戶測試 AI 知識型機器人的聊天介面並提供初步使用心得。

由內部人員做的實務驗證。在納入外部的使用者友善測試回饋後,由公司內部人員在接近真實情境下驗證流程與商業影響,作為上線前的關鍵驗收。範例:線上客服團隊在測試環境完整執行流程並回報整合性問題。

AI 產品

AI Hub 為您全力支援客戶服務

我們的 AI Hub 開發平台能為各式 AI 應用提供統一的基礎架構。從購物助理到語音客服,都能為您的客戶提供個人化服務和購物體驗。


  • AI 購物助理
  • AI 語音客服機器人
  • 品牌文案產生器
  • 無障礙機器人
  • 知識型機器人
AI 解決方案

零售&物流 AI 應用

我們認為人工智慧本身並非最終目的,反而是支援零售和物流的重要工具。責任始於人類。對我們來說,這代表著落實負責任的 AI 應用。

一位男性送貨員正在倉庫內檢查包裹

更多有關人工智慧&虛擬助理

兩個智慧型手機截圖,分別顯示 Manufactum 品牌的聊天機器人與商品頁面

多通路零售商依靠 one.O 的 AI 人工智慧購物顧問。

一位穿著藍色襯衫的男子坐在沙發上,使用平板,並在 AI 助理的協助下享受線上購物,背景有一輛自行車

AI 驅動的虛擬助理將消費挫折轉換成無縫的電商購物體驗。

bonprix - 品牌語言轉換器

時尚零售商 bonprix 成功推出專屬的品牌語言轉換器。

一名男子在手機上使用 AI 聊天機器人

零售電商要如何使用聊天機器人(Chatbot)和人工智慧(AI),並從中獲益?

請注意有關 AI 助手的免責聲明
text bubble 你需要協助嗎?