AI 試點復盤模板:4 個問題、1 張紙
試點結束,一定要復盤
你花了三個禮拜讓 AI 工具跑一個小流程。跑完了,數據出來了。然後呢?
大多數團隊的「然後」是——沒有然後。試點結束,大家回去忙原本的事,AI 工具變成「之後再說」。三個月後要推第二個場景,沒人記得第一次學到了什麼。
問題不在於試點本身,在於沒有復盤。但復盤不需要寫報告,不需要開兩小時的會。你只需要回答 4 個問題,一張紙就夠了。
問題一:KPI 達成了嗎?
用數字回答,不要用感覺。
試點開始前你設了目標——省多少時間、錯誤率降到多少。現在把數字拉出來:
- 時間節省:原本每週花 10 小時的流程,現在花幾小時?「大概省了一點」就是沒有量測,這本身就是問題。
- 錯誤率變化:看「最終交付錯誤率」,不是 AI 準確率。AI 準確率 95% 經過人工 review 後錯誤率可能是 1%,兩者意義不同。
- 交付穩定性:有沒有出現過延遲或中斷?
如果 KPI 沒達標,先看是目標設太高、導入方式有問題、還是場景不適合。三種原因的解法完全不同。
問題二:流程穩定嗎?
試點期間有沒有需要人工介入的次數異常多?
這裡說的「介入」不是正常的 review,而是計畫外的人工插手——AI 產出要重做、流程卡住要手動繞過、異常情境要人工接管。
記錄兩件事:介入次數,以及原因分布是同一類問題反覆出現,還是各種隨機問題。同一個問題出現三次以上是系統性缺陷,擴大前必須修掉。
穩定性的底線:流程能在沒有人盯著的情況下正常運行。如果你每天花 30 分鐘「確認 AI 有沒有出包」,這個流程還沒穩定。
問題三:review 品質夠嗎?
review owner 有沒有實際攔截到問題?看兩個指標:
- 攔截率:review 環節實際攔下了多少錯誤?攔截率是 0%,要麼 AI 完美(幾乎不可能),要麼 review 形同虛設。
- 漏過率:多少錯誤是到下游才被發現的?這些才是真正該緊張的。
review 品質不夠通常兩個原因:reviewer 不知道要看什麼(靠 SOP 解決),或沒時間認真看(靠流程設計解決——比如把逐筆檢查改成抽樣加異常標記)。
問題四:擴大前要改什麼?
只挑一件事。
試點一定會暴露問題,列十個改進項目很容易,但下一輪試點開始前只能完成一件事,你選哪件?
標準:影響面最大、阻礙感最強的那一件。不要選最容易做的,容易做的事影響通常也小。也不要選「最根本的」——如果需要重架整個系統才能推進,試點設計就有問題。
挑一件事,寫下具體改動、負責人、完成時間。其他問題記下來但不處理,它們會在下次復盤時再次出現。
怎麼用這個模板
時機:試點結束後 3 天內。超過一週,記憶模糊、數據散落,復盤就變成形式。
方式:30 分鐘,一個人填完。試點負責人拉數據、填四個問題、附上關鍵數字。
產出:一張紙,貼在團隊看板或共用資料夾。
原則:不需要完美,需要及時。粗糙但及時的復盤,遠勝精美但三個月後才完成的報告。
復盤是給下一次試點用的
很多人把復盤當成「試點的結尾」,但它真正的價值是「下一次試點的開頭」。
沒有復盤,第二次試點和第一次一樣——踩同樣的坑、犯同樣的錯誤,每次都像第一次。有了復盤,第二次的起點就是第一次的終點。每試點一次,就前進一步。
不做復盤,每次都是第一次。