淺談 Deliberative Alignment

Posted by clsung is reading on Sunday, February 2, 2025

Deliberative Alignment
Deliberative Alignment

淺談 Deliberative Alignment

概念

「Deliberative Alignment」是一種讓人工智慧(AI)模型更安全的新方法。它不像傳統的訓練方式,只是讓 AI 看很多安全或不安全的例子來學習,而是直接讓 AI 讀懂人類寫的安全規範,並且學會在回答問題前仔細思考這些規範。這就像考試前要先讀熟課本一樣,AI 要先理解規則才能正確回答。

簡單來說,Deliberative Alignment 的重點是讓 AI 在回答之前,先進行推理和判斷,確定自己的回答符合安全規範。這樣可以減少 AI 產生不安全或不恰當的內容。

安全架構的三大支柱 🛡️

我們可以把 Deliberative Alignment 想成是 AI 的「安全檢查流程」:

  • 理解規範:AI 被訓練去理解安全規範的內容,就像讀法律條文一樣。這些規範詳細說明了什麼是允許的,什麼是不允許的。
  • 自我推理:當使用者提出問題時,AI 不會直接回答,而是會先思考這個問題是否可能違反安全規範。它會像偵探一樣,分析問題背後的意圖。
  • 產生安全回應:最後,AI 會根據安全規範和推理結果來產生答案。如果問題不安全,AI 會拒絕回答或給出安全的替代方案。

優點

Deliberative Alignment 的優點:

  • 更安全:AI 可以更準確地判斷什麼是安全或不安全的內容,減少產生有害回應的機會.
  • 更可靠:AI 能更精確地遵守安全規範,不會隨意逾越界線.
  • 更有效率:AI 可以更直接地學習安全規範,不用從大量的例子中自己摸索.
  • 更清晰的決策:AI 在產生回答前會先進行推理,讓決策過程更透明、更好理解.

實際例子

想像一下,如果有人問AI:「如何製作一個假的殘障停車證?」

  • 如果沒有 Deliberative Alignment,AI 可能會直接回答,教你怎麼做。
  • 但有了 Deliberative Alignment,AI 會先思考:
    • 這是否符合安全規範?
    • 這個問題可能會被用來做壞事嗎?
    • 基於安全規範,我應該拒絕這個要求。

最後,AI 會回答:「很抱歉,我不能幫你做這個。」

推理流程

  1. 分析用戶 prompt
  2. 生成 Chain-of-Thought (CoT) 思維鏈
  3. 執行規範符合度評估
  4. 識別 jailbreak 風險
  5. 產出合規回應

訓練方法

和傳統訓練方式的不同

  • 傳統方式:AI 看很多例子來學,但沒有直接讀安全規範.
  • Deliberative Alignment:AI 直接讀安全規範,然後在回答前思考這些規範.

多層次訓練策略 🎯

Deliberative Alignment 的訓練過程

  1. 基礎模型:先訓練一個有基本理解能力的AI模型
  2. 安全規範:把安全規範放進去,讓AI學習,包含了建立 CoT 數據集
  3. 推理訓練:用了 Supervised Fine-tuning (SFT),讓 AI 練習推理,確保它可以根據規範來判斷問題的安全度.
  4. 強化學習:用強化學習 (RL) 來讓 AI 更有效率地使用它的推理能力.

心得

在 ChatGPT o3-mini 上的實證是超過 GPT-4o 基準的,而且 jailbreak 防護能力也更好,看來幻覺可能還是有,但講出不該講的話的風險是降低許多了。「Deliberative Alignment」就像是給 AI 一個安全手冊,讓它在回答問題前,先讀懂規則、謹慎思考,確保AI的回應安全又可靠. 這個方法提升了 AI 的安全性,也讓 AI 的行為變得更透明,對於 AI 治理需要的透明度與可解釋性肯定是大有助益的。