AI 術語表
AI 與機器學習術語的白話文解說,可搜尋、可深層連結。
Diffusion Model
模型一種學習反轉加噪過程的生成模型。它從純噪聲開始逐步去噪,產生圖片、音訊或影片,是 Stable Diffusion、DALL-E 3、Midjourney 與 Sora 等系統的基礎。
Distillation
技術訓練較小的 student model 去模仿較大的 teacher model。這能產生更輕量的模型,以較低運算成本保留多數能力,常見於 DeepSeek-R1-Zero 與許多生產模型。
DPO (Direct Preference Optimization)
技術一種對齊訓練方法,直接用人類偏好成對資料(preferred vs. rejected responses)最佳化模型,不需要另外訓練 reward model。比 RLHF 更簡單、更穩定,常用於 instruction tuning。
Temperature
概念控制輸出隨機性的 sampling 超參數。temperature 為 0 時模型總是選最高機率的下一個 token;數值越高,輸出越多樣、更有創意,但超過 1.0 容易引入噪聲。
Tokenizer
工具把原始文字轉換成模型可處理 token ID 的元件。現代 LLM 多使用 BPE 或類似 subword 演算法;token 數會影響成本,也決定能否放進 context window。
Tool Use
概念LLM 在 inference 過程中呼叫外部工具的能力,例如網頁搜尋、程式執行、計算機或 API。模型決定何時、如何呼叫工具,接收結果後再整合進回覆。
Top-p (Nucleus Sampling)
概念一種 sampling 策略,模型只從累積機率達到 p 的最小候選集合中選下一個 token。它比固定 top-k 更能動態平衡多樣性與連貫性,常與 temperature 搭配使用。
Transformer
模型2017 年「Attention Is All You Need」論文提出的神經網路架構,取代 recurrent networks 處理序列建模。它完全基於 self-attention 與 feed-forward layers,是幾乎所有現代 LLM 的基礎。
顯示 31 / 31 個術語