OraCore.dev
新聞趨勢比較排行學習Claude Code
新聞趨勢比較排行學習Claude Code
← 術語表

Attention Mechanism

技術

定義

Transformer 的核心機制,讓模型在產生每個輸出 token 時判斷序列中哪些 token 更重要。Self-attention 讓每個 token 都能參照其他 token,因此能捕捉長距離關係。

相關術語

Transformer

2017 年「Attention Is All You Need」論文提出的神經網路架構,取代 recurrent networks 處理序列建模。它完全基於 self-attention 與 feed-forward layers,是幾乎所有現代 LLM 的基礎。

Context Window

模型單次呼叫可處理的最大 token 數,包含輸入 prompt 和輸出內容。更大的 context window 可以處理整個程式碼庫、書籍或長對話;單位是 token,不是字元。

全部術語

AgentAttention MechanismChain-of-ThoughtContext WindowDiffusion ModelDistillationDPO (Direct Preference Optimization)EmbeddingFew-shot PromptingFine-tuningFunction CallingGAN (Generative Adversarial Network)GRPO (Group Relative Policy Optimization)HallucinationInferenceLLM (Large Language Model)LoRA (Low-Rank Adaptation)MCP (Model Context Protocol)MultimodalPrompt EngineeringQLoRA (Quantized LoRA)QuantizationRAG (Retrieval-Augmented Generation)RLHF (Reinforcement Learning from Human Feedback)TemperatureTokenizerTool UseTop-p (Nucleus Sampling)TransformerVector DatabaseZero-shot Prompting

內容

  • 新聞
  • AI 趨勢總覽
  • LLM 模型比較 2026
  • AI 排行與熱門榜單

分類

  • 模型發布
  • AI Agent
  • 技術研究
  • 區塊鏈

工具

  • AI 術語表
  • LLM API 費用計算機
  • AI 發展時間軸 2024–2026
  • 開發者提示詞庫

關於

  • 編輯團隊
  • OG 預覽
  • RSS Feed

© 2026 OraCore.dev

v4.37.3·—