OraCore.dev
新聞趨勢比較排行學習Claude Code
新聞趨勢比較排行學習Claude Code
← 術語表

Hallucination

概念

定義

語言模型產生流暢且自信、但事實錯誤、憑空捏造或與來源矛盾的內容。根本原因是模型在最佳化合理的 token 序列,而不是直接保證事實正確。

相關術語

RAG (Retrieval-Augmented Generation)

先從知識庫中檢索相關文件(通常透過向量搜尋),再把文件注入 prompt 來增強 LLM 回答的架構。它能讓模型引用外部且較新的事實,而不必重新訓練。

Prompt Engineering

設計輸入以引導模型產生最佳輸出的實務。它包含 chain-of-thought、few-shot 範例、角色提示、結構化輸出指示與 system prompt 設計。

Hallucination 相關文章

Cat Wu 談 Claude 的主動式 AI

2026 年 MLOps 架構與策略指南

為什麼 ChatGPT 的 goblin bug 證明封閉模型太脆弱

5 步完成 RAG 管線

OpenAI Codex 額度大砍:Pro 會員反而更划算

全部術語

AgentAttention MechanismChain-of-ThoughtContext WindowDiffusion ModelDistillationDPO (Direct Preference Optimization)EmbeddingFew-shot PromptingFine-tuningFunction CallingGAN (Generative Adversarial Network)GRPO (Group Relative Policy Optimization)HallucinationInferenceLLM (Large Language Model)LoRA (Low-Rank Adaptation)MCP (Model Context Protocol)MultimodalPrompt EngineeringQLoRA (Quantized LoRA)QuantizationRAG (Retrieval-Augmented Generation)RLHF (Reinforcement Learning from Human Feedback)TemperatureTokenizerTool UseTop-p (Nucleus Sampling)TransformerVector DatabaseZero-shot Prompting

內容

  • 新聞
  • AI 趨勢總覽
  • LLM 模型比較 2026
  • AI 排行與熱門榜單

分類

  • 模型發布
  • AI Agent
  • 技術研究
  • 區塊鏈

工具

  • AI 術語表
  • LLM API 費用計算機
  • AI 發展時間軸 2024–2026
  • 開發者提示詞庫

關於

  • 編輯團隊
  • OG 預覽
  • RSS Feed

© 2026 OraCore.dev

v4.37.3·—