[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-llm-narratives-global-majority-nationalities-zh":3,"tags-llm-narratives-global-majority-nationalities-zh":30,"related-lang-llm-narratives-global-majority-nationalities-zh":41,"related-posts-llm-narratives-global-majority-nationalities-zh":45,"series-research-efcb794e-1864-4a37-a203-1e525da9641f":82},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":18,"translated_content":10,"views":19,"is_premium":20,"created_at":21,"updated_at":21,"cover_image":11,"published_at":22,"rewrite_status":23,"rewrite_error":10,"rewritten_from_id":24,"slug":25,"category":26,"related_article_id":27,"status":28,"google_indexed_at":29,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":20},"efcb794e-1864-4a37-a203-1e525da9641f","LLM 會把國籍寫歪嗎","\u003Cp>大型語言模型現在不只拿來聊天，還被放進各種生成流程，甚至包含高風險情境。這篇論文 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.22749\">Representational Harms in LLM-Generated Narratives Against Global Majority Nationalities\u003C\u002Fa>，問的是一個很實際的問題：當你叫模型寫不同國籍的人，最後寫出來的故事會不會把某些群體寫歪？\u003C\u002Fp>\u003Cp>答案不太好看。作者發現，LLM 會在國籍相關敘事裡持續產生表徵傷害，包含刻板印象、抹除，以及對 Glob\u003Ca href=\"\u002Fnews\u002Factive-experiment-selection-cheaper-scaling-laws-zh\">al\u003C\u002Fa> Majority 身份的單一化描寫。這種問題不只是「有沒有冒犯字眼」而已，而是模型把誰寫成主角、誰被寫成配角、誰被寫成附屬角色。\u003C\u002Fp>\u003Cp>對開發者來說，這篇研究的重點很直接：偏誤不一定長得像毒性字詞。它也可能藏在敘事結構裡，藏在角色分工裡，藏在模型默認的世界觀裡。你如果只看表面流暢度，很容易漏掉。\u003C\u002Fp>\u003Ch2>這篇論文在解什麼痛點\u003C\u002Fh2>\u003Cp>這篇研究要補的是一個常被忽略的評估缺口。很多安全與公平性研究，會先抓明顯的毒性、辱罵、仇恨詞。但表徵傷害不一定會用這種形式出現。它更像是長期、重複地把某些群體寫得更有權力、更正常、更完整；同時把其他群體寫成背景、依附者，或只剩某種刻板印象。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777270196907-lobf.png\" alt=\"LLM 會把國籍寫歪嗎\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這件事之所以重要，是因為 LLM 已經被用在會影響判斷與感受的任務裡。像是產生人物簡介、摘要、模擬對話、情境文字，甚至模擬面談。當提示詞裡帶有身分線索時，模型不只是在改變文風，也可能在改變社會意義。\u003C\u002Fp>\u003Cp>作者特別把焦點放在國籍。原因很直白：國籍是很常見的身分軸線，但在評估裡卻不一定被認真看待。尤其是 Global Majority 的群體，往往不是被當成核心對象來設計或驗證。結果就是，模型可能在你沒注意到的地方，把這些人寫得很扁平。\u003C\u002Fp>\u003Cp>這篇論文想處理的，不是「模型會不會完全亂說」。而是更細的問題：當模型被要求寫一個人時，它會不會自動把某些國籍當成預設主角，把其他國籍寫成次等角色。這種差異，才是實務上最難抓的地方。\u003C\u002Fp>\u003Ch2>方法怎麼做，白話講就是什麼\u003C\u002Fh2>\u003Cp>這項研究看的是 LLM 在開放式敘事生成提示下的反應。它不是做二元分類，也不是丟固定問卷，而是觀察模型在被要求寫故事、寫敘事時，會怎麼處理不同國籍身分。\u003C\u002Fp>\u003Cp>這個設計很重要，因為表徵傷害最常躲在敘事裡。模型不一定會直接罵人，但它可能一直讓某些群體當被動角色，或把複雜的人寫成只有單一標籤。開放式提示能讓這些模式自然浮現，而不是被硬塞進一個很窄的測試框架。\u003C\u002Fp>\u003Cp>作者也特別比較了提示詞裡出現美國國籍線索時的效果。換句話說，他們不只看「這個國籍會怎麼被寫」，也看「只要提示裡有美國 cue，其他國籍會不會被連帶影響」。這很像在看模型是不是會自動切到美國中心的敘事框架。\u003C\u002Fp>\u003Cp>另外，他們還檢查一個常見辯解：這是不是只是 sycophancy，也就是模型在迎合提示詞、照著使用者的框架回話。如果只是迎合，那問題可能還能怪 prompt。若不是，那就表示偏差更深，已經在模型的預設聯想裡。\u003C\u002Fp>\u003Cp>從工程角度看，這種方法很有參考價值。因為很多團隊只會做輸出過濾，卻不會系統性檢查敘事風格。這篇研究提醒你，真正的風險不只在「說了\u003Ca href=\"\u002Fnews\u002F-zh\">什麼\u003C\u002Fa>」，也在「怎麼說」與「誰被怎麼安排」。\u003C\u002Fp>\u003Ch2>論文實際證明了什麼\u003C\u002Fh2>\u003Cp>最核心的結果是：模型對國籍的表徵傷害是持續存在的。作者觀察到的問題包含刻板印象、抹除，以及對 Global Majority 身份的單一化描寫。白話說，就是某些國家或族群不只是被描述得不一樣，而是被描述得更沒有主體性、更沒有層次。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777270192343-8r9q.png\" alt=\"LLM 會把國籍寫歪嗎\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>論文指出，次等化的國籍身分在「沒有明顯權力差異的故事」裡反而較少出現，但在被寫成從屬角色時會大量出現。這類從屬描寫比主導描寫多出五十倍以上。摘要沒有提供完整 b\u003Ca href=\"\u002Fnews\u002Fai-agents-token-spending-coding-tasks-zh\">en\u003C\u002Fa>chmark、模型清單或實驗表格，所以這裡只能保留這個公開的數字資訊，不能再延伸出更多量化結論。\u003C\u002Fp>\u003Cp>另一個重要發現是，只要提示詞裡有美國國籍線索，傷害就會變得更嚴重。這代表模型不是單純依照局部文字反應，而是會喚起更廣泛的美國中心敘事習慣，進而改寫對其他國籍的描述。\u003C\u002Fp>\u003Cp>更關鍵的是，作者說這些問題不能簡單歸因於 sycophancy。即使把提示中的美國線索換成非美國國籍，US-centric 偏誤仍然存在。這表示模型不是只是在「附和使用者」，而是自己就帶著一套國籍階序進入生成流程。\u003C\u002Fp>\u003Cp>這點對做生成產品的人很重要。因為它告訴你，偏誤不一定要靠明顯惡意才會出現。只要提示詞碰到某些身分線索，模型就可能自動切換到不對等的敘事模板。\u003C\u002Fp>\u003Ch2>對開發者有什麼影響\u003C\u002Fh2>\u003Cp>如果你在做 LLM 產品，這篇研究提醒你：輸出品質不能只看流暢度或事實性。敘事框架本身就可能承載偏誤，而且這種偏誤通常很難靠人工快速掃描發現，卻會被受影響的人一眼看穿。\u003C\u002Fp>\u003Cp>這對很多產品線都適用，像是內容生成、內容審核、助理系統、評估管線，以及任何會產生身分相關文字的工作流。只要你的產品會寫人物簡介、情境文本、角色扮演、面談模擬或合成樣本，就要注意模型是不是把主流身份當常態，把其他身份當例外。\u003C\u002Fp>\u003Cul>\u003Cli>檢查模型是否反覆把主導群體寫成有主體性，把次等化群體寫成被動角色。\u003C\u002Fli>\u003Cli>測試提示詞有沒有美國國籍線索，因為這會改變敘事走向。\u003C\u002Fli>\u003Cli>不要只靠毒性過濾器，表徵傷害常常更隱性，但傷害不小。\u003C\u002Fli>\u003Cli>評估時要看不同身分群體的敘事差異，不要只看平均分數。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這篇論文也對一些可能被拿去做分類、監控或面談的場景提出警訊。作者明確提醒，不要不加思索就把美國本土訓練出的 LLM 拿去用在這類用途，因為它們可能會誤寫世界上多數人的身份與處境。這句話很重，但從這篇研究的範圍來看，是有根據的。\u003C\u002Fp>\u003Ch2>限制與還沒回答的問題\u003C\u002Fh2>\u003Cp>這篇研究很有價值，但摘要也留下不少未公開細節。它沒有列出測試了哪些模型，也沒有公開完整的提示集或評估標準。更重要的是，摘要沒有提供一般 benchmark 式的完整數字，所以不能把它解讀成某種模型排行榜。\u003C\u002Fp>\u003Cp>另外，這項工作聚焦在敘事生成，所以它最直接能說明的是文字輸出中的表徵傷害。它證明的是：在開放式敘事與身分提示下，偏誤可以很穩定地出現。但這不等於它已經證明所有下游任務都會以同樣方式受影響。\u003C\u002Fp>\u003Cp>還有一個實作上的難題，是怎麼大規模衡量表徵傷害。這種傷害不像準確率那樣容易打分，也不像有毒內容那樣容易做關鍵字攔截。作者提到需要以 Global Majority 觀點為中心的方法，這其實是在提醒業界：評估框架本身就要重做。\u003C\u002Fp>\u003Cp>所以，這篇論文的實際訊息不是「某模型壞掉了」。而是「如果你只做一般安全檢查，你很可能漏掉更深的敘事偏誤」。對產品團隊來說，這是很值得提早納入 eval 的問題。\u003C\u002Fp>\u003Cp>總結來說，這篇研究把國籍表徵拉進了 LLM 安全討論的核心。它告訴我們，模型不只是會不會講錯事實，還會不會把某些人寫得比較像人、某些人寫得比較不像。對開發者而言，這種差異就是產品風險的一部分。\u003C\u002Fp>","這篇 arXiv 研究發現，常見 LLM 在寫國籍敘事時，會對 Global Majority 身份產生刻板印象、抹除與單一化描寫；只要提示詞出現美國線索，偏差還會加重。","arxiv.org","https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.22749",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777270196907-lobf.png",[13,14,15,16,17],"LLM","representational harm","national identity","Global Majority","prompt bias","zh",0,false,"2026-04-27T06:09:36.804702+00:00","2026-04-27T06:09:36.685+00:00","done","f0a45e25-6168-4979-b07b-6e8bf74c87ee","llm-narratives-global-majority-nationalities-zh","research","bafbed2b-3504-43e8-aecf-aefd70bbf2d9","published","2026-04-27T09:00:07.206+00:00",[31,33,35,37,39],{"name":15,"slug":32},"national-identity",{"name":17,"slug":34},"prompt-bias",{"name":13,"slug":36},"llm",{"name":14,"slug":38},"representational-harm",{"name":16,"slug":40},"global-majority",{"id":27,"slug":42,"title":43,"language":44},"llm-narratives-global-majority-nationalities-en","How LLMs Stereotype Global Majority Nationalities","en",[46,52,58,64,70,76],{"id":47,"slug":48,"title":49,"cover_image":50,"image_url":50,"created_at":51,"category":26},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":53,"slug":54,"title":55,"cover_image":56,"image_url":56,"created_at":57,"category":26},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":59,"slug":60,"title":61,"cover_image":62,"image_url":62,"created_at":63,"category":26},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":65,"slug":66,"title":67,"cover_image":68,"image_url":68,"created_at":69,"category":26},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":71,"slug":72,"title":73,"cover_image":74,"image_url":74,"created_at":75,"category":26},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":77,"slug":78,"title":79,"cover_image":80,"image_url":80,"created_at":81,"category":26},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[83,88,93,98,103,108,113,118,123,128],{"id":84,"slug":85,"title":86,"created_at":87},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":89,"slug":90,"title":91,"created_at":92},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":94,"slug":95,"title":96,"created_at":97},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":99,"slug":100,"title":101,"created_at":102},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":104,"slug":105,"title":106,"created_at":107},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":109,"slug":110,"title":111,"created_at":112},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":114,"slug":115,"title":116,"created_at":117},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":119,"slug":120,"title":121,"created_at":122},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":124,"slug":125,"title":126,"created_at":127},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":129,"slug":130,"title":131,"created_at":132},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]