[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-anthropic-launches-institute-for-ai-social-impact-zh":3,"tags-anthropic-launches-institute-for-ai-social-impact-zh":35,"related-lang-anthropic-launches-institute-for-ai-social-impact-zh":51,"related-posts-anthropic-launches-institute-for-ai-social-impact-zh":55,"series-industry-93f0f2d1-3503-4e1c-88f5-7f4570ad1fe7":92},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":23,"translated_content":10,"views":24,"is_premium":25,"created_at":26,"updated_at":26,"cover_image":11,"published_at":27,"rewrite_status":28,"rewrite_error":10,"rewritten_from_id":29,"slug":30,"category":31,"related_article_id":32,"status":33,"google_indexed_at":34,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":25},"93f0f2d1-3503-4e1c-88f5-7f4570ad1fe7","Anthropic 成立 AI 社會影響研究所","\u003Cp>Anthropic 又開了一個新單位，名字叫 The Anthropic Institute。講白了，就是把公司內部原本分散的社會影響、安全研究、經濟分析整合起來，專門研究人工智慧會怎麼改變工作、法律、治理和風險管理。\u003C\u002Fp>\u003Cp>這件事之所以值得看，不是因為名字很大。是因為 Anthropic 自己說，過去 5 年的 AI 進展，把原本像是 10 年的節奏壓縮成更短時間。公司成立 5 年，前 2 年做出第一個商用模型，後 3 年把模型推到能找出嚴重資安漏洞、處理真實工作、甚至幫忙加速 AI 研究。\u003C\u002Fp>\u003Cp>如果這個判斷沒太離譜，那重點就不是「模型又更強了」。而是社會制度跟不跟得上。法院、勞動市場、監管機構、企業內控流程，這些東西更新速度通常比軟體慢很多。你今天把 Claude API 接進公司流程，明天可能就碰到責任歸屬、資料保存、錯誤判斷、審計紀錄一堆問題。\u003C\u002Fp>\u003Ch2>為什麼 Anthropic 現在要切出研究所\u003C\u002Fh2>\u003Cp>Anthropic 這次不是單純成立一個政策部門。它把這個研究所定位成內部單位，但對外發佈研究結果。目標很直接，就是整理公司內部掌握到的模型證據，再把資料和分析公開給研究者、政策制定者、勞工和一般大眾。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774517466560-00by.png\" alt=\"Anthropic 成立 AI 社會影響研究所\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>時間點也很明顯。Anthropic 在公告裡直接說，未來 2 年 AI 可能還會出現更劇烈的進展。這個說法其實和 CEO Dario Amodei 近來的公開論述一致。他一直在強調，高能力 AI 可能比很多機構預期更早出現。\u003C\u002Fp>\u003Cp>我覺得這裡最有意思的，不是「又一家 AI 公司談社會責任」。而是 Anthropic 很清楚知道，單靠模型評測和 safety case 不夠。當模型開始進入法律、行政、企業決策流程，問題就不只是 hallucination。還包含誰負責、誰審核、出了錯怎麼追溯、怎麼保留證據。\u003C\u002Fp>\u003Cp>這個研究所會由 Anthropic 共同創辦人 Jack Clark 領導，新職稱是 Head of Public Benefit。初期成員包含機器學習工程師、經濟學者和社會科學研究者。它也整合了公司原本幾個團隊，像是 Frontier Red Team、Societal Impacts 和 Economic Research。\u003C\u002Fp>\u003Cul>\u003Cli>Anthropic 成立約 5 年\u003C\u002Fli>\u003Cli>前 2 年推出第一個商用模型\u003C\u002Fli>\u003Cli>後 3 年持續強化真實世界能力\u003C\u002Fli>\u003Cli>公司預測未來 2 年還會有更快進展\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這種組織設計有一個現實意義。研究人員可以直接接觸第一手模型資料，不用只看公開 benchmark 猜來猜去。外部學者常常拿不到 frontier model 的實際部署資訊，研究自然會卡住。\u003C\u002Fp>\u003Cp>但另一面也很現實。當一家公司既賣模型，又研究模型對社會的影響，你最好保持一點懷疑。它的研究可能有價值，但不能照單全收。說真的，科技公司自己寫自己的社會影響報告，永遠都需要外部驗證。\u003C\u002Fp>\u003Ch2>它想研究什麼，範圍其實很大\u003C\u002Fh2>\u003Cp>The Anthropic Institute 公布的研究方向很廣，但不是那種空話式清單。它點名幾個主題：AI 對勞動市場和經濟產出的影響、新型風險、模型表達出的社會價值，以及如果遞迴式自我改進真的開始出現，治理要怎麼設計。\u003C\u002Fp>\u003Cp>你可能會想問，這些題目是不是太大了。答案是，對，很大。但也很實際。因為現在很多企業導入 LLM，不是拿來聊天而已，而是拿來寫程式、整理文件、做客服、做內部知識查詢。當這些工具從輔助變成流程核心，勞動分工和責任分配一定會改。\u003C\u002Fp>\u003Cp>Anthropic 也說，研究所已經有幾個具名專案在跑。包括預測 AI 進展速度，以及研究進階 AI 系統會怎麼和法律系統互動。後者特別值得看，因為法律場景不是單純答題。它牽涉證據、程序正義、責任分配、專家證詞和大量文書工作。\u003C\u002Fp>\u003Cblockquote>\u003Cp>“AI progress won’t just be about making systems more powerful. It will also be about understanding how those systems will affect the economy, law, and society.”\u003C\u002Fp>\u003Cfooter>— Jack Clark，Anthropic 共同創辦人\u003C\u002Ffooter>\u003C\u002Fblockquote>\u003Cp>這句話其實講得很白。模型能力提升只是表層。真正麻煩的是，制度要怎麼接住這些能力。法院不可能像部署 API 一樣，每週更新一次。政府採購、司法程序、企業法遵，全都慢很多。\u003C\u002Fp>\u003Cp>Anthropic 也同步公布幾位早期成員。Matt Botvinick 會負責 AI 與法治相關研究，他曾在 Google DeepMind、Princeton，也在 Yale Law School 擔任 Resident Fellow。經濟學者 Anton Korinek 目前自 University of Virginia 暫離，將研究具高度變革性的 AI 如何重塑經濟活動。Zoë Hitzig 則曾在 OpenAI 研究 AI 的社會與經濟影響，現在負責把經濟研究和模型開發接起來。\u003C\u002Fp>\u003Cp>法律這條線我特別想多講一點。過去兩年，AI 公司最常談的是 benchmark、紅隊測試、模型對齊、危害分類。現在 Anthropic 把焦點拉到法律系統本身，代表它看到的問題已經不是模型會不會答錯，而是模型進入法律流程後，整個制度會怎麼變形。\u003C\u002Fp>\u003Cp>例如，AI 生成的法律摘要出錯，律師、事務所、軟體供應商誰負責。法官如果參考 AI 輔助分析，紀錄要不要保存。行政機關若用 AI 篩案件，人民能不能要求解釋。這些都不是技術團隊自己訂個 policy 就能解決的事。\u003C\u002Fp>\u003Cul>\u003Cli>研究主題包含勞動市場與經濟產出\u003C\u002Fli>\u003Cli>也包含法律、治理與模型價值表達\u003C\u002Fli>\u003Cli>已啟動 AI 進展預測專案\u003C\u002Fli>\u003Cli>已啟動 AI 與法律系統互動研究\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>和其他 AI 實驗室相比，有什麼不同\u003C\u002Fh2>\u003Cp>現在幾乎每家大型 AI 公司都有政策、安全或社會影響團隊。OpenAI 有治理和政策工作。Google DeepMind 也有 safety、policy、responsibility 相關研究。Meta 則長期在開源、政策與風險治理之間找平衡。Anthropic 這次的差異，在於它把幾個既有團隊包成一個研究所，並給它一個很明確的公共利益定位。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774517482874-vky9.png\" alt=\"Anthropic 成立 AI 社會影響研究所\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>另一個差異是，它把研究和政策遊說分開來說。Anthropic 表示，研究所負責產出分析和證據。獨立擴編的 Public Policy 團隊，則會推動公司在模型安全、透明度、出口管制、基礎設施投資、能源費率保護和民主治理上的立場。\u003C\u002Fp>\u003Cp>這個切分很重要。因為只要研究和 lobbying 混在一起，可信度就會掉很快。你今天說自己在做社會影響研究，明天又拿同一份分析去推對自己有利的監管方案，外界一定會皺眉。分開不代表完全沒利益衝突，但至少比全部塞在同一個部門乾淨。\u003C\u002Fp>\u003Cp>Anthropic 也提到，Sarah Heck 領導的 Public Policy 團隊正在擴編。她之前待過 Stripe，也在白宮國安會工作過。公司預計在 2026 年春季開設第一個華盛頓特區辦公室，同時擴大全球政策佈局。\u003C\u002Fp>\u003Cul>\u003Cli>Anthropic 將 Frontier Red Team、Societal Impacts、Economic Research 整合進研究所\u003C\u002Fli>\u003Cli>Public Policy 團隊另外擴編\u003C\u002Fli>\u003Cli>政策議題涵蓋透明度、出口管制、能源與基礎設施\u003C\u002Fli>\u003Cli>預計 2026 年春季設立首個 DC 辦公室\u003C\u002Fli>\u003C\u002Ful>\u003Cp>跟競品相比，Anthropic 這步有點像把「安全研究」往「制度研究」再推一層。OpenAI 近年較常從產品部署、治理框架和 public policy 發聲。Google DeepMind 有很強的研究傳統，但企業體量更大，訊號有時會被其他業務稀釋。Anthropic 則一直把自己包裝成比較重視 safety 的公司，現在乾脆把社會影響研究品牌化。\u003C\u002Fp>\u003Cp>不過品牌化也有風險。你把單位命名成 Institute，大家自然會用更高標準檢查。報告如果只是把大家早就知道的風險重新排版，外界不會買單。你總不能每次都說「AI 會影響工作與社會」，然後沒有新資料、沒有方法、沒有可驗證預測。\u003C\u002Fp>\u003Cp>我覺得外界最該盯的，是它能不能提供只有 frontier model 公司才拿得到的證據。像是真實部署後的工作流程變化、不同職務的生產力差異、法律文件處理的錯誤率、模型在高風險場景的失誤案例。這些東西如果公開得夠細，價值就很高。\u003C\u002Fp>\u003Ch2>真正的看點，在資料品質和可驗證性\u003C\u002Fh2>\u003Cp>AI 產業現在很愛談風險，也很愛談責任。但很多內容講到最後都很抽象。問題不是大家沒意識到風險，而是缺少可操作的證據。立法者要的是數字，法院要的是記錄，企業要的是流程建議，研究者要的是能重現的資料。\u003C\u002Fp>\u003Cp>Anthropic 自己也承認，研究所能接觸到外部研究者通常拿不到的資訊。這確實是優勢。因為 frontier model 的訓練、評測、部署和客戶使用資料，很多都不公開。外部學界很難靠猜測做出高品質的社會影響分析。\u003C\u002Fp>\u003Cp>但這也是最容易出問題的地方。公司掌握資料，就能決定公開多少、怎麼切分、怎麼定義指標。假設某個部署案例讓工作效率提升 25%，那是平均值還是特定部門。錯誤率有沒有一起上升。人工複核成本算進去了沒。這些細節少一個，結論就可能差很多。\u003C\u002Fp>\u003Cp>所以研究所第一批產出如果要有說服力，我覺得至少要做到幾件事。第一，方法要清楚。第二，資料來源要交代。第三，預測要能回頭驗證。第四，最好能讓外部學者或機構做交叉檢查。\u003C\u002Fp>\u003Cp>以勞動市場為例，外界現在最缺的不是「AI 可能影響白領工作」這種句子。大家早就知道。真正有用的是哪些職務在 6 個月內產能增加 15%，哪些職務反而因為審核成本上升而只增加 3%，哪些職務的 junior 人力需求開始下降。這種資料才會讓企業和學校調整培訓方向。\u003C\u002Fp>\u003Cp>法律場景也是一樣。不是只說 AI 會影響法院和律師，而是要拿出案例：哪些文件類型最適合自動摘要，哪類案件最容易出現錯誤引用，人工複核要花多少時間，導入後每件案子的處理成本降了多少。講白了，沒有數字就很難討論。\u003C\u002Fp>\u003Cul>\u003Cli>研究若要有用，方法必須公開\u003C\u002Fli>\u003Cli>資料來源和限制要寫清楚\u003C\u002Fli>\u003Cli>預測要能回頭檢驗\u003C\u002Fli>\u003Cli>最好接受外部研究者交叉比對\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>這背後也反映 AI 產業的焦慮\u003C\u002Fh2>\u003Cp>Anthropic 成立這個研究所，某種程度上也反映整個產業的焦慮正在轉向。前幾年大家焦點放在模型能不能做更多事。現在問題變成，當模型真的能做更多事，社會要怎麼承接。這不是單一公司的問題，而是整個產業都撞上的牆。\u003C\u002Fp>\u003Cp>你可以把它看成兩條線同時前進。一條線是能力線，模型越來越會寫、越來越會看、越來越會推理。另一條線是制度線，企業法遵、政府治理、法院程序、教育訓練都得慢慢調整。麻煩在於，兩條線的速度差太多。\u003C\u002Fp>\u003Cp>台灣開發者其實也很有感。很多公司現在已經把 GPT、Claude 或其他 LLM 接進客服、內部搜尋、文件整理、程式輔助。技術上幾週就能上線。可是一碰到個資、資安、稽核、責任分工，流程就開始卡。這也是為什麼「社會影響研究」聽起來很遠，實際上離產品部署很近。\u003C\u002Fp>\u003Cp>更現實的是，政府和企業高層常常想要一個簡單答案：能不能用，風險大不大。偏偏 AI 不是這種題目。它比較像一套會持續演化的基礎工具。每次模型升級，既有評估都可能要重做一次。這也是為什麼產業現在開始需要更持續、制度化的研究機制。\u003C\u002Fp>\u003Ch2>接下來該看什麼\u003C\u002Fh2>\u003Cp>接下來 12 個月，我會看三件事。第一，The Anthropic Institute 會不會真的定期公開研究，而不是只有 launch 文和漂亮簡報。第二，它的報告有沒有具體數據，還是停留在風險宣示。第三，外部學界、政策圈和法律界願不願意引用它的成果。\u003C\u002Fp>\u003Cp>如果它能拿出勞動市場的實測資料、法律場景的失誤案例、可驗證的 AI 進展預測，那這個研究所就會有份量。反過來說，如果內容只是把大家已知的焦慮重新包裝，那很快就會被淹沒在一堆企業白皮書裡。\u003C\u002Fp>\u003Cp>對開發者來說，最實際的做法很簡單。別只看模型分數，也別只看 demo。你在評估 GPT、Claude 或其他 LLM 時，順手把法遵、審計、責任分工和人工複核成本一起算進去。很多專案不是卡在模型不夠強，而是卡在組織根本沒準備好。\u003C\u002Fp>\u003Cp>我自己的預測是，2026 年前後，AI 公司的競爭不只比模型能力，也會比誰能拿出更完整的部署證據和社會影響分析。模型越強，外界越不會接受一句「相信我們有在管」就算了。你得拿資料出來。\u003C\u002Fp>","Anthropic 宣布成立 The Anthropic Institute，專門研究人工智慧對工作、法律、安全與治理的影響。重點不只在模型更強，而是企業、法院與政府準備好了沒。","www.anthropic.com","https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fthe-anthropic-institute",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774517466560-00by.png",[13,14,15,16,17,18,19,20,21,22],"Anthropic","The Anthropic Institute","人工智慧","AI 治理","AI 法律","AI 勞動市場","Claude","LLM","AI 安全","科技政策","zh",1,false,"2026-03-26T08:12:10.468376+00:00","2026-03-26T09:31:23.405+00:00","done","20e332c7-1192-4fe7-b78a-dec9ed970749","anthropic-launches-institute-for-ai-social-impact-zh","industry","2cba4b21-b4f7-46c2-95a3-a38748745099","published","2026-04-10T09:00:26.01+00:00",[36,37,39,42,43,45,47,49],{"name":15,"slug":15},{"name":17,"slug":38},"ai-法律",{"name":40,"slug":41},"研究整理","-",{"name":22,"slug":22},{"name":13,"slug":44},"anthropic",{"name":14,"slug":46},"the-anthropic-institute",{"name":20,"slug":48},"llm",{"name":21,"slug":50},"ai-安全",{"id":32,"slug":52,"title":53,"language":54},"the-anthropic-institute-launch-en","Introducing The Anthropic Institute to Tackle AI Challenges","en",[56,62,68,74,80,86],{"id":57,"slug":58,"title":59,"cover_image":60,"image_url":60,"created_at":61,"category":31},"c3b45aac-c24c-4c09-9e95-73ff729d9a62","why-ai-infrastructure-is-now-the-real-moat-zh","為什麼 AI 基礎設施才是真正的護城河","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778875851377-xatg.png","2026-05-15T20:10:37.227561+00:00",{"id":63,"slug":64,"title":65,"cover_image":66,"image_url":66,"created_at":67,"category":31},"cd078ce9-0a92-485a-b428-2f5523250a19","circles-agent-stack-targets-machine-speed-payments-zh","Circle 推出 Agent Stack，瞄準機器速度支付","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778871663628-uyk5.png","2026-05-15T19:00:44.16849+00:00",{"id":69,"slug":70,"title":71,"cover_image":72,"image_url":72,"created_at":73,"category":31},"96d96399-f674-4269-997a-cddfc34291a0","iren-signs-nvidia-ai-infrastructure-pact-zh","IREN 綁上 Nvidia AI 基建","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778871057561-bukp.png","2026-05-15T18:50:37.57206+00:00",{"id":75,"slug":76,"title":77,"cover_image":78,"image_url":78,"created_at":79,"category":31},"de12a36e-52f9-4bca-8deb-a41cf974ffd9","circle-agent-stack-ai-payments-zh","Circle 推出 Agent Stack 做 AI 付款","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778870462187-t9xv.png","2026-05-15T18:40:30.945394+00:00",{"id":81,"slug":82,"title":83,"cover_image":84,"image_url":84,"created_at":85,"category":31},"e6379f8a-3305-4862-bd15-1192d3247841","why-nebius-ai-pivot-is-more-real-than-hype-zh","為什麼 Nebius 的 AI 轉型比炒作更真實","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778823044520-9mfz.png","2026-05-15T05:30:24.978992+00:00",{"id":87,"slug":88,"title":89,"cover_image":90,"image_url":90,"created_at":91,"category":31},"66c4e357-d84d-43ef-a2e7-120c4609e98e","nvidia-backs-corning-factories-with-billions-zh","Nvidia 出資 Corning 工廠擴產","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778822450270-trdb.png","2026-05-15T05:20:27.701475+00:00",[93,98,103,108,113,118,123,128,133,138],{"id":94,"slug":95,"title":96,"created_at":97},"ee073da7-28b3-4752-a319-5a501459fb87","ai-in-2026-what-actually-matters-now-zh","2026 AI 真正重要的事","2026-03-26T07:09:12.008134+00:00",{"id":99,"slug":100,"title":101,"created_at":102},"83bd1795-8548-44c9-9a7e-de50a0923f71","trump-ai-framework-power-speech-state-preemption-zh","川普 AI 框架瞄準電力、言論與州權","2026-03-26T07:12:18.695466+00:00",{"id":104,"slug":105,"title":106,"created_at":107},"ea6be18b-c903-4e54-97b7-5f7447a612e0","nvidia-gtc-2026-big-ai-announcements-zh","NVIDIA GTC 2026 重點拆解","2026-03-26T07:14:26.62638+00:00",{"id":109,"slug":110,"title":111,"created_at":112},"4bcec76f-4c36-4daa-909f-54cd702f7c93","claude-users-spreading-out-and-getting-better-zh","Claude 用戶更分散，也更會用","2026-03-26T07:22:52.325888+00:00",{"id":114,"slug":115,"title":116,"created_at":117},"bd903b15-2473-4178-9789-b7557816e535","openclaw-raises-hard-question-for-ai-models-zh","OpenClaw 逼問 AI 模型價值","2026-03-26T07:24:54.707486+00:00",{"id":119,"slug":120,"title":121,"created_at":122},"eeac6b9e-ad9d-4831-8eec-8bba3f9bca6a","gap-google-gemini-checkout-fashion-search-zh","Gap 把結帳搬進 Gemini","2026-03-26T07:28:23.937768+00:00",{"id":124,"slug":125,"title":126,"created_at":127},"0740e53f-605d-4d57-8601-c10beb126f3c","google-pushes-gemini-transition-to-march-2026-zh","Google 把 Gemini 轉換延到 2026 年 3…","2026-03-26T07:30:12.825269+00:00",{"id":129,"slug":130,"title":131,"created_at":132},"e660d801-2421-4529-8fa9-86b82b066990","metas-llama-4-benchmark-scandal-gets-worse-zh","Meta Llama 4 分數風波又擴大","2026-03-26T07:34:21.156421+00:00",{"id":134,"slug":135,"title":136,"created_at":137},"183f9e7c-e143-40bb-a6d5-67ba84a3a8bc","accenture-mistral-ai-sovereign-enterprise-deal-zh","Accenture 攜手 Mistral AI 賣主權 AI","2026-03-26T07:38:14.818906+00:00",{"id":139,"slug":140,"title":141,"created_at":142},"191d9b1b-768a-478c-978c-dd7431a38149","mistral-ai-faces-its-hardest-year-yet-zh","Mistral AI 迎來最硬的一年","2026-03-26T07:40:23.716374+00:00"]