[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-ai-ml-conferences-to-watch-in-2026-zh":3,"tags-ai-ml-conferences-to-watch-in-2026-zh":35,"related-lang-ai-ml-conferences-to-watch-in-2026-zh":51,"related-posts-ai-ml-conferences-to-watch-in-2026-zh":55,"series-research-c4f807ca-4e5f-47f1-a48c-961cf3fc44dc":92},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":23,"translated_content":10,"views":24,"is_premium":25,"created_at":26,"updated_at":26,"cover_image":11,"published_at":27,"rewrite_status":28,"rewrite_error":10,"rewritten_from_id":29,"slug":30,"category":31,"related_article_id":32,"status":33,"google_indexed_at":34,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":25},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","2026 AI 研討會投稿時程整理","\u003Cp>如果你打算投 2026 年的 AI 論文，現在真的不能慢慢來。很多大型研討會會在活動前 6 到 9 個月收摘要或全文，所以 2026 的投稿戰，很多隊伍在 2025 年下半年就開打了。\u003C\u002Fp>\u003Cp>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FLaudarisd\u002Fai_ml_conference_for_2026\" target=\"_blank\" rel=\"noopener\">Laudarisd 的 GitHub 清單\u003C\u002Fa> 最近把不少 AI、機器學習、電腦視覺、醫學影像會議整理在一起。介面很樸素，但時間點抓得很準。研究室、博士生、獨立研究者，現在就需要一份能拿來排進度的日曆。\u003C\u002Fp>\u003Cp>講白了，這份清單的價值不在「會議名單」。而在它提醒你一件事：等你想到要投 2026，很多重要 deadline 可能早就過了。\u003C\u002Fp>\u003Ch2>這份清單為什麼有用\u003C\u002Fh2>\u003Cp>研究者需要的不是一份名校排行榜。真正需要的是一張路線圖。什麼時候先交 abstract、什麼時候補實驗、什麼時候準備 rebuttal，這些比嘴巴講 top-tier 還實際。\u003C\u002Fp>\u003Cp>AI 領域現在分得很細。做 foundation model 訓練方法的人，通常會看 \u003Ca href=\"https:\u002F\u002Fneurips.cc\" target=\"_blank\" rel=\"noopener\">NeurIPS\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Ficml.cc\" target=\"_blank\" rel=\"noopener\">ICML\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Ficlr.cc\" target=\"_blank\" rel=\"noopener\">ICLR\u003C\u002Fa>。做視覺辨識、偵測、分割的人，多半優先看 \u003Ca href=\"https:\u002F\u002Fcvpr.thecvf.com\u002F\" target=\"_blank\" rel=\"noopener\">CVPR\u003C\u002Fa> 或 \u003Ca href=\"https:\u002F\u002Feccv2026.eu\" target=\"_blank\" rel=\"noopener\">ECCV\u003C\u002Fa>。醫學影像則常直接看 \u003Ca href=\"https:\u002F\u002Fwww.miccai.org\" target=\"_blank\" rel=\"noopener\">MICCAI\u003C\u002Fa>。\u003C\u002Fp>\u003Cp>而且現在很多論文都跨領域。多模態學習、醫療視覺、語音加影像、生成式模型配訊號處理，常常一篇 paper 可以投 2 到 4 種不同社群。你不先看時間表，後面只會卡死。\u003C\u002Fp>\u003Cul>\u003Cli>它先把旗艦會議跟專門領域分開。\u003C\u002Fli>\u003Cli>它整理的是大致投稿窗口，不是等 CFP 公布才動。\u003C\u002Fli>\u003Cli>每個會議都有官方連結，查最新頁面比較快。\u003C\u002Fli>\u003Cli>涵蓋 AI、視覺、醫學影像、訊號處理、圖學等方向。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這點其實很重要。很多團隊論文被拒，不是內容太差，而是投錯地方。審稿社群在意的東西不同，評分標準也不同。你拿一篇偏系統實作的 paper 去打理論味很重的場子，結果通常不太好看。\u003C\u002Fp>\u003Ch2>旗艦會議還是決定整年節奏\u003C\u002Fh2>\u003Cp>這份清單的上半部，基本就是大家最熟的名字。ICLR、NeurIPS、ICML、\u003Ca href=\"https:\u002F\u002Faaai.org\" target=\"_blank\" rel=\"noopener\">AAAI\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fijcai.org\" target=\"_blank\" rel=\"noopener\">IJCAI\u003C\u002Fa>、CVPR、ECCV。這些會議會影響求職資料、引用走向，也會決定一年裡大家到底在討論什麼。\u003C\u002Fp>\u003Cp>比較有用的是，它把 deadline 當成專案管理節點。像 ICLR 2026，如果照往年節奏，投稿大概會落在 2025 年 10 月到 11 月。CVPR 2026 的 abstract，通常也會在 2025 年 10 月附近。你如果等到 2026 年 1 月才開會討論投稿策略，老實說，已經慢了。\u003C\u002Fp>\u003Cp>這種節奏會直接改變研究安排。實驗要提早收斂。圖表要提早定稿。寫作和內部 review 也要提早排。很多實驗室 paper 出不來，不是因為沒想法，是每次都晚 3 週。\u003C\u002Fp>\u003Cblockquote>\u003Cp>\"The conference maintains a strong commitment to the values of openness, integrity, and reproducibility.\"\u003C\u002Fp>\u003Cfooter>— \u003Ca href=\"https:\u002F\u002Fneurips.cc\u002Fpublic\u002FCodeOfConduct\" target=\"_blank\" rel=\"noopener\">NeurIPS Code of Conduct\u003C\u002Fa>\u003C\u002Ffooter>\u003C\u002Fblockquote>\u003Cp>這句話不是場面話。arXiv 當然快，今天上傳明天全世界都看得到。但研討會還是有它自己的功能。同行評審、rebuttal、workshop、找工作、面對面交流，全部擠在同一個場域裡。\u003C\u002Fp>\u003Cp>我覺得很多人會低估這件事。論文發在 arXiv 跟進到會場討論，是兩種完全不同的曝光方式。前者是公開，後者是進入社群的節奏。\u003C\u002Fp>\u003Cp>清單裡還有一個小 bug，順手提醒。它把 \u003Ca href=\"https:\u002F\u002Ficcv.thecvf.com\u002F\" target=\"_blank\" rel=\"noopener\">ICCV\u003C\u002Fa> 寫成「ICCV 2027」，但又對到 2026 年 10 月。ICCV 通常是單數年舉辦，和 ECCV 交替，所以這列資料最好直接回官方網站確認。這也是用 GitHub 清單時要有的基本警覺。\u003C\u002Fp>\u003Cul>\u003Cli>ICLR 2026 很可能在 2025 年 10 至 11 月收稿。\u003C\u002Fli>\u003Cli>CVPR 2026 的 abstract 大概率在 2025 年 10 月。\u003C\u002Fli>\u003Cli>NeurIPS 2026 常見節奏是 2026 年 5 月附近投稿。\u003C\u002Fli>\u003Cli>ICML 2026 通常會落在 2026 年 1 到 2 月附近。\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>專門型會議常常更適合你的論文\u003C\u002Fh2>\u003Cp>很多研究者太在意大會名字。名氣當然重要，但適配度更重要。你的論文如果是臨床影像、文件分析、應用型視覺系統，丟去超大型綜合會議，有時反而會被淹沒。\u003C\u002Fp>\u003Cp>這份清單收的第二梯隊其實很有參考價值。像 MICCAI、\u003Ca href=\"https:\u002F\u002F2025.midl.io\" target=\"_blank\" rel=\"noopener\">MIDL\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fsignalprocessingsociety.org\" target=\"_blank\" rel=\"noopener\">ICIP\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002F2026.ieeeicassp.org\" target=\"_blank\" rel=\"noopener\">ICASSP\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fwww.siggraph.org\" target=\"_blank\" rel=\"noopener\">SIGGRAPH\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fwacv2026.thecvf.com\" target=\"_blank\" rel=\"noopener\">WACV\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fbmvc2025.org\" target=\"_blank\" rel=\"noopener\">BMVC\u003C\u002Fa>。這些場子常常更能找到真正會看懂你貢獻的人。\u003C\u002Fp>\u003Cp>以醫學影像來說，MICCAI 的 reviewer 通常比較在意臨床意義、資料標註、跨中心泛化、醫療流程可用性。你把同一篇 paper 投去一般 AI 會議，審稿人可能只盯著 benchmark 排名。這兩種文化差很多。\u003C\u002Fp>\u003Cp>WACV 和 BMVC 也常被低估。很多視覺論文在 CVPR 不一定吃香，但在這些會議反而更容易被完整討論。尤其是應用型方法、資料集工作、工程導向評估，放在專門社群常比較對味。\u003C\u002Fp>\u003Cul>\u003Cli>MICCAI 2026 清單列在 10 月 4 日到 8 日，地點阿布達比，投稿大約看 2026 年 3 到 4 月。\u003C\u002Fli>\u003Cli>ICIP 2026 列在 9 月 13 日到 17 日，地點芬蘭 Tampere，投稿窗口大概是 2026 年 1 月。\u003C\u002Fli>\u003Cli>ICASSP 2026 列在 5 月 4 日到 8 日，地點巴塞隆納，deadline 可能落在 2025 年 10 月。\u003C\u002Fli>\u003Cli>WACV 2026 預計在 2026 年 1 月舉行，投稿大概在 2025 年 7 月附近。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>看完這些日期，你大概就懂了。研討會時程根本不是「一年一次」這麼簡單。它比較像滾動式產線。2025 年夏天一到，部分 2026 的機會就開始關門。\u003C\u002Fp>\u003Cp>如果你是學生，這裡有個很現實的問題。很多人暑假才開始整理實驗，結果 WACV 已經快截止，CVPR 只剩 abstract，ICLR 還在後面排隊。最後只好硬投一個不太合適的場子，然後再怪 reviewer 不懂。說真的，很多時候不是 reviewer 問題，是規劃太晚。\u003C\u002Fp>\u003Ch2>主要會議怎麼排，怎麼比\u003C\u002Fh2>\u003Cp>這份 GitHub 文件不是排名站，我覺得反而比較好。少一點虛榮，多一點實用。它至少讓你能用時間與題型去比會議，而不是只看名氣。\u003C\u002Fp>\u003Cp>如果是核心機器學習，常見節奏是 ICLR 在春季，ICML 在夏季，NeurIPS 在 12 月。電腦視覺則是 WACV 年初、CVPR 6 月、ECCV 年底前後。醫學影像通常走自己的節奏，MICCAI 常落在秋季。\u003C\u002Fp>\u003Cp>這種比較方式很適合做 fallback 規劃。A 會議沒上，能不能在 6 到 10 週內改寫後接 B 會議。這才是研究團隊真正需要的資訊。不是每篇 paper 都要一發入魂，很多好論文都是第二投、第三投才找到對的社群。\u003C\u002Fp>\u003Cul>\u003Cli>\u003Cstrong>Core AI\u002FML：\u003C\u002Fstrong>ICLR 2026 可能最早，約在 2025 年 10 至 11 月。ICML 2026 大約接在 2026 年 2 月。NeurIPS 2026 常見是 2026 年 5 月。\u003C\u002Fli>\u003Cli>\u003Cstrong>Computer Vision：\u003C\u002Fstrong>WACV 2026 可能在 2025 年 7 月截止。CVPR 2026 大約 2025 年 10 月。ECCV 2026 多半是 2026 年 3 月附近。\u003C\u002Fli>\u003Cli>\u003Cstrong>Medical Imaging：\u003C\u002Fstrong>MIDL 2026 大約 2026 年 2 月。MICCAI 2026 常見是 2026 年 3 到 4 月。\u003C\u002Fli>\u003Cli>\u003Cstrong>Signal \u002F Multimodal：\u003C\u002Fstrong>ICASSP 2026 可能在 2025 年 10 月收稿。ICIP 2026 則可能是 2026 年 1 月。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>你如果做多模態，選會議尤其麻煩。語言加影像的模型，可以投 AI、視覺、訊號，甚至醫療場景會議。差別在於 reviewer 想看什麼。有人要理論動機，有人要大規模 ablation，有人只在乎真實場景可用性。\u003C\u002Fp>\u003Cp>這也是為什麼「哪個會議比較強」這種問法常常沒什麼用。更好的問法是：你的貢獻點，哪個社群最買單？你的 baseline，哪個場子看得懂？你的實驗設計，哪裡比較不會被嫌不夠完整？\u003C\u002Fp>\u003Cp>我自己會建議把投稿策略拆成三層。第一層是理想目標。第二層是同領域的穩健選項。第三層是時間接得上的備案。這樣被拒一次，不會整個學期直接報廢。\u003C\u002Fp>\u003Ch2>把它當草稿日曆，不要當最終答案\u003C\u002Fh2>\u003Cp>這份 GitHub 清單好用，是因為它提早把 2026 週期拉到你眼前。但它不能直接當唯一資料來源。會議日期會改、CFP 頁面會換、部分連結可能還停在前一年。你真的要投，一定得回官方頁面逐一確認。\u003C\u002Fp>\u003Cp>最實際的做法，是把這份清單轉成團隊共用試算表。欄位至少放 abstract deadline、paper deadline、supplementary deadline、rebuttal、notification、camera-ready。每兩週看一次。不要等到最後一刻才發現摘要先截、全文後交，這種低級失誤每年都有人踩。\u003C\u002Fp>\u003Cp>如果你的目標是 CVPR、ICLR、WACV，那現在就該開始排了。尤其是需要大量訓練資源的題目，像大型 LLM、影片理解、3D vision、醫療 segmentation，光跑實驗就可能吃掉 2 到 6 週。伺服器排程、資料清理、圖表重畫、共同作者意見整合，每一項都比你想的久。\u003C\u002Fp>\u003Cp>還有一個常被忽略的點：rebuttal 也要先排人力。很多團隊投稿前拼命衝，notification 一出來卻沒人有空寫回覆。結果明明還有機會救，最後自己放掉。這真的很可惜。\u003C\u002Fp>\u003Cp>若你是獨立研究者，沒有實驗室行政支援，我更建議你做一份「倒推時程表」。例如目標投 CVPR 2026，那就往前推 8 週完成主實驗，往前推 4 週定方法章節，再往前推 2 週把資料和 baseline 補齊。把每個節點寫死，比每天焦慮有用多了。\u003C\u002Fp>\u003Ch2>給 2026 投稿者的實際建議\u003C\u002Fh2>\u003Cp>如果你今天才開始看 2026 會議，先別慌。先選 2 個主目標，外加 2 個備案。把題目、資料、算力、合作作者狀態全部攤開來看。哪篇能在 8 週內寫完，哪篇還差核心實驗，先分清楚。\u003C\u002Fp>\u003Cp>接著做一件很土，但超有用的事：把每個會議 deadline 加進行事曆，提前 21 天和 7 天各提醒一次。研究工作很吃長期專注，但投稿很吃細節管理。兩者都要顧。\u003C\u002Fp>\u003Cp>我覺得 2026 年的競爭只會更擠。LLM、agent、multimodal、醫療 AI、世界模型，熱門題目一堆，投稿量大概不會少。你越早把時程當成工程專案來管，越有機會把 paper 真的送出去。現在就開那份試算表，先把 ICLR、CVPR、MICCAI、NeurIPS 四個節點填上去，這比再多看 10 篇社群貼文有用。\u003C\u002Fp>","想投 2026 年 AI、機器學習、電腦視覺或醫學影像論文，現在就得排時程。這份整理把 ICLR、NeurIPS、CVPR、MICCAI 等會議的常見投稿節奏、適合題型與規劃重點一次講清楚。","github.com","https:\u002F\u002Fgithub.com\u002FLaudarisd\u002Fai_ml_conference_for_2026",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Fcover-1774576312705-vyg95j.png",[13,14,15,16,17,18,19,20,21,22],"AI研討會","機器學習","論文投稿","NeurIPS","ICML","ICLR","CVPR","ECCV","MICCAI","2026 conference deadlines","zh",2,false,"2026-03-27T01:51:53.874432+00:00","2026-03-27T13:47:56.975+00:00","done","372eadc4-9a71-4fe2-9deb-bae087a7a46b","ai-ml-conferences-to-watch-in-2026-zh","research","87897a94-8065-4464-a016-1f23e89e17cc","published","2026-04-10T09:00:25.124+00:00",[36,37,39,41,44,46,48,49],{"name":14,"slug":14},{"name":21,"slug":38},"miccai",{"name":22,"slug":40},"2026-conference-deadlines",{"name":42,"slug":43},"研究整理","-",{"name":17,"slug":45},"icml",{"name":19,"slug":47},"cvpr",{"name":15,"slug":15},{"name":16,"slug":50},"neurips",{"id":32,"slug":52,"title":53,"language":54},"ai-ml-conferences-to-watch-in-2026-en","AI\u002FML Conferences to Watch in 2026","en",[56,62,68,74,80,86],{"id":57,"slug":58,"title":59,"cover_image":60,"image_url":60,"created_at":61,"category":31},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":63,"slug":64,"title":65,"cover_image":66,"image_url":66,"created_at":67,"category":31},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":69,"slug":70,"title":71,"cover_image":72,"image_url":72,"created_at":73,"category":31},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":75,"slug":76,"title":77,"cover_image":78,"image_url":78,"created_at":79,"category":31},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":81,"slug":82,"title":83,"cover_image":84,"image_url":84,"created_at":85,"category":31},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":87,"slug":88,"title":89,"cover_image":90,"image_url":90,"created_at":91,"category":31},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[93,98,103,104,109,114,119,124,129,134],{"id":94,"slug":95,"title":96,"created_at":97},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":99,"slug":100,"title":101,"created_at":102},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":4,"slug":30,"title":5,"created_at":26},{"id":105,"slug":106,"title":107,"created_at":108},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":110,"slug":111,"title":112,"created_at":113},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":115,"slug":116,"title":117,"created_at":118},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":120,"slug":121,"title":122,"created_at":123},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":125,"slug":126,"title":127,"created_at":128},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":130,"slug":131,"title":132,"created_at":133},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":135,"slug":136,"title":137,"created_at":138},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]