[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-midjourney-public-beta-visual-generation-history-zh":3,"tags-midjourney-public-beta-visual-generation-history-zh":34,"related-lang-midjourney-public-beta-visual-generation-history-zh":49,"related-posts-midjourney-public-beta-visual-generation-history-zh":53,"series-industry-93bd4b46-8be3-4118-bb94-6e230bf4bc7d":90},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":22,"translated_content":10,"views":23,"is_premium":24,"created_at":25,"updated_at":25,"cover_image":11,"published_at":26,"rewrite_status":27,"rewrite_error":10,"rewritten_from_id":28,"slug":29,"category":30,"related_article_id":31,"status":32,"google_indexed_at":33,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":24},"93bd4b46-8be3-4118-bb94-6e230bf4bc7d","Midjourney公測背後的視覺生成史","\u003Cp>7 月，\u003Ca href=\"https:\u002F\u002Fwww.midjourney.com\" target=\"_blank\" rel=\"noopener\">Midjourney\u003C\u002Fa> 進入公測。它沒有先做傳統 App。它把入口放進 \u003Ca href=\"https:\u002F\u002Fdiscord.com\" target=\"_blank\" rel=\"noopener\">Discord\u003C\u002Fa>。這招很狠。使用者不是對著空白畫布發呆，而是在公開頻道看別人一直生圖、改圖、再生圖。\u003C\u002Fp>\u003Cp>這種做法讓圖像生成變成社交內容。也讓 Midjourney 的審美很快被記住。它不追求死板還原。它更像把「好看」直接寫進預設值裡。說真的，這東西蠻猛的。\u003C\u002Fp>\u003Cp>如果把視角拉遠，Midjourney 只是最新一段。從規則繪圖，到 GAN，再到擴散模型，視覺生成已經走了 70 多年。今天你按幾下就出圖，背後其實是好幾代研究和產品設計疊出來的結果。\u003C\u002Fp>\u003Ch2>Midjourney 為什麼先贏在 Discord\u003C\u002Fh2>\u003Cp>Midjourney 早期沒有把心力放在獨立客戶端。它直接選了 Discord。這讓使用門檻低很多。你不用先學一堆介面。你只要會打提示詞，就能開始玩。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775171757169-olq5.png\" alt=\"Midjourney公測背後的視覺生成史\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>更重要的是，生成過程本身變成內容。你發一句 prompt，幾秒後拿到四張圖。接著可以放大、做變體、重抽。整套流程很適合被圍觀。這種公開感，讓產品自己幫自己傳播。\u003C\u002Fp>\u003Cp>它的審美策略也很明確。Midjourney 不太像照片修復工具。它比較像概念設計機。高對比、強光影、細節多、構圖滿。普通人一看就覺得「有料」。設計師也容易拿來當靈感底稿。\u003C\u002Fp>\u003Cp>這種路線，跟很多只拼寫實度的工具不同。它不是只求像。它要的是可分享。這差很多。\u003C\u002Fp>\u003Cul>\u003Cli>入口在 Discord，學習成本低\u003C\u002Fli>\u003Cli>生成過程公開，天然有傳播效果\u003C\u002Fli>\u003Cli>結果偏藝術化，不只追求寫實\u003C\u002Fli>\u003Cli>V-series 後風格更穩，辨識度更高\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>從規則繪圖到擴散模型\u003C\u002Fh2>\u003Cp>視覺生成不是近幾年才冒出來。很早以前，研究者就想讓電腦自己畫圖。只是那時的方法比較像手寫規則。你指定線條、幾何、變形。電腦能做，但很難畫出有內容感的圖。\u003C\u002Fp>\u003Cp>真正把這條路推進到實用層級的，是深度學習。2014 年，Ian Goodfellow 提出 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661\" target=\"_blank\" rel=\"noopener\">GAN\u003C\u002Fa>。那時生成圖像第一次有了更強的真實感。後來，擴散模型接手高品質生成任務。\u003Ca href=\"https:\u002F\u002Fopenai.com\u002Findex\u002Fdall-e-2\u002F\" target=\"_blank\" rel=\"noopener\">OpenAI 的 DALL·E 2\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fstability.ai\u002Fstable-diffusion\" target=\"_blank\" rel=\"noopener\">Stability AI 的 Stable Diffusion\u003C\u002Fa>，把文字到圖像帶到更多人手上。\u003C\u002Fp>\u003Cp>Midjourney 的差異，不是它發明了生成圖像。它是把模型輸出包成穩定的審美體驗。很多模型能生出「正確」的圖。Midjourney 更擅長生出「願意發出去」的圖。這就是產品層的差別。\u003C\u002Fp>\u003Cblockquote>“The future of AI is not about replacing humans, it’s about amplifying human creativity.” — David Holz\u003C\u002Fblockquote>\u003Cp>這句話很常被拿來講 Midjourney 的產品哲學。它沒有把自己包裝成設計師殺手。它更像在說，工具可以幫你更快做出畫面。重點是放大創意，不是取代人。\u003C\u002Fp>\u003Cp>也因為這樣，它會先優化風格、構圖、整體觀感。不是先追求每個像素都像照片。這條路很務實，也很符合一般創作者的使用習慣。\u003C\u002Fp>\u003Ch2>四個節點看視覺生成怎麼演進\u003C\u002Fh2>\u003Cp>如果把視覺生成史壓成幾個節點，會清楚很多。每一代技術都在補前一代的洞。使用者感受到的，通常不是演算法名詞，而是結果夠不夠好用。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775171754897-kv2h.png\" alt=\"Midjourney公測背後的視覺生成史\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>先看幾個數字。\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F1406.2661\" target=\"_blank\" rel=\"noopener\">GAN 论文\u003C\u002Fa>在 2014 年發表。\u003Ca href=\"https:\u002F\u002Fopenai.com\u002Findex\u002Fdall-e-2\u002F\" target=\"_blank\" rel=\"noopener\">DALL·E 2\u003C\u002Fa> 在 2022 年把文字生成圖像推高一階。\u003Ca href=\"https:\u002F\u002Fstability.ai\u002Fstable-diffusion\" target=\"_blank\" rel=\"noopener\">Stable Diffusion\u003C\u002Fa> 同年開源後，迅速進入本地部署和第三方軟體。\u003Ca href=\"https:\u002F\u002Fwww.midjourney.com\" target=\"_blank\" rel=\"noopener\">Midjourney\u003C\u002Fa> 則用 Discord 先做社群，再做產品。\u003C\u002Fp>\u003Cp>這條線很清楚。先有生成能力。再有大規模可用性。最後才是產品分發。很多團隊卡住的地方，不是模型不夠強，而是沒有把模型變成每天會打開的工具。\u003C\u002Fp>\u003Cul>\u003Cli>2014：GAN 讓生成圖像更像真的\u003C\u002Fli>\u003Cli>2022：DALL·E 2 把文字轉圖像推到更高品質\u003C\u002Fli>\u003Cli>2022：Stable Diffusion 開源後快速擴散\u003C\u002Fli>\u003Cli>Midjourney：把 Discord 社群當成產品入口\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這也說明一件事。視覺生成的競爭，早就不只是誰的模型分數高。更重要的是，誰能把能力變成使用者每天都會碰到的工作流。這點 Midjourney 做得很早。\u003C\u002Fp>\u003Ch2>OpenAI 為何讓 Sora 先停在展示\u003C\u002Fh2>\u003Cp>這裡提到 \u003Ca href=\"https:\u002F\u002Fopenai.com\u002Fsora\" target=\"_blank\" rel=\"noopener\">Sora\u003C\u002Fa>，不是在講圖片。是在講影片。OpenAI 公開展示 Sora 時，重點放在長時間一致性、複雜場景、鏡頭運動。外界第一次很直觀地看到，影片生成已經不只是短片 demo。\u003C\u002Fp>\u003Cp>但影片比圖片難太多。圖片只要一瞬間成立。影片要在時間軸上都對。人物不能突然變臉。物體不能亂跳。光線和運動也要合理。這比生一張漂亮圖麻煩很多。\u003C\u002Fp>\u003Cp>所以 Midjourney 和 Sora 的問題不同。Midjourney 處理的是靜態圖的審美穩定性。Sora 處理的是動態世界的邏輯一致性。前者回答「好不好看」。後者回答「會不會動，而且動得通」。\u003C\u002Fp>\u003Cp>對產品來說，這也是一個分水嶺。生成式 AI 已經不是只比參數。現在比的是工作流。誰能讓創作者真的拿去用，誰才有機會變成日常工具。\u003C\u002Fp>\u003Ch2>誰會更吃香\u003C\u002Fh2>\u003Cp>接下來有競爭力的產品，不一定是最像真的那個。它可能是最適合某個場景的那個。Midjourney 證明了審美一致性和社群傳播很有用。Sora 則提醒大家，影片生成的門檻高很多。\u003C\u002Fp>\u003Cp>對\u003Ca href=\"\u002Fnews\u002Fmistral-voxtral-tts-open-source-voice-ai-zh\">開發者\u003C\u002Fa>和產品經理來說，判斷標準很現實。模型能力只是起點。入口設計、回饋速度、審美策略、版權邊界、工作流整合，全部都會影響結果。只丟 API 出來，通常不夠。\u003C\u002Fp>\u003Cp>如果你想看下一波視覺生成產品誰會跑出來，可以盯這些點：\u003C\u002Fp>\u003Cul>\u003Cli>生成結果是否穩定，不是只看單次驚豔\u003C\u002Fli>\u003Cli>是否容易分享，社群傳播效率高不高\u003C\u002Fli>\u003Cli>能不能塞進設計、廣告、短影音和電商流程\u003C\u002Fli>\u003Cli>對風格控制和版權風險處理得好不好\u003C\u002Fli>\u003C\u002Ful>\u003Cp>Midjourney 的故事很直接。生成式 AI 的勝負手，常常不在模型表格裡，而在第一眼看到的那張圖。下一階段，誰能把「好看、可控、可重複使用」一起做好，誰就更接近真正的工作入口。問題已經不是圖能不能生，而是誰會把生成結果變成標準流程。\u003C\u002Fp>\u003Ch2>背景其實比產品更早\u003C\u002Fh2>\u003Cp>很多人以為 AI 生圖是這幾年才冒出來。其實不是。早期的電腦圖學，重點在幾何、渲染、規則。那時候的工具很硬。你得知道怎麼描述形狀。它不是給一般人玩的。\u003C\u002Fp>\u003Cp>後來深度學習改變了玩法。模型開始學\u003Ca href=\"\u002Fnews\u002Fdesigning-data-intensive-apps-scale-reliability-zh\">資料\u003C\u002Fa>分布。它不再只是照規則畫。它會從大量圖像裡學出風格、結構、物件關係。這讓「用語言描述畫面」變得可行。這\u003Ca href=\"\u002Fnews\u002Fmetaverse-stage-in-internet-history-zh\">一步\u003C\u002Fa>很大。\u003C\u002Fp>\u003Cp>台灣開發者如果看這條線，會發現一件很現實的事。真正值錢的，不一定是單一模型。常常是模型、介面、社群、資料流程一起配好。這也是為什麼很多工具明明模型不差，卻還是紅不起來。\u003C\u002Fp>\u003Ch2>下一波比的是工作流\u003C\u002Fh2>\u003Cp>我覺得接下來 12 到 24 個月，會更像工作流大戰。單純比誰圖漂亮，已經不夠了。大家會開始比誰能接進設計軟體、剪輯流程、廣告素材流程，甚至電商上架流程。\u003C\u002Fp>\u003Cp>如果你是開發者，現在很適合盯三件事。第一，模型輸出是否穩。第二，介面是否夠快。第三，能不能把生成結果接到真實任務。這三件事，比單純追新模型更重要。\u003C\u002Fp>\u003Cp>說白了，Midjourney 的成功不是只靠模型。它把生成圖這件事，做成一種人人看得懂的互動。這才是最值得學的地方。下一個跑出來的產品，可能不一定長得像 Midjourney，但一定會更懂怎麼讓人一直用下去。\u003C\u002Fp>","Midjourney 透過 Discord 公測走紅，也把圖像生成帶進社交式互動。這篇文章回顧從 GAN、DALL·E 2 到 Stable Diffusion 的技術脈絡，拆解它怎麼改寫視覺生成的傳播方式。","zhuanlan.zhihu.com","https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F2020798020871042635",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775171757169-olq5.png",[13,14,15,16,17,18,19,20,21],"Midjourney","Discord","視覺生成","生成式AI","擴散模型","GAN","Stable Diffusion","DALL·E 2","Sora","zh",0,false,"2026-04-02T23:15:37.021193+00:00","2026-04-02T23:15:36.869+00:00","done","463d267f-1d36-468d-8d43-c70eef157579","midjourney-public-beta-visual-generation-history-zh","industry","7e97034b-97b7-4bd6-86dd-c0267fefd4ed","published","2026-04-07T07:41:14.538+00:00",[35,36,38,40,42,44,45,47],{"name":15,"slug":15},{"name":21,"slug":37},"sora",{"name":13,"slug":39},"midjourney",{"name":18,"slug":41},"gan",{"name":14,"slug":43},"discord",{"name":17,"slug":17},{"name":16,"slug":46},"生成式ai",{"name":20,"slug":48},"dalle-2",{"id":31,"slug":50,"title":51,"language":52},"midjourney-public-beta-visual-generation-history-en","Midjourney公测背后的视觉生成史","en",[54,60,66,72,78,84],{"id":55,"slug":56,"title":57,"cover_image":58,"image_url":58,"created_at":59,"category":30},"cd078ce9-0a92-485a-b428-2f5523250a19","circles-agent-stack-targets-machine-speed-payments-zh","Circle 推出 Agent Stack，瞄準機器速度支付","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778871663628-uyk5.png","2026-05-15T19:00:44.16849+00:00",{"id":61,"slug":62,"title":63,"cover_image":64,"image_url":64,"created_at":65,"category":30},"96d96399-f674-4269-997a-cddfc34291a0","iren-signs-nvidia-ai-infrastructure-pact-zh","IREN 綁上 Nvidia AI 基建","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778871057561-bukp.png","2026-05-15T18:50:37.57206+00:00",{"id":67,"slug":68,"title":69,"cover_image":70,"image_url":70,"created_at":71,"category":30},"de12a36e-52f9-4bca-8deb-a41cf974ffd9","circle-agent-stack-ai-payments-zh","Circle 推出 Agent Stack 做 AI 付款","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778870462187-t9xv.png","2026-05-15T18:40:30.945394+00:00",{"id":73,"slug":74,"title":75,"cover_image":76,"image_url":76,"created_at":77,"category":30},"e6379f8a-3305-4862-bd15-1192d3247841","why-nebius-ai-pivot-is-more-real-than-hype-zh","為什麼 Nebius 的 AI 轉型比炒作更真實","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778823044520-9mfz.png","2026-05-15T05:30:24.978992+00:00",{"id":79,"slug":80,"title":81,"cover_image":82,"image_url":82,"created_at":83,"category":30},"66c4e357-d84d-43ef-a2e7-120c4609e98e","nvidia-backs-corning-factories-with-billions-zh","Nvidia 出資 Corning 工廠擴產","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778822450270-trdb.png","2026-05-15T05:20:27.701475+00:00",{"id":85,"slug":86,"title":87,"cover_image":88,"image_url":88,"created_at":89,"category":30},"31d8109c-8b0b-46e2-86bc-d274a03269d1","why-anthropic-gates-foundation-ai-public-goods-zh","為什麼 Anthropic 和 Gates Foundation 應該投資 A…","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778796636474-u508.png","2026-05-14T22:10:21.138177+00:00",[91,96,101,106,111,116,121,126,131,136],{"id":92,"slug":93,"title":94,"created_at":95},"ee073da7-28b3-4752-a319-5a501459fb87","ai-in-2026-what-actually-matters-now-zh","2026 AI 真正重要的事","2026-03-26T07:09:12.008134+00:00",{"id":97,"slug":98,"title":99,"created_at":100},"83bd1795-8548-44c9-9a7e-de50a0923f71","trump-ai-framework-power-speech-state-preemption-zh","川普 AI 框架瞄準電力、言論與州權","2026-03-26T07:12:18.695466+00:00",{"id":102,"slug":103,"title":104,"created_at":105},"ea6be18b-c903-4e54-97b7-5f7447a612e0","nvidia-gtc-2026-big-ai-announcements-zh","NVIDIA GTC 2026 重點拆解","2026-03-26T07:14:26.62638+00:00",{"id":107,"slug":108,"title":109,"created_at":110},"4bcec76f-4c36-4daa-909f-54cd702f7c93","claude-users-spreading-out-and-getting-better-zh","Claude 用戶更分散，也更會用","2026-03-26T07:22:52.325888+00:00",{"id":112,"slug":113,"title":114,"created_at":115},"bd903b15-2473-4178-9789-b7557816e535","openclaw-raises-hard-question-for-ai-models-zh","OpenClaw 逼問 AI 模型價值","2026-03-26T07:24:54.707486+00:00",{"id":117,"slug":118,"title":119,"created_at":120},"eeac6b9e-ad9d-4831-8eec-8bba3f9bca6a","gap-google-gemini-checkout-fashion-search-zh","Gap 把結帳搬進 Gemini","2026-03-26T07:28:23.937768+00:00",{"id":122,"slug":123,"title":124,"created_at":125},"0740e53f-605d-4d57-8601-c10beb126f3c","google-pushes-gemini-transition-to-march-2026-zh","Google 把 Gemini 轉換延到 2026 年 3…","2026-03-26T07:30:12.825269+00:00",{"id":127,"slug":128,"title":129,"created_at":130},"e660d801-2421-4529-8fa9-86b82b066990","metas-llama-4-benchmark-scandal-gets-worse-zh","Meta Llama 4 分數風波又擴大","2026-03-26T07:34:21.156421+00:00",{"id":132,"slug":133,"title":134,"created_at":135},"183f9e7c-e143-40bb-a6d5-67ba84a3a8bc","accenture-mistral-ai-sovereign-enterprise-deal-zh","Accenture 攜手 Mistral AI 賣主權 AI","2026-03-26T07:38:14.818906+00:00",{"id":137,"slug":138,"title":139,"created_at":140},"191d9b1b-768a-478c-978c-dd7431a38149","mistral-ai-faces-its-hardest-year-yet-zh","Mistral AI 迎來最硬的一年","2026-03-26T07:40:23.716374+00:00"]