Midjourney V7 推出 Omni-Reference

Midjourney V7 Omni Reference 參考範例 ow400

Midjourney 於2025年5月2日推出全新「Omni-Reference」功能,標誌著 AI 圖像生成邁入更高精準度與一致性的時代。

Omni-Reference:精準控制圖像元素

Omni-Reference 允許用戶將特定圖像元素(如角色、物件、標誌等)作為參考,並透過 --oref 參數在生成圖像時精確地融入這些元素。

用戶可調整 --ow ( omni-weight )參數,範圍從 0 至 1000,以控制參考圖像對最終生成結果的影響力。

例如,若希望將一角色轉換為動畫風格,建議將 --ow 設定為較低值(如 25);若需保留角色面部特徵或服裝細節,則可提高至 400。

多樣化應用場景

Omni-Reference 的應用範圍廣泛,包括:

  • 角色一致性:在不同場景中保持角色外觀一致。
  • 品牌標誌:確保品牌元素在各種圖像中一致呈現。
  • 風格轉換:將特定風格應用於參考圖像。

此外,Omni-Reference 可與個人化設定、風格參考( Style Reference )、情緒板( Moodboard )等功能結合使用,進一步提升創作靈活性。

操作方式

  • Web 端:在設定中將模型版本更新至 V7,將參考圖像拖曳至提示欄的「Omni-Reference」區域,並使用滑桿調整權重。
  • Discord:使用 --oref 指令後接圖像 URL,並透過 --ow 參數設定權重。

Midjourney 表示,Omni-Reference 功能仍處於測試階段,歡迎用戶在 Discord 的 #ideas-and-features 頻道提供反饋,並在 #oref-showcase 頻道分享創作成果。

隨著 Omni-Reference 的推出,Midjourney 朝著更高精度與個性化的 AI 圖像生成邁進,為創作者提供更強大的工具以實現其創意構想。

實際測試

先用一張參考圖

Midjourney V7 Omni Reference 參考用圖

將參考圖在 Web 版本上拖拉至指定位置

將參考圖拖拉至 Midjourney V7 的輸入行

設定提示詞

這邊我們輸入一個參考提示詞:

An elegant female warrior, with flowing black hair and a soft expression, stands elegantly in front of an abstract background made of thin pink floral silhouettes, like hanging wisteria leaves, in a dynamic pose, one hand on the sword, the other slightly raised, delicate, dreamy lighting, feminine and heroic atmosphere, high resolution, muted tones, central composition. --ar 16:9 --style raw --s 100

(一位優雅的女戰士,一頭飄逸的黑髮,表情柔和,優雅地站在一個由薄粉色花卉輪廓製成的抽象背景前,就像懸掛的紫藤葉,以一個動態的姿勢,一隻手放在劍上,另一隻手微微擡起,精緻,夢幻的燈光,女性和英雄的氛圍,高分辨率,柔和的色調,中心構圖。)

ow 25
Midjourney V7 Omni Reference 參考範例 ow25
Ow 400
Midjourney V7 Omni Reference 參考範例 ow400
OW 1000
Midjourney V7 Omni Reference 參考範例 ow1000

筆者測試下來,或許因為這個參數還在實驗階段的關係,跑出來的圖經常會崩掉,可能生成4張裡面只有1-2張勉強還能用,所以如果讀者實際使用生出來的圖不理想的話就得多跑幾次來挑選自己滿意的圖。筆者個人認為除了想做動畫風格的圖,在大多數的狀況 OW 400 應該是最好用的數值。

進一步閱讀
  1. ​Midjourney 將 sref V7 設為預設
  2. Midjourney V7 大幅提速,生成成本腰斬,推出新實驗模式
  3. Midjourney V7 優化準確性及手部呈現,並推出 exp 實驗性參數
  4. Midjourney V7 推出全新編輯器與 Weird 參數
  5. Midjourney V7 持續升級:導入 V6 熱門功能、AI 輔助提示與用戶回饋加速進化
  6. Midjourney V7 Alpha 版本震撼發布

Suno 推出 v4.5,歌曲長度提升至8分鐘

Suno 推出 v4.5

2025年5月1日,AI 音樂生成平台 Suno 正式發布 v4.5 版本,為 Pro 與 Premier 訂閱用戶帶來前所未有的創作體驗。此次更新強化了模型的理解能力,擴展了音樂風格範疇,並提升了音質與人聲表現,讓用戶能更精準地將創意轉化為音樂作品。

多元風格與智慧混搭

v4.5 支援更多音樂風格,並能更準確地理解和融合不同類型的音樂元素。無論是「midwest emo」與「neosoul」的結合,還是「EDM」與「folk」的融合,系統都能自然地生成協調一致的作品。

人聲表現更具情感

新版本強化了人聲的深度與情感表達,從細膩的低語到充滿力量的高音,皆能精準呈現,提升整體音樂的感染力。

音樂層次更為豐富

v4.5 能捕捉更細緻的音樂元素,如樂器層次、音色變化與聲音細節。即使是「葉片質感」或「旋律口哨」等描述,也能清晰地體現在音樂中,增加作品的深度與立體感。

提示理解更為精準

系統能更準確地理解用戶的描述,無論是情緒、氛圍、樂器還是細節,皆能忠實地反映在生成的音樂中,確保創作與想像一致。

提示增強助手

用戶只需輸入幾個標籤或初步想法,啟用「Enhance」功能,即可獲得豐富且完整的風格提示,方便進一步創作或修改。

升級的翻唱與角色功能

翻唱功能保留更多旋律細節,風格轉換更為順暢。角色功能則能更好地保留曲目的氛圍與特性,並且兩者現在可以結合使用,讓用戶同時重混聲音、結構與風格,開啟全新的創作方式。

歌曲長度延長

用戶現在可創作長達 8 分鐘的歌曲,無需使用延長功能,為音樂創作提供更大的空間。

音質全面提升

v4.5 提供更飽滿、平衡的混音,減少了音質的閃爍與劣化,整體聽感更佳。

Suno 表示,v4.5 是一次用戶未曾預料但現在迫切需要的升級,將 AI 音樂創作推向新的高度。

實際測試

我們使用之前用來比較版本差異的《衝浪愛戀》這首歌做為例子:

[Verse 1]
陽光炙熱 墾丁的沙灘
你的身影 如夢似幻
比基尼 閃耀著青春光芒
我的心 隨波浪起伏
[Pre-Chorus]
衝浪板上 展現自我
浪花間 尋找真愛
這個夏天 註定難忘
你我的愛 在這裡綻放
[Chorus]
衝破巨浪 勇往直前 (Yeah~)
墾丁的夏 熱情似火
你的微笑 是我的動力
讓我們的愛 乘風破浪
在這片藍 譜寫浪漫
台灣的驕傲 就在這片海
[Verse 2]
椰子樹下 分享芒果冰
你的甜美 讓我心醉
夕陽西下 漫步沙灘
十指緊扣 許下永恆
[Bridge]
[Romantic]
衝浪板上的默契
是我們愛情的見證
墾丁的魅力 台灣的驕傲
永遠珍藏在心底
[Chorus]
衝破巨浪 勇往直前 (Yeah~)
墾丁的夏 熱情似火
你的微笑 是我的動力
讓我們的愛 乘風破浪
在這片藍 譜寫浪漫
台灣的驕傲 就在這片海
[Outro]
(Harmonies)
衝浪愛戀 墾丁之夜
我們的愛 如浪永恆

V3.5

V4

現在我們將歌詞輸入 Suno ,選擇最新的 v4.5 版本,順便測試「提示增強助手」的音樂強化能力。

原先的流派標籤

Tropical House

經過提示增強助手延伸的提示詞:

A bright tropical house track opens with airy pads and crisp plucked synths, layered over a relaxed four-on-the-floor beat and deep sub bass. Marimba melodies and syncopated percussion enrich the texture, with occasional pitched vocal chops and steel drum accents lifting the chorus.
(明亮的熱帶房屋軌道以通風的墊子和清脆的撥絃合成器開場,在輕鬆的四人地板節拍和深沉的低音之上分層。馬林巴旋律和切分音打擊樂器豐富了質地,偶爾會有音高的人聲和鋼鼓口音提升副歌。)

V4.5

實際測試的結果,v4.5 無論是對人聲的展現及各種樂器的理解都比起 v4 有著很明顯的提升。如果各位想要細節更深刻的歌曲配樂搭配,也可以試試我們開發的 SunoAI Pure Music Prompt Creator GPT 。

進一步閱讀
  1. Suno AI 發布 V4 版本:音樂創作領域的重大進展
  2. Suno 推出 V3.5 版本,全面開放用戶創作4分鐘完整歌曲
  3. Suno Prompt 完整使用技巧(V3 V3.5 V4 V4.5適用)

ChatGPT Deep Research 研究結果差很大?選對模型讓結果更精準!

ChatGPT Deep Research 研究結果差很大?選對模型讓結果更精準!

隨著生成式 AI 的快速演進,數位行銷人員越來越依賴 ChatGPT 的 Deep Research(深入研究) 功能,快速整合市場趨勢、競爭情報與受眾行為資料。然而,多數用戶忽略了一個關鍵變數:預設模型的選擇,決定搜尋結果的品質與決策風險。

你用的是 GPT-4o?還是 o3、o4-mini? 這個選擇,不是軟體設定問題,而是策略決勝點。

Deep Research 的雙層架構:搜尋 ≠ 解析

Deep Research 的運作邏輯分為兩層:

  • Retriever(檢索層):從搜尋引擎、知識庫或 API 抓取資料。
  • Reader(理解層):你的預設模型對資料過濾、理解、關聯與彙整。

關鍵:Retriever 的資料大致相同,但 Reader 決定輸出結果的智能層級。

不同模型的結果差異:質量級差異

模型理解精度矛盾檢測上下文記憶幻覺風險
GPT-4o非常高主動提示最長極低
GPT-4.5(o3)無提示
o4-mini中等不檢測

數位行銷實戰案例:SEO 競爭者趨勢分析

情境:你是跨境電商的 SEO 負責人,正在評估 2025 年競爭對手在「可持續時尚」領域的趨勢。

Deep Research 指令:
「分析 2025 年 Q1 美國市場可持續時尚主題的搜尋趨勢,列出主要競爭者、SEO 關鍵字表現,並指出內容策略差異。」

GPT-4o 輸出摘要

  • 詳列 2025 年 Q1 搜尋趨勢,競爭者:Everlane、Reformation、Patagonia。
  • 主導關鍵字與月度波動。
  • 來源矛盾提示 [低確度]。
  • 解析社群平台討論趨勢與內容策略變化。

GPT-4.5(o3)輸出摘要

  • 列出競爭者與關鍵字,未標示資料矛盾。
  • 數據來源不完整。

o4-mini 輸出摘要

  • 僅提及部分品牌,缺乏深入數據。

為什麼這很重要?

模型越強,資料質量越高。選錯模型 = 決策失準,甚至導致品牌損失。

SEO、廣告投放、內容行銷等決策,資料理解層級決定策略成敗。

結語:預設模型 = 決策品質的槓桿

相同 Deep Search 指令,在不同模型下,雖然檢索的「原始資料」相同,但

  • 模型的理解能力(Reader 層)差異,決定了你最終看到的是「分析」還是「表面摘要」。
  • GPT-4o:唯一可用於真正的專業市場分析或策略規劃。
  • GPT-4.5(o3):可以接受,但需要人為做第二層資料檢核。
  • o4-mini:只能當快速搜尋或靈感用途,不可靠作商業決策。

選擇模型不是為了「省 token」,而是為了降低錯誤決策的成本。

Midjourney V7 優化準確性及手部呈現,並推出 exp 實驗性參數

Midjourney V7 Exp50 範例2

Midjourney 再度升級,最新釋出的 V7 模型不僅進一步提高了圖像品質,更在準確性、人體與手部的呈現上進行了顯著優化。

此次升級用戶無須做任何額外調整,系統將自動應用於所有使用 V7 的圖像生成操作,甚至可重新生成過去的圖像種子,獲得更佳且一致的效果。

Midjourney 亦回應社群意見,推出了全新優化的 Lightbox 編輯界面。新界面不僅恢復了廣受歡迎的圖像側邊預覽功能,還加入了智慧分割工具,並簡化了用戶對各項功能的操作流程。

Midjourney推出新的編輯器介面

在新界面中,用戶現在可以直接使用「變化」(Vary)與「高解析」(Upscale)按鈕,更直覺地實現圖像的快速編輯與調整,大幅提高創作效率。

值得注意的是,本次更新同時推出了一個名為「–exp」的實驗性參數。此參數的數值範圍從 0 到 100,預設值為 0。該參數類似於原有的「–stylize」,但能讓圖像呈現更豐富的細節、更具動感和創意,並且色調映射效果更加明顯。

官方建議用戶主要嘗試使用 5、10、25、50、100 等幾個特定數值區段。在數值範圍 5 到 50 之間,圖像變化較為明顯,而 50 到 100 則差異相對較小。不過官方也提醒,用戶設定較高的數值(超過 25 至 50)可能會降低 prompt 準確性與圖像多樣性,並可能覆蓋原有的其他參數效果,因此在與其他參數混用時建議使用較低數值。

Midjourney 團隊表示,原定即將推出的「Omni-reference」以及「快速模式(fast-mode)」功能,因部署過程中遇到小型技術問題,或將稍晚上線。

此次更新凸顯出 Midjourney 持續在 AI 圖像生成領域的創新腳步,展現其穩居產業領先地位的決心。

Exp 參數實際測試

提示詞(使用 V7 原始風格)

A young Taipei woman stands in a lush, green outdoor setting, surrounded by vibrant foliage and a rustic wooden structure in the background. The soft, natural light gently illuminates her face and attire, creating a warm and inviting atmosphere. She wears a delicate white blouse with lace detailing and ruffled sleeves, paired with black high-waisted pants adorned with gold buttons. Her dark brown hair is styled in loose waves, with bangs framing her face, adding to her youthful and cheerful appearance. She poses with her hands near her head, fingers slightly spread and relaxed, showcasing her well-manicured nails and graceful gestures. The focus is on her upper body and face, with a shallow depth of field that softly blurs the background, emphasizing her joyful expression and the intricate details of her outfit. The lighting is natural and diffused, casting soft shadows and highlighting the textures of her clothing and surroundings. --ar 16:9 --style raw --s 100 --p none

Exp 0

Midjourney V7 Exp 範例1
Midjourney V7 Exp 範例2
Midjourney V7 Exp 範例3
Midjourney V7 Exp 範例4

Exp 5

Midjourney V7 Exp5 範例1
Midjourney V7 Exp5 範例2
Midjourney V7 Exp5 範例3
Midjourney V7 Exp5 範例4

Exp 10

Midjourney V7 Exp10 範例1
Midjourney V7 Exp10 範例2
Midjourney V7 Exp10 範例3
Midjourney V7 Exp10 範例4

Exp 25

Midjourney V7 Exp25 範例1
Midjourney V7 Exp25 範例2
Midjourney V7 Exp25 範例3
Midjourney V7 Exp25 範例4

Exp 50

Midjourney V7 Exp50 範例1
Midjourney V7 Exp50 範例2
Midjourney V7 Exp50 範例3
Midjourney V7 Exp50 範例4

Exp 100

Midjourney V7 Exp100 範例1
Midjourney V7 Exp100 範例2
Midjourney V7 Exp100 範例3
Midjourney V7 Exp100 範例4

以上是筆者實測的結果:4張輸出照片直接上傳,沒有經過任何挑選。從輸出的照片質量觀察,V7 這次的更新基本上已經解決 Midjourney 過去很長時間一直被用戶吐槽的手部瑕疵問題(但是偶而還是會出現多手或多手指的問題)。而這次推出的 Exp 參數如同官方說明呈現更豐富的細節、更具動感和創意,並且色調映射效果更加明顯。筆者自己覺得 Exp 0-25的人物細節差異很明顯,25以上的差異就相當微小。各位可以根據自己喜好挑選符合自己需求的 Exp 值來使用。

此外,經過筆者多次測試的結果,用於生成女性照片 Exp 值越高時,女性的“性魅力”更強烈,通常顯現在胸部及衣服多寡。提供給有這樣需求的讀者參考。

進一步閱讀
  1. ​Midjourney 將 sref V7 設為預設
  2. Midjourney V7 大幅提速,生成成本腰斬,推出新實驗模式
  3. Midjourney V7 推出全新編輯器與 Weird 參數
  4. Midjourney V7 持續升級:導入 V6 熱門功能、AI 輔助提示與用戶回饋加速進化
  5. Midjourney V7 Alpha 版本震撼發布

Google NotebookLM 擴展 AI 播客功能,支援包括中文的 50 種以上語言

Google NotebookLM 擴展 AI 播客功能,支援包括中文的 50 種以上語言

Google 於2025年4月29日宣布 AI 筆記應用 NotebookLM 的「Audio Overviews」功能現已支援超過50種語言,包括中文、法語、西班牙語、葡萄牙語、韓語、土耳其語和印地語等。​此舉讓全球更多用戶能夠將筆記內容轉換為類似播客的音頻對話,提升學習與資訊吸收的效率。

NotebookLM 是 Google Labs 開發的 AI 筆記與研究助手,利用 Gemini 語言模型,協助用戶從上傳的文件中生成摘要、解釋和創意內容。​「Audio Overviews」功能則能將這些內容轉換為由兩位 AI 主持人進行的音頻對話,模擬播客形式,讓用戶以更輕鬆的方式理解複雜資訊。​

此次語言支援的擴展,使得來自不同語言背景的用戶也能享受這項功能。​用戶只需在 NotebookLM 的設定中選擇「輸出語言」,即可生成對應語言的音頻摘要。​此外,Google 也將「Audio Overviews」功能整合至 Gemini AI 聊天機器人和 Google Docs,進一步擴大其應用範圍。​

Google 表示,這次更新是對「Audio Overviews」功能的早期探索,未來將根據用戶反饋持續改進,並計劃加入更多語言支援和功能強化。​目前,該功能已在超過 200 個國家和地區推出,並逐步向更多用戶開放。

設定方式

影片來源:Google

測試範例(中文對話)

Google Gemini Deep Research 最佳提示詞指南 (原始文章)