自2025年3月進行上一波核心更新以來,Google 承諾「頻繁推出核心更新」,但隨後出現一段沉寂期。此趨勢延續至今年6月,儘管社群與 SEO 工具偵測大量波動,Google 尚未以公告形式推出更新,直至今天(2025年6月30日)正式發布6月核心演算法更新。
Today we released the June 2025 core update. We'll update our ranking release history page when the rollout is complete: https://t.co/bOclYyVtYH
— Google Search Central (@googlesearchc) June 30, 2025
此外,Google 搜尋持續推進 AI 模式( AI Mode )與 AI 概覽( AI Overview )策略。2023年推出 Search Generative Experience( SGE ),2024年升級為 AI Overviews,2025年3月推出進階 AI Mode,逐步在 SERP 採用大型語言模型回覆,逐漸擠壓傳統青藍連結地位。
這波2025年6月核心演算法更新將 AI 特性更深度整合至 ranking system,旨在提升使用者體驗,但大幅重塑搜索結果格局。
波動軌跡:6月 SERP 智能重組期
1. 多重波段波動:從6月4日起,排名逐步受 AI 流入影響
6月4日起,SEMrush、Mozcast 檢測到 SERP 移動增加。
隨後6月9日第二波震盪,消費內容與電商類別密集洗牌。
6月16–18日波動達頂峰,涵蓋移動、桌面、本地、交易頁面,SERP 結構快速重整。
6月28日迎高峰,Semrush Sensor 指數接近9.3,Advanced Web Ranking 顯示當日波動為2025最嚴重次。
你是否曾感到一絲挫敗?當你面對功能強大的通用型 AI 時,卻必須日復一日地重複輸入相同的背景資訊、語氣要求和格式指令。每一次新的對話,都像是一次從零開始的溝-通,耗費了寶貴的時間與精力。這種重複性的工作不僅效率低落,也阻礙了我們將 AI 真正融入複雜工作流程的潛力。現在,Google Gemini 的這個功能將徹底改變這個局面:它就是 Gems。
將 Gem 想像成一個可自訂、可重複使用的「超級提示詞」或一個專為你量身打造的個人化 AI 助理。它是一個預先設定好指令的 Gemini 版本,它已經深刻理解你的身份、你的具體需求,以及你偏好的交付成果形式。與其每次都告訴 Gemini 你是一位需要撰寫行銷文案的專案經理,不如直接啟用你專屬的「行銷文案大師 Gem」,它早已內建了所有必要的專業知識和語氣風格。
打造一個 Gem 遠不止是為了節省打字時間的便利之舉。它是一種策略性的工具,能從根本上提升你與 AI 互動的品質、效率和準確性。當我們深入探討其背後的原因時,會發現 Gem 解決了通用大型語言模型在實際應用中最核心的幾個痛點。
實現一致性與準確性
在專業工作場景中,一致性是品質的基石。無論是撰寫符合公司品牌形象的郵件、產出格式統一的學術報告,還是進行任何需要可重複品質的任務,Gem 都能確保 AI 的輸出始終如一。透過在 Gem 指令中預先設定好「角色」、「語氣」和「輸出格式」,你可以消除 AI 回應中的不確定性。例如,一個設定為「專業、嚴謹的法律助理」的 Gem,其產出的文字風格將遠比一個通用模型更加穩定可靠。此外,透過預先載入特定情境,Gem 能有效減少模型產生通用、模糊甚至錯誤資訊的風險,因為它的知識庫已被你提供的上下文精準地「錨定」了。
提升生產力與工作流程效率
Gem 的核心價值之一在於自動化。許多日常工作都包含重複性的 AI 互動,例如:整理會議記錄、草擬社群媒體貼文、為程式碼生成註解文件等。Gem 能夠將這些常規任務轉化為一鍵式操作,將使用者從繁瑣的指令重複中解放出來,讓他們能更專注於需要深度思考和策略規劃的高價值工作上。這不僅僅是時間的節省,更是認知資源的優化配置,從而顯著提升整體工作效率。
打造特定領域的專家
通用 AI 模型如 Gemini,其知識廣博但深度有限。而 Gem,特別是當它與檔案上傳功能結合時,能將這個「通才」轉變為一個在特定領域擁有深厚知識的「專家」。想像一下,你可以上傳一份詳細的市場分析報告、一份複雜的法律合約或一個完整的專案程式碼庫,然後建立一個 Gem 來專門處理與這些資料相關的任務。這個 Gem 不再依賴其龐大的通用訓練數據,而是基於你提供的精準資料進行推理和回應。對於法律、醫療、金融、行銷等專業領域的工作者而言,這項能力是革命性的,它意味著 AI 終於能夠真正理解並參與到他們高度專業化的工作流程中。
這種從「通用對話夥伴」到「客製化工具」的演進,標誌著 AI 互動模式的重大轉變。這個轉變的背後,反映了 AI 使用者群體的成熟化以及對更高度控制和專業化工具的迫切需求。最初,AI 聊天機器人的核心價值在於其知識的廣度,能夠回答五花八門的問題。然而,使用者很快發現了固定的、重複性的工作模式,例如「用…風格總結這段文字」、「像對五年級學生一樣解釋這個概念」或「根據這些要點草擬一封郵件」。這種重複不僅效率低下,而且每次微小的指令差異都可能影響輸出品質。Google 推出 Gem 這項功能,正是為了直接解決這種低效率問題。它是一個精心設計的產品特性,旨在捕捉並自動化這些由使用者定義的工作流程。因此,Gems 不僅是 Google 提升其 AI 平台使用者黏性和實用性的策略性舉措,更代表著 AI 應用的未來方向:讓使用者能夠建立個人化的、由專業工具組成的資料庫,從而超越簡單的聊天互動,邁向深度整合的工作流程自動化。
AI 影像生成平台 Midjourney 於2025年6月19日正式宣布推出其首款 V1 Video Mode 模型,開啟「AI 視頻」新時代。以「Image‑to‑Video」為核心,使用者可將 Midjourney 生成的靜態影像加入動畫效果,一鍵「Animate」生成動態短片,每次輸出為四段 5 秒鏡頭,並支援延伸功能。這項創新不僅標誌平台從圖片進入視頻領域,更展現其關鍵未來願景:朝向「實時開放世界模擬」踏出重要一步。
Introducing our V1 Video Model. It's fun, easy, and beautiful. Available at 10$/month, it's the first video model for *everyone* and it's available now. pic.twitter.com/iBm0KAN8uy
Midjourney 推出的 V1 Video Mode 無疑在 AI 影像圈掀起新話題:它結合平台核心風格與可操作動畫功能,以超高性價比進入 AI 視頻市場。雖非最專業的視頻製作平台,但作為一款快速又具有美學風格的創作工具,其對藝術家與設計師、內容創作者來說具有極高吸引力。
未來把靜態影像拼接到動態圖像、最終實現即時 3D 模擬、構建開放世界的願景仍需時間,但今天這一步已踏出。面對市場競爭與法律訴訟壓力,Midjourney 選擇「美感與創意優先」,試圖以獨特定位在 AI 視頻領域找到自己的位置。
對於有興趣探索 AI 創作的使用者,不妨以低門檻方式嘗試 V1 Video Mode,開啟影像進入動態未來的新旅程。
實際測試
(筆者註:目前影片只支援480p)
原始圖像
Auto Low-Motion
Auto High-Motion
手動控制提示詞
The woman lowered her arms and walked forward with a catwalk. She stepped out of the woods onto a flat highway and began to wriggle and dance. The lens is fixed, the lens is zoomed out, and the woman's whole body is presented in a panoramic view. Natural light shines on the woman's body. Movie scenes, 8K high resolution, showing a woman's charming and moving posture. 女子垂下雙臂,邁著貓步向前。她走出樹林,踏上平坦的公路,開始扭動舞動。鏡頭定格,鏡頭拉遠,女子全身全景呈現。自然光灑落在女子身上。電影場景,8K高清分辨率,展現女子嫵媚動人的姿態。
Manual Low-Motion
Manual High-Motion
延伸手動控制提示詞(增加4秒)
The woman backflips and starts hip-hop. A group of dancers appears on the left and right.女人後空翻,開始跳街舞,左右兩邊分別出現了一群舞者。
We've released the new V7 version of Style References and moodboards. It's smarter and more precise than ever. There's also a new –sref random with significantly more variation to explore. If you want to fall back to the old system or sref codes please use –sv 4. Have fun! pic.twitter.com/orjcMpEslq