Google 昨日發表名為 Deep Research 的 AI 工具,讓 Gemini 能代替用戶上網研究並做出深入淺出的報告。
Deep Research 為整合 Gemini 的工具,其底層是 Gemini 1.5 Pro 模型。現在可在 Gemini 桌機和手機瀏覽器啟用,不過僅支援英文。用戶必須是 Google Advanced 訂閱戶,然後從 Google Advanced logo 點入,選擇 1.5 Pro with Deep Research 啟用這功能。
本文目錄
Deep Research 可成為研究助理
開啟後,你可以叫 Gemini 研究特定主題。它在回應時,會先規劃一步步的研究策略供用戶修改或許可。用戶許可後,Deep Research 就會開始進行研究。它會先上網遍尋資訊,再逐次修正、精進其分析。這個過程會重覆多次,最後完成內含精闢分析的報告。
Deep Research 的報告井井有條,包含相關來源連結。你還可以詢問 Gemini 其他接續問題,或是就其報告修正。完成修正的報告可匯出成 Google Docs 。 Google 指出,整個研究過程只要幾分鐘,可省去人類數個或十多個小時的時間。
但一如其他產品,Deep Research 也可能有 AI 幻覺問題,致使你的報告謬誤百出。此外,你也要當心在不許使用 AI 的地方,像是學校作業、論文,使用 Deep Research 可能有不好的後果。制訂學術 APA 格式的美國心理學協會 (American Psychological Association, APA) 建議,使用 AI 工具的成果一定要由人檢查,因為 AI 完成的作品,人是要負責。此外,AI 不被認定是「作者」,因此不受著作權法保障。
你也可以先免費試用一個月,一個月後就要支付每月 20 美元的訂閱費。
Gemini 2.0 開啟 AI Agent 時代
Google 昨日同步宣佈了 Gemini 2.0,聲稱是 Google 最強的模型,也是該公司為代理人 AI (agentic AI) 時代開發的模型。昨天公佈的是 Gemini 2.0 Flash,可在手機及桌機上執行的輕量版模型。 Gemini 2.0 Flash 目前為實驗版,供開發人員透過 Google AI Studio 及 Vertex AI 在 API 中打造自己的 AI 應用程式。所有開發人員都能測試多模態輸入、純文字輸出,而特定先期合作夥伴則能使用語音生成及原生圖片生成功能。 Google 也釋出了新 Multimodal Live API,具備即時音訊、影像串流輸人等工具。
Gemini 2.0 現在已整合到搜尋的 AI Overview 中,明年初會推向更多 Google 產品中。
同時間 Google 公佈三個使用 Gemini 2.0 的代理人研究原型。第一是之前使用 Gemini 1.5 的 Project Astra,能處理多語翻譯代理人,第二是網頁代理人 Project Mariner,是網頁代理人,能理解用戶正在瀏覽的網頁圖片像素、或是 Web 元素如文字、程式碼、圖片及表格,也就是能和使用者一起「看」網頁。第三是 Jules,是整合 GitHub workflow 的程式代理人,能幫開發人員解決程式臭蟲、建立開發計畫,可加速程式開發過程。目前這些代理人已提供給少數合作的測試人員。
來源:PC Magazine
