廣告
xx
xx
"
"
回到網頁上方

Google I/O首日狂提AI!Gemini Live、尋找相片新功能一次看


發佈時間:2024/05/15 07:30
最後更新時間:2024/05/15 07:30
Google於14日在美國加州舉辦I/O年度開發者大會。(圖/中央社)
Google於14日在美國加州舉辦I/O年度開發者大會。(圖/中央社)

Google今天在I/O年度開發者大會發表性能更強人工智慧模型Gemini 1.5 Pro、輕量模型Gemini 1.5 Flash,會中提到AI共121次強調其重要性,並試圖於AI市場與OpenAI公司較勁。

搶在Google I/O大會前夕,美國新創公司OpenAI於13日推出更高性能、更高效人工智慧(AI)技術模式GPT-4o,能進行逼真的語音對話,將鞏固旗下生成式工具ChatGPT地位,而且對所有使用者免費。

 

面對OpenAI來勢洶洶,Google今天於美國加州山景城總部海岸線圓形劇場舉辦I/O開發者大會,以AI為核心發表新技術與服務,現場活動僅邀請全球部分開發者及媒體參與,中央社記者為台灣少數媒體代表之一。

隨著開場音樂響起,Google執行長皮查伊(Sundar Pichai)緩緩走上台表示,「我們還在AI非常早期的階段」,現在看到這麼多機會,推動這些機會的正是Gemini。目前有超過150萬名開發者,在Google平台上使用Gemini模型。

皮查伊說,Gemini 1.5 Pro模型從一次可處理100萬個詞元脈絡長度,將擴增到200萬個,是目前為止可提供最長脈絡處理的基礎模型。現在開發者和Google Cloud的客戶可加入等候名單,使用200萬個詞元脈絡長度的Gemini 1.5 Pro。
 

從實際應用來看,Gemini 1.5 Pro可以讀懂1500頁的文件、為100封電子郵件摘要,或處理長達1小時的影片內容。

為滿足開發者需要更快速、更具成本效益的AI模型,Google DeepMind執行長哈薩比斯(Demis Hassabis)宣布推出輕量模型Gemini 1.5 Flash,特別針對大規模、高頻率的任務進行最佳化。

哈薩比斯也公布Astra計畫的最新進展,讓AI助理即時分析手機拍攝的畫面,提供語音回答,展現AI助理未來的可能性。

現場播放的一段示範影片中,測試人員拿著手機開啟可以即時錄影與收音的App,Gemini會辨識並回答看到的揚聲器功能、分析電腦螢幕上顯示的程式碼用途;甚至測試人員忘記眼鏡放在哪裡時,Gemini也記得正確位置,引起觀眾熱烈掌聲。

在主題演講最後,皮查伊笑說,今天光是AI這個字就被提到121次,也意味著AI已經成為Google發展技術的核心。

此外,Google也透過專門為Google搜尋量身打造的全新Gemini模型,能夠將Gemini的先進能力,像是多步驟推理、規劃和多模態等特性,與Google的搜尋系統進一步整合。

有時候用戶只想快速找到答案,但沒有時間看網路上的大量資訊,Google的AI總覽功能就可以派上用場。目前使用者已經透過Search Labs推出的實驗功能來使用AI總覽,次數已經高達數十億次。
 

Google宣布從今天開始將率先在美國推出AI總覽,並於日後支援更多國家。從本週起,將有數億使用者可以進一步體驗AI總覽,Google也預計於今年底前讓超過10億的使用者能夠使用這項新功能。(中央社)
 

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



AI浪潮來襲

#Google#I/O#Gemini#AI#人工智慧#Google I/O#Gemini 1.5 Pro#OpenAI

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1467

0.0864

0.2331