廣告
xx
xx
"
"
回到網頁上方

黃仁勳台大演講 談「生成式AI發展影響」口譯精華

編輯 蕭意溎 報導
發佈時間:2024/06/02 20:32
最後更新時間:2024/06/02 23:48
play
讀新聞
00:00 / 00:00
1 x
播放速度
  • 0.5x
  • 1x
  • 1.25x
  • 1.5x
  • 2x
play pause

輝達(Nvidia)創辦人黃仁勳今(2)日在台灣大學致詞,以下為演講內容:

大家好,今天非常高興能夠回到這裡。首先,我要感謝國立台灣大學,讓我們使用你們的體育館。上一次來這裡時,我獲頒了一個台大的學位,在演講時我說了“Run, don't walk”這樣的金句。所以,今天我們有很多內容要講,我不能用走的,而得用跑的。

 

台灣是我們非常珍貴的夥伴的集中地,NVIDIA的一切都從這裡開始。我們的夥伴和銷售團隊,從台灣把這一切帶到全世界。台灣與輝達的合作,創造了全世界的AI基礎架構。

今天我想要跟大家談幾件事:首先,生成式AI對於我們的產業以及所有其他產業的影響。我還會談談我們未來的前景及所帶來的機會,以及接下來會有什麼樣的發展。現在是非常令人振奮的時刻,我們要重新啟動我們的電腦產業,這個產業是由大家打造和創造的,現在也要準備好開啟下一個重大的旅程。

在我們開始之前,我想強調輝達NVIDIA在電腦繪圖、模擬及人工智慧方面的重要性。這些技術是我們的靈魂。今天展示的全部都是擬真和模擬,背後都是數學、科學和電腦科學,這些都不是動畫,而是我們自製自產的技術,這是輝達的靈魂。
 

我們將這些技術放入虛擬世界中,稱之為Omniverse。請看Omniverse的展示,它背後的兩個關鍵技術是加速運算和人工智慧。這些技術在Omniverse裡運行,會重新打造整個電腦產業。

電腦產業已有60年的歷史,從IBM 360的中央處理器開始,至今經歷了數次重大科技轉型。下一個重大改變即將來臨,處理器的效能擴展速度大幅降低,但我們需要處理的資料卻在快速增長,這導致了運算通膨。加速運算成為了必然,我們發明了平行運算架構,結合GPU和CPU,從而大幅提升了運算速度和效能。

過去20年,我們開發了各種函式庫來加速運算,像是CUDNN、Aerial、ParaBricks等,涵蓋了從AI到電信至基因定序等多個領域。我們在全球擁有500萬名開發人員,服務各行各業,從金融到健康護理,從電腦產業到交通運輸。

加速運算帶來的效益顯著,我們在資料中心節省了大量成本和能源,開發了更多應用程式,並降低了運算成本。這種良性循環使得我們能夠開發出更多創新技術,如地球的數位孿生,用以預測和應對氣候變遷和天災。

今天,我們即將見證一個新的電腦時代的開始,生成式AI的發展讓我們能夠實現更多不可能的事情。
 

在星期六,颱風再次朝北前進,其路線帶來巨大的不確定性,而這不確定性帶來了對台灣不同的影響。但現在,我們能夠想像一個世界,一個能夠預測未來的世界,這就是數位孿生所能實現的。數位孿生是一種虛擬模型,它反映了真實世界的情況,並且能夠從現有的數據中預測未來的影響。NVIDIA EARTH 2就是一個極佳的例子。它利用AI、物理模擬和電腦圖形技術,建立了一個全球氣候的數位孿生模型。

其中一個核心技術是CoreDiff,這是NVIDIA的生成式AI模型,它能夠以高達12倍的解析度生成天氣模式,這將區域天氣預測帶入了一個全新的境界。更驚人的是,它比傳統的物理模擬方法快了1000倍,並且能源效率高達3000倍。

 
在台灣的中央氣象署,他們使用這些模型來更精確地預測颱風登陸點,這對於減少颱風帶來的災害有著重大的意義。而未來的發展將朝著超本地預測方向發展,這將使預測更加精確,能夠考慮到城市基礎設施的影響。CoreDiff AI還在使用像是PAL生成的高解析度數據進行訓練,這使得模型能夠更準確地模擬大氣和海洋邊界層,預測出像下沖這樣的現象,從而更好地保護城市和居民的安全。

在2012年,一件重要的事件改變了遊戲規則。我們持續改進CUDA,期望提高效能、降低成本。於是,AI研究人員在2012年發現了CUDA的潛力,這是NVIDIA第一次接觸到人工智慧,標誌著重要的一天。我們與科學家合作,研究深度學習系統,使我們的電腦系統取得重大突破。更重要的是,我們必須了解深度學習的基礎,以及它的長遠影響和潛力。

深度學習是幾十年前的演算法,但現在因為資料量和運算能力的增加,使得深度學習從不可能變成可能。而隨著更多資料、更大的網路和更好的運算能力,深度學習的潛力無限。在2012年之後,我們有了Tensor Core和NVLink等技術,整合在我們嶄新的電腦裡面。

2016年,我們將全球第一台超級電腦交給了OpenAI,開啟了DGX超級電腦時代。隨後,我們不斷擴大規模,到2017年推出了Transformer系統,進行大量資料的訓練,並分析長時間的資料,實現自然語言處理等重大突破。

2022年11月,我們用幾千個幾萬個NVIDIA的GPU,做了很多訓練,因此,OpenAI等公司在短短5天內,就有100萬人在使用我們的人工智慧系統,取得了驚人的成績。

 
這些創新的背後是NVIDIA的不斷努力,我們致力於改進CUDA和其他技術,以提供更好的效能和使用體驗。我們相信,隨著技術的不斷發展,AI將為人們的生活帶來更多便利和可能性。

在應用程式與系統優化方面,易於部署的微服務或NIMS已經變得十分普及。開發者可以將ACE NIMS整合到現有的框架、引擎和數位人體體驗中。Nemotron SLM和LLM NIMS能夠理解我們的意圖並協調其他模型的運作。Riva Speech NIMS用於互動式語音和翻譯,而音訊到面部和手勢NIMS則用於面部和身體動畫。Omniverse RTX與DLSS可進行皮膚和頭髮的神經渲染。ACE NIMS運行於NVIDIA GDN上,這是一個全球性的NVIDIA加速基礎設施網絡,提供低延遲的數位人體處理服務覆蓋100多個地區。

ACE可在雲端上運行,也可以在個人電腦上運行,並且所有RTX GPU都配備Tensor Core Processing。現在,有超過一億台GeForce RTX AI個人電腦,並且推出了200多款新的AI個人電腦。未來,個人電腦將成為一個重要的AI平台,提供各種背景的支援和由AI強化的應用程式。

AI的發展將朝向更加符合物理定律的方向。大多數的AI目前還不太符合物理定律,但未來的AI將基於物理定律,並逐漸理解這些定律。AI將從各種方式中學習,包括觀看影片、模擬和與其他電腦互相學習,這就像AlphaGo與自己對弈一樣。

透過強化學習和合成生成的資料,AI的發展速度將加快,並將更好地適應物理定律。因此,未來的模型將變得越來越強大,需要更大的GPU來支援。

Blackwell就是為了這樣子的一個新的時代而發明的,Blackwell當然其中光是晶片的規模,晶片的大小大家就會發現是一個很大的成就,因為台積電它可以生成的最大晶片,我們把它連接在一起,它每秒是10TB的連結,這個可以說是全世界最先進的Service,把它連接在一起,然後我們把這兩個放在一個電腦的節點上,用Grey CPU把它連接在一起,Grey CPU可以做很多事情,在訓練的這一個情境裡頭,我們可以來做快速的檢查點,然後重新啟動,那麼在推論的情況,它可以用來儲存這個情境的記憶,所以AI它就有記憶了,它了解這個對話的情境,這是我們的第二代的Transformer的引擎,Transformer的引擎讓我們可以去,動態的去適應更低的精度,根據我們所需要的精度,需要的範圍來調整,這是第二代的GPU,是我們可以請,要求我們的這個服務供應商來保護我們的AI,讓它不會被偷竊,或者是被毀壞,這是我們第五代的MV-Link,MV-Link讓我們可以把多個GPU連接在一起,等一下會再給大家展示。

除此之外,這也是我們的第一代,有一個可靠而且可用的引擎,這個RAS的系統讓我們去測試每一個電晶體,每一個Flip Flop的記憶,不管是晶片上或晶片外,讓我們可以去決定說,某一個晶片是不是失靈了,如果說一台超級電腦它有一萬個GPU,它的平均時,NTBF是一萬個小時過去,但是現在是用分鐘來測量的,所以一台超級電腦,它要能夠運行很長的一段時間,讓它可以長期好幾個月來訓練一個模型,它的前提是我們的科技要非常可靠。

換句話說它不能夠中斷運行,你要持續的讓它運行,它就要花很多的時間很多的金錢,所以我們加入了一個資料的壓縮引擎,還有解壓縮的引擎,讓我們可以在資料存取上面快20倍,那麼這個都是Blackwell,我們這邊有一個已經在生產中的Blackwell,在GDC我有給大家看Blackwell,它是一個圓形,我們看,原來是在另外一邊,這就是為什麼要先做一些演練嘛,在美國剛好是反過來哦,各位女士,各位先生,這就是Blackwell,這就是我們正式生產的Blackwell,裡頭有最尖端的科技,這就是我們實際生產的一個板,可以說是有史以來功能效能最強大的一個晶片,這個是我們的CPU,每一個裸晶,應該說我們把兩個GPU的裸晶串聯在一起,這可以說是世界上我們可以生產出來最大的晶片,而且它兩個串聯起來的時候,它的連接的速度是10個TB,這個是Blackwell的電腦,它的效能非常的強大。

請各位注意一下我們的螢幕上面所秀出來的,我們來看一下它的浮點運算能力,每一代的產品,它的浮點運算能力,幾乎8年內增加了1000倍,摩爾定律,如果是經過8年的話,頂多我們算一下吧,大概40倍頂多,對不對,40倍60倍,可是在過去這8年當中,摩爾定律它的速度已經變慢了,所以我們來做個比較,即便是在摩爾定律的巔峰時期,拿來跟Blackwell做一個比較,其實Blackwell我們看到這個GPU的運算能力,它進步的速度真的太快了,而且它的成本會不斷的下降,因此它的運算能力不斷的提高,這也代表我們用來訓練GPT-4系統,也就是它有兩兆個參數,有8兆個次元的這樣的一個系統,我們所要消耗的電力,大概就是原來的1/350而已,Pascal過去可能要,滑1000度,換句話說,我們現在還沒有一個Gigawatt的資料中心,你如果是有這樣的資料中心,你要花一個,你如果是100個Megawatt,你要花一整年的時間,來處理這麼多的資料,當然我們不可能去蓋這樣的一個資料中心,這就是為什麼大型語言模型過去,8年之前都還是不可能的,可是因為它的效能提升了,能源效率提升了,它的成本下降了,因此我們有了Blackwell之後,過去要100個,1000個Gigawatt,也就是如果是Gigawatt的資料中心,過去要花1000年,現在只需要3年,譬如說如果有1萬個GPU的話,大概只需要幾天就可以完成了,大概10天就可以完成同樣的資料處理的數量,所以這過去8年的進步的速度,真的是非常的驚人。

我們現在講的是推論,講的是次元的生成,因為這個效能越來越大,所以我們消耗的電力只有過去的1/45,過去Pascal每個次元大概要4萬5千個Joule,大概就是兩個電燈泡持續電兩天的時間,才有辦法去產生一個GPT-4所需要的次元,你一個字大概需要三個次元來組成,換句話說,過去Pascal要產生GPT-4,要有Chet-GPT這樣的系統出現,幾乎是不可能的事情,可是我們只需要用0.4Joule,就可以產生一個次元,而且次元生成的速度非常的快,它消耗的能源非常的低,Blackwell真的是一個大躍進,即便如此還是不夠,我們必須要打造更大型的機器,這就是我們所謂的DGX,這是我們的Blackwell的晶片,把它放到DGX系統當中,這就是為什麼我們要一再的演練才行,這就是DGX Blackwell,是氣冷式的,裡頭有八個這樣的GPU。

你們有沒有看到,這裡頭我們的散熱系統,大概是15000瓦,它是氣冷式的,它可以支援X86,而且可以跟我們的Hopper結合在一起,不過假如你要一冷式的系統的話,我們現在也有這個新的產品,這個新的產品,就是用這樣的一個板子,我們把它叫做MGX,叫做模組化的一個系統,這就是我們的MGX系統,裡頭有兩個Blackwell的板子,那每一個板子有四個Blackwell的晶片,這個是一冷式的系統,九個加在一起,這裡有九個 這裡有九個,總共72個GPU,把它們用NVLink,新的NVLink連接在一起,這是我們NVLink的交換器,是我們第五代的NVLink的產品,NVLink的交換器,可以說是科技上的一種奇蹟,它的資料傳輸速率,真的是太扯了,我們如果把這個Blackwell,所有的晶片串聯在一起的話,就可以有一個72個GPU的Blackwell系統,這樣做有什麼樣的好處呢,你在每一個GPU的領域當中,看起來就像一個GPU,實際上它有72個,上一代的版本只有8個,所以是過去的9倍,而它的頻寬是過去的18倍,而它的浮點運算能力是過去的45倍,可是它所消耗的電力只有過去的10倍,這是一個100個KW,之前是10個KW,當然你可以把更多的晶片串聯在一起,這個晶片這個NVLink的晶片,為什麼說它是一個科技上的奇蹟呢,因為這NVLink,把所有的晶片串聯在一起,大型語言模型不能夠只有一個節點,不能夠只有一個GPU,我們必須要把整個機架裡頭,所有的GPU全部都連接在一起,這樣子我們才能夠有一個,可以處理10兆個參數以上的,大型語言模型,它有500億個電晶體,而且它每一個有72個Port,它有4個NVLink,它每一秒鐘的速度是1.8個TB,裡頭有這個交換器,這個交換器可以幫我們,協助深度學習系統,來進行資料的彙整跟縮減,這個就是我們現在的DGX。

很多人都在問我們說,他們說,好像大家搞不太清楚,NVIDIA到底是做什麼的,大家心裡面有個疑問,為什麼NVIDIA就單單憑GPU,規模就能夠變得這麼大,這個就是GPU看起來,就像這個樣子,這可以說是世界上最先進的GPU,不過是打電玩用的GPU,可是我們都知道,我旁邊的這個也是個GPU,各位女士各位先生,這就是我們的DGX GPU,跟過去已經截然不同了,這個GPU的後面,就是NV LINK所組成的一個背板,這個背板當中有5000條線,加起來有兩英里這麼長,就在這邊,這個呢,這就是我們所謂的NV LINK的背板,可以連接72個GPU,把72個GPU連接在一起,這可以說是在電機學上面的一種奇蹟,因為它有transceiver,它裡頭呢,透過銅線,讓這個NV LINK的交換器,透過這個背板當中的銅線,讓我們一個機架,可以節省20個KW,我們可以把節省下的20KW,用來進行資料處理,這就是NV LINK的背板,哇,要稍微運動一下,其實這樣還不算大耶,因為我們要打造AI工廠,所以我們必須要有更高速的網路技術,我們有Infiniband,我們有兩種,第一種是Infiniband,用在AI工廠,用在超級電腦當中,而且它成長速度非常的快,可是並不是每個資料中心都可以用Infiniband,因為他們以前已經採用了乙太網路了。

實際上你要管理Infiniband,是需要一些特別的技術,因此我們就把Infiniband,它有的一些功能,把它擺到乙太網路架構當中,這其實非常的困難,為什麼呢,道理非常的簡單,乙太網路當初設計的時候,它是針對平均傳輸量比較高的系統,每一個電腦,每一個節點,都是連接到一個不同的人,而大部分是資料中心,跟另外一端的人在進行溝通,可是AI工廠當中的深度學習系統,GPU並不是跟人來做溝通,GPU是他們彼此之間在做溝通,為什麼呢,因為他們在收集一些資料,也就是把這個產品的部分的資料收集起來,然後進行縮減,然後再重新的來進行分配,所以重點不是平均的傳輸量,而是說最後一個接收到資訊的那個GPU,因為你是從每一個人那邊,去收集一些資料,譬如說,我把每一個人都在做的東西呢,這邊拿一點那邊拿一點,然後看誰的速度最慢,這個系統的速度就決定,是哪一個人給我資料的時候速度最慢,那個人就決定了這樣的一個速度,過去以太網路是辦不到的,所以我們必須要有端到端的架構,而且這當中有四個不同的技術,NVIDIA有世界上最先進的MDNA,RDMA對不起RDMA,這個是專門針對以太網路所做設計。

除此之外我們還有永塞控制系統,這個交換器,他很快的在處理這些參數的數值,因此每次假如有任何的GPU送出太多的資料,我們就叫他慢一點,這樣子才不會產生瓶頸,第三個就是調適性的路由器,以太網路必須要傳送跟接收資料的時候,必須要按順序來,假如我們看到有任何地方,有任何的port沒有使用,或者是有塞車情形,我們就把這個資訊送到沒有永塞port,這樣子我們就可以把工作的順序,重新安排好,還有一個很重要的雜訊的隔離,因為我們在訓練的模組不止一個,所以資料中心裡頭一定都會有一些雜訊,一旦進入我們的工作流程當中,就會產生很多的雜音,這樣子就會影響資料傳遞的速度,就會使訓練的速度變慢,我們已經打造了一個50億,或者是30億美金造價的資料中心來做訓練,假如它的利用率,網路的利用率,下降了40%,那你所需要訓練時間就必須要增加20%,51億的資料中心,現在就突然變成像60億的資料中心,為什麼因為它的成本增加了,所以原本你只花了50億,實際上感覺就像60億美金一樣,所以我們的系統就可以去改善這些問題,這個是一個了不起的成就。

我們現在有很多儀態網路的產品會陸續的推出,這個是Spectrum X800,它有我們有所謂的RAIDX,這個RAIDX以前是256,現在明年會有512,這個當中,最重要的是X800,它是針對,幾千個GPU所設計的,那我們下一代的產品,它可以使用幾十萬個GPU,然後再下來,它可以使用幾百萬個GPU,我們當然希望能夠訓練比較大型的模型,不過在未來,我們在跟網路或者跟電腦進行互動的時候,裡頭應該在雲端系統裡頭,都會有生成式的AI系統在裡面,它在跟你進行互動,在不斷的生成圖片、影片、文字,甚至有一個數位人在裡面,所以你幾乎不斷的在跟電腦,具有生成式A功能的電腦進行互動,有些時候是在你的裝置當中,有些是在雲端系統裡面,而且這個生成式的AI,它可以幫你做推論,它可以幫你做推理,所以它會不斷的進行思考之後,再把最好的答案告訴你,所以以後我們透過這樣的系統,可以辦到的事情,是我們現在難以想像的。

我相信在台北電腦展之前從未有人進行過這樣的演講,或許這也將是最後一次。這樣的專題演講只有NVIDIA能做得到,只有我能做得到。

Blackwell當然是第一代的NVIDIA平台,這個平台是我們在AI時代開始時推出的。當時我們才剛開始了解到AI工廠的重要性,這個新的產業革命的開端。我們有許多夥伴,無論是OEM、電腦製造商、CSP、GPU甚至是電信公司等各式各樣的企業,他們都站在我們的背後。對於Blackwell的支持程度,我真的感激得無以名狀,但是我們也不停止腳步。在這個成長的期間,我們希望能持續地強化效能、降低成本,包括訓練和推論的成本,並持續地擴充AI的能力,讓所有的公司都能擁有AI。

Hopper平台當然是最成功的資料中心處理器,這應該是史上最成功的一個案例。但現在有了Blackwell,我們每一個平台都可以看到,你有CPU、GPU、NVLink、NIC,還有交換器。而這個NVLink Switch可以把所有的GPU連結在一起,形成一個最大的領域。透過這個,我們可以使用非常高速的交換器,但其實它是一整個平台。我們打造了整個平台,並將它整合成一個AI工廠的超級電腦,然後再分散到全世界各地讓大家使用。

為什麼要這樣做呢?因為在座的各位都有能力去創造非常有趣、非常有創意的設置和配置,並能以不同的風格滿足不同的資料中心和顧客需求。我們讓它具有彈性,讓大家能夠以最具創意的方式進行構建。現在我們推出了Blackwell的平台,而明年將會是Blackwell Ultra。我們之前有H100、H200,而下一代就是Blackwell Ultra,一樣會將性能推向極限。而下一代的Spectrum Switch也將會是我們第一次給大家看的,我不知道我是否會後悔。

我們公司裡頭有各式各樣的開發代碼,我們盡量的保密,有的時候大部分的員工,甚至都不曉得這些開發碼是什麼,但是我們下一個平台叫做Rubin,Rubin的這個平台,我不會花太多時間講,因為我知道會發生什麼事情,大家一定會拍照,然後會去想辦法去看,它裡頭的這個細節,沒關係,那這個Rubin的平台,一年之後我們會有Rubin Ultra的平台,那麼這些給大家看的晶片,都已經在開發當中了,百分之百都在開發當中了。

而這個一年推出一次的節奏,基本上就是跟我們的架構,是相容的,那所以上面當然也會有,很多的這個軟體,那過去這12年,從我們ImageNet開始,然後我們了解到說,這個運算的未來,會有大幅的改變的時候,其實就像我剛才給大家看的G-Force,它在2012年之前,跟現在的這個NVIDIA有什麼差別,其實我們整個公司,已經有很大的轉型,我當然要非常感謝我們所有的夥伴,在這一路上的支持,這個就是NVIDIA的Blackwell平台。

我接下來要講我們未來的發展,我想新一波的AI,就是所謂的符合物理定律的AI,這個AI理解物理定律,AI它可以在我們的生活周遭協助我們,因此AI必須要了解整個世界,讓他們可以知道,怎麼樣子去感知這個世界,當然這個AI也有非常好的認知能力,讓他們了解我們,讓AI能夠了解我們,到底在問什麼樣子的問題,幫我們做什麼樣子的事情,未來機器人會是越來越普遍的一個概念,我所謂的機器人,包括了人型機器人,人型機器人通常就是大家想到,機器人的時候,出現的這個想像,但是不僅是人型機器人,未來工廠裡頭會有很多的機器人,那麼這些機器人,它會製造各式各樣的機器。

換句話說,這個機器它互相互動,會有互動,然後它可以去製造機器人,等一下給大家看這個影片,機器人的時代到了,有一天,所有動物都會變得自由,研究者和世界各地的公司,正在研發機器人,由物理智能發揮的機器人,物理智能是能夠理解指令的模型,並且能夠自由地進行,在現實世界中複雜的工作。

多元化的物理智能是能夠讓機器人學習,理解世界各地的情況,並計劃他們的行為,從人類的示範中,機器人可以學習,需要和世界互動的技巧,利用粗糙的機械技術,一種進步機器人的基本技術,就是強化學習,就像LM需要RLHF,人類回應學習強化學習,學習一些技巧,物理智能人類可以學習強化學習,物理回應學習,在模擬世界中,這些模擬環境,是讓機器人學習作出決定,通過在實際世界中進行行動,遵守物理法律,在這些機器人健身房,機器人可以學習,做出複雜和動作的工作,安全和快速,通過數百萬次試驗和失敗,來精準化他們的技巧,我們將NVIDIA Omniverse,作為機器人的運作系統,讓物理智能人類可以創造Omniverse是一個開發平台,讓人類實現實時的物理基礎的運作,物理模擬,以及智能智能技術,在Omniverse中機器人可以學習變身,學習自動操縱物件,以精準的方式,例如抓住和控制物件,或自動探索環境,尋找最佳路徑,避免障礙和危險,在Omniverse中學習,減少模擬實際空間,以減少學習行為的轉移,製造機器人,使用智能智能人類,需要三台電腦NVIDIA AI超級電腦,來訓練模型,NVIDIA Jetson Oren,以及下一代的Jetson Thor超級電腦,來運作模型。

在Omniverse中,機器人可以學習和精準化他們的技巧,在模擬世界中,我們建立了平台,快速圖書館以及AI模型,需要開發商和企業,讓他們可以使用任何或所有適合他們的模型,AI的下一個波段就在這裡,機器人,由物理智能人類,來發展發展產業,這個不是未來,這個是現在就在發生的事情。

我們未來服務市場的方式有很多種,第一個是針對不同的機器人系統來打造平台,第一個是像是機器人的工廠,或者是倉庫,另外一個則是,我們在機器人的工廠,來打造平台,我們在機器人的工廠來打造平台,我們在機器人的工廠或者是倉庫,另外一個則是能夠操作東西的機器人,再來是移動的機器人,第四個則是人型機器人,所以每一個不同的機器人平台,跟我們過去做的一樣,就是會有一個電腦有加速的函式庫,還有預先訓練的模型,然後我們會去測試一切,訓練一切,把它整合在Omniverse裡頭,Omniverse就如同影片裡頭所說的,就是機器人學習怎麼成為機器人。

那麼當然整個生態系,就是機器人的倉庫的生態系,非常的複雜,因為它需要很多的公司,很多的工具,很多的技術,才能夠讓我們打造一個現代的倉庫,那麼這個未來,它機器人當然會越來越能夠自主,那麼在這些不同的生態體系裡頭,會有SDK也會有API,它把它連結到各式各樣的軟體,還有是連結到邊緣AI的產業,那麼有一些公司,他們則是去設計PLC,這個是為了Odeon,然後會有整合商,把它整合在一起,來打造顧客所需要的倉儲,舉例來說KenMech,他們就廣運在,為巨大集團打造一個工廠。


然後這邊我們來談,接下來談一談工廠,未來工廠會是完全不一樣的生態系,那麼現在鴻海在打造,世界上最先進的工廠,包括了邊緣運算機器人,還有設計工廠的軟體,各式各樣的工作流程,還有PLC電腦,還有機器人的編程,這些全部都會把它整合在一起,這些SDK都會跟這些生態系,連結在一起,這個全部都在台灣發生,鴻海正在打造,他們工廠的數位孿生模型,台達電也在打造,自己數位工廠的數位孿生模型有一半是數位的,一半是真實的,那麼和碩他們也在打造,他們的機器人工廠,緯創也在打造,他們的數位孿生模型,然後這邊真的很酷,這個影像是鴻海新的工廠。

NVIDIA的數位孿生模型,正在全球發展,世界正在進行全球化,傳統數位進入AI產業中,FOXCONN世界上最大的電子產業廠商,正在應對這個需求,建立機械工廠,與NVIDIA Omniverse和AI工廠計劃員使用Omniverse,來結合設施和裝置資料,從領導業的應用,例如Siemens Team Center X,和AutoDesk Revit,在數位孿生模型中,他們將地面設計和線條設計最佳,並在設置最佳攝像位置,以監察未來的運作,使用NVIDIA Metropolis,支援的視覺AI,數位孿生模型,能夠省下計劃員,在大量的物理改變項目中,付出的費用,在建造過程中,FOXCONN的團隊使用數位孿生模型,作為真相的源頭,以傳達和核實準確的裝置設計,數位孿生模型,也就是機械工廠,在這裡FOXCONN的開發者訓練和測試,NVIDIA Isaac AI應用,對於機械理解和操縱,以及Metropolis AI應用,對於感應融合。

在Omniverse中,FOXCONN在運行運作前先測試兩台機械人,並在機械工廠上,在組裝線上,他們測試Isaac操縱系統,和AI模型,以自動的視覺檢查,避免物理認證,失敗探測,以及旅程計劃,以HGX系統轉移到測試機,他們測試Isaac,以Perceptor能力的Ferrobot AMR,以3D地圖和重建,來觀察和運行環境,在Omniverse中,FOXCONN建造了機械工廠,運行NVIDIA Isaac運行的機械人,來建造NVIDIA AI超級電腦,並且訓練了FOXCONN的機械人,機械人工廠,機器人工廠,其實就是具備AI功能的電腦,來協助訓練,因為需要有人進行,工廠裡頭各種作業項目的協調,機械手臂,機械移動,自動,自主性移動的機器人,其實也一樣的道理,他們會在同樣的虛擬空間當中,而這個機械手臂,就會被擺到機器人工廠裡面。

這裡有三個不同的電腦,包括了加速運算,還有訓練的模組,這當中我們剛才已經聽到了,在Omniverse裡頭,我們有操作系統,有感知系統,這真的是一個很棒的計劃,我們也跟我們的夥伴共同合作,Semantic AI,它整合了ISAC Manipulator,還有ABB, Cougar, Yasakawa, Phenom,Universal Robotics,還有Tipman,這些都是我們的合作夥伴,而西門子,也幫我們做了系統的整合,我們一起來看一下系統整合的結果,ISAC Perceptor,為人類動物系統的,人類動物認識和人類動物遙控,提供了更多的技術,BYD Electronics,正在將ISAC Manipulator和Perceptor,融合到AI機械人工,以提升全球客戶的製造效率,Idealworks正在將ISAC Perceptor,融合到AI機械人工,工廠設備的IWOS軟件,Intrinsic,一家文字公司,正在將ISAC Manipulator,融合到他們的流動體系平台,以提升人工認識。

Gideon正在將ISAC Perceptor,融合到AI機械人工,以提升AI機械人工的設備,Argo Robotics正在將ISAC Perceptor,融合到前瞻基礎AMR的,Perception Engine,Solomon正在使用,ISAC Manipulator AI模型,在他們的Acupic 3D軟件,進行工業操作,Techman Robot正在將ISAC Sim,和Manipulator融合到TM Flow,以提升自動化的,視覺檢查,Teradyne Robotics正在融合,ISAC Manipulator,融合到Cobots的Polyscope X,以及Mir AMR的ISAC Perceptor,Vention正在融合,ISAC Manipulator,融合到AI機械人工,融合到機械理論,機械人工正在到來,所以我們現在有機器人,有物理AI,這不是科幻小說。

其實台灣很多的工程,很多的工廠,都已經在使用這些系統了,所以工廠裡頭,會有很多的機器人,有兩種機器人,它的市場是非常大的,第一種是自駕車,自駕車它有很高的自主性,NVIDIA我們有,完整系列的產品,明年,Mercedes會使用我們的系統,2026年,還有另外一家汽車公司,也會使用我們的系統,不論我們開發的是,哪一個層級的產品,我們都會把它做到最好,而接下來最大的機器人的市場,是跟製造業有關,因為在製造業的工廠當中,有很多的機器人,大部分都是人形機器人。

其實近年來,在這方面已經有了長足的進步,他們因為有了基礎模型,所以有更好的感知能力,而且我們也不斷地在開發,具備更好感知能力的,機器人的系統,其實人形機器人,是最使用起來,最簡便的一種機器人,我們可以有大量資料,來訓練這些機器人,因為他們的外形,是跟我們一樣的,我們以後,這樣的人形機器人,他們會有非常好的感知,跟操作的能力,我想接下來,我們要歡迎一些機器人進場了,好,大概跟我差不多高,其實都是電腦,其實他們裡頭用到的科技,跟我們現在台灣所生產的這些電腦產品,所使用的科技非常的類似,我們非常期待未來,屬於人工智慧的時代,屬於機器人的時代。 
「2024台北國際電腦展(COMPUTEX 2024)」,將於6月4日至6月7日在台北隆重舉行。展前,NVIDIA執行長黃仁勳也將於6月2日晚間7點,在臺灣大學體育館進行主題演講。精彩內容將在6月2日晚間7點至9點,透過TVBS 56頻道以及TVBS Asia頻道收看,並同步於TVBS NEWSTVBS World Taiwan YouTube頻道進行直播, 為更多人提供觀看的機會。TVBS 56頻道、TVBS NEWS的YouTube頻道也將提供獨家中文口譯,讓觀眾不受地域限制,共同見證AI時代的到來。

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



#輝達#NVIDIA#黃仁勳#台灣大學#台灣#AI#生成式AI#Omniverse#加速運算#CPU

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1649

0.0764

0.2413