【CES 2025】黃仁勛將發(fā)表主題演講,分享英偉達(dá)創(chuàng)新愿景

【CES 2025】黃仁勛將發(fā)表主題演講,分享英偉達(dá)創(chuàng)新愿景

英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛已確認(rèn)將于太平洋時間1月6日周一下午6:20,在曼德勒灣的Michelob ULTRA Arena發(fā)表其備受矚目的CES 2025主題演講。此次演講將吸引來自全球的科技愛好者和行業(yè)專家,共同見證英偉達(dá)在技術(shù)創(chuàng)新領(lǐng)域的最新進(jìn)展和未來展望。

為了確保能夠順利參加此次主題演講,參會者需持有有效的CES徽章。我們建議您提前領(lǐng)取徽章,以免現(xiàn)場排隊等候。1月6日晚上7點之前,您可以在曼德勒灣的Bayside Foyer領(lǐng)取徽章,無需額外的門票。座位將分為貴賓、媒體和分析師以及普通入場三排,先到先得,敬請盡早入場。

請注意,為了維護(hù)演講現(xiàn)場的秩序和安全,一些行李、電子產(chǎn)品和攝像設(shè)備限制將適用。具體場館政策如下:一般與會者(包括參展商和行業(yè)與會者)可以攜帶尺寸為12英寸x12英寸x6英寸的袋子入場;普通與會者不允許攜帶較大的包、筆記本電腦/平板電腦和攝像設(shè)備;貴賓和持有媒體證件的人員則可以攜帶相關(guān)設(shè)備入場。所有行李都將接受搜查,請予以配合。

此外,為了保持演示的完整性,請在主題演講期間不要使用熱點。黃仁勛的主題演講將通過流媒體平臺實時播放,包括生活消費電子報、臉譜網(wǎng)、油管(國外視頻網(wǎng)站)和商務(wù)化人際關(guān)系網(wǎng)等,無法現(xiàn)場參加的觀眾也可以通過這些平臺觀看。

演講活動將按時開始,下午4:30,貴賓、媒體和分析師以及ADA門將開放;下午4點45分,普通入口門將打開;下午6點20分,主題演講正式開始。我們期待您的到來,共同見證英偉達(dá)在科技創(chuàng)新領(lǐng)域的輝煌成就!

以下是黃仁勛演講內(nèi)容節(jié)選內(nèi)容,在保證原意下演講內(nèi)容有所刪減調(diào)整。

黃仁勛:

歡迎來到CES!你們來到拉斯維加斯興奮嗎?

你們喜歡我的夾克嗎?我想和Gary Shapiro(消費者技術(shù)協(xié)會首席執(zhí)行官兼副主席)的風(fēng)格相反。畢竟,我在拉斯維加斯。如果這行不通,如果你們都反對,那就習(xí)慣吧。我真心覺得你們得接受這個事實。再過一個小時左右,你們就會喜歡上它了。

回顧非凡的AI旅程

這是一段非凡的旅程,跨越了不平凡的一年,始于1993年。通過NV1,我們的目標(biāo)是創(chuàng)造一種能做普通計算機做不到的事情的機器。NV1讓在個人電腦中擁有游戲主機成為了可能。我們的編程架構(gòu)叫UDA,后來才加上了字母C,但UDA代表的是統(tǒng)一設(shè)備架構(gòu)。第一個使用UDA的開發(fā)者,以及首個在UDA平臺上運行的應(yīng)用程序,便是世嘉的《VR戰(zhàn)士》。

六年后的1999年,我們發(fā)明了可編程GPU,開啟了20多年的驚人進(jìn)步。這款革命性的處理器,被稱為GPU,成就了現(xiàn)代計算機圖形學(xué)的基礎(chǔ)。如今30年后,世嘉的《VR戰(zhàn)士》已經(jīng)達(dá)到了電影級的水準(zhǔn)。而即將發(fā)布的新虛擬項目,更是讓人期待不已,簡直令人難以置信。

1999年之后的六年,我們發(fā)明了CUDA,它使我們能夠以一組豐富的算法來解釋和利用GPU的可編程性,進(jìn)而實現(xiàn)其潛力。CUDA最初很難解釋,并且花了相當(dāng)長的時間去發(fā)展,實際上,我們花費了大約六年的時間。直到2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton發(fā)現(xiàn)了CUDA,并利用它進(jìn)行AlexNet的訓(xùn)練。從那時起,AI的歷史就已發(fā)生了根本性的轉(zhuǎn)變。

自那時以來,人工智能的發(fā)展速度飛快。憑借感知AI,我們能夠理解圖像、文字和聲音;隨著生成式AI的發(fā)展,我們能夠生成圖像、文字和聲音。而現(xiàn)在,代理AI不僅能感知、推理、規(guī)劃,還能行動。接下來,我們將進(jìn)入下一個階段,其中一些我們今晚將討論的內(nèi)容,便是物理AI。

接著在2018年,發(fā)生了一些不可思議的事情。谷歌發(fā)布了Transformer,這一技術(shù)讓AI領(lǐng)域真正迎來了飛躍。正如大家所知,Transformer徹底改變了人工智能的格局,甚至改變了計算的格局。我們意識到,AI不僅僅是一個新的應(yīng)用領(lǐng)域和商業(yè)機會,更重要的是,Transformer推動的機器學(xué)習(xí)將徹底重塑計算的方式。

如今,計算在各個層面都發(fā)生了革命性變化,從手動編寫的CPU指令,到如今人類使用的軟件工具。我們現(xiàn)在擁有可以創(chuàng)建和優(yōu)化神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí),這些網(wǎng)絡(luò)運行在GPU上,并推動人工智能的進(jìn)步。技術(shù)棧中的每一層都經(jīng)歷了翻天覆地的變化,短短12年內(nèi),我們見證了不可思議的轉(zhuǎn)型。

如今,我們幾乎可以理解任何形式的信息。你肯定見過文本、圖像和聲音等內(nèi)容,但不僅僅限于這些,我們還能夠理解氨基酸和物理現(xiàn)象。我們可以解讀這些信息,翻譯它們并生成新的內(nèi)容。應(yīng)用的可能性幾乎是無限的。

實際上,幾乎所有AI應(yīng)用都可以通過這三個基本問題來推測:它學(xué)習(xí)時輸入的模態(tài)是什么?它將信息轉(zhuǎn)化成了什么模態(tài)?它正在生成什么模態(tài)的信息?只要你問這三個基本問題,幾乎每一個應(yīng)用的核心都能被揭示。

因此,每當(dāng)你看到一個又一個以AI為驅(qū)動和核心的應(yīng)用時,始終不變的概念便是:機器學(xué)習(xí)改變了每個應(yīng)用的構(gòu)建方式,改變了計算的方式,甚至超越了GPU本身的可能性。在許多方面,所有這些與AI相關(guān)的技術(shù),都由GeForce構(gòu)建而成。GeForce讓AI走向大眾,而今天,AI正回歸GeForce。

算力需求依然迫切,Blackwell全面投產(chǎn)

整個行業(yè)都在追趕并競相擴大AI的規(guī)模。Scaling Law是一個經(jīng)過幾代研究人員與業(yè)界驗證的經(jīng)驗法則。它表明,隨著訓(xùn)練數(shù)據(jù)量的增加、模型規(guī)模的擴大,以及計算能力的提升,AI模型的有效性與能力也將不斷增強。因此,規(guī)模定律的有效性是持續(xù)存在的。

更為驚人的是,互聯(lián)網(wǎng)每年生成的數(shù)據(jù)量大約是上一年數(shù)據(jù)的兩倍。我預(yù)測,在未來幾年,全球人類所生成的數(shù)據(jù)總量將會超過人類歷史上所有數(shù)據(jù)的總和。我們依舊在生成海量數(shù)據(jù),且這些數(shù)據(jù)變得更加多模態(tài),包括視頻、圖像和聲音等。這些數(shù)據(jù)無疑為AI提供了豐富的訓(xùn)練基礎(chǔ)和核心素材。

然而,除了Scaling Law之外,還出現(xiàn)了兩條新的規(guī)模定律,它們各自有著直觀的意義。

第二條Scaling Law被稱為后訓(xùn)練Scaling Law。這條定律依托于強化學(xué)習(xí)和人工反饋等技術(shù)手段?;旧?,AI會根據(jù)人類的查詢生成答案,而人類則給予反饋,從而促進(jìn)AI在特定領(lǐng)域的能力提升。它們可以在特定領(lǐng)域進(jìn)行微調(diào),使其更擅長解數(shù)學(xué)題、推理等方面。這個過程就像是學(xué)生在學(xué)校學(xué)習(xí)后,導(dǎo)師或教練給你反饋,幫助你改進(jìn)自己。

此外,還擁有強化學(xué)習(xí)的AI反饋,以及合成數(shù)據(jù)生成。這些類似于自我練習(xí)時,你知道某個問題的答案,會繼續(xù)嘗試直到答對。AI可能需要解決一個復(fù)雜且可驗證的難題,諸如證明某個定理或解決幾何問題。通過強化學(xué)習(xí),它將學(xué)會如何更好地改進(jìn)自己。盡管這一過程計算量龐大,但最終能夠產(chǎn)生極為出色的模型。

第三條Scaling Law則與所謂的“測試時間scaling”相關(guān)。測試時間scaling指的是在AI應(yīng)用時,它能夠智能地分配資源,而不僅僅是改進(jìn)其參數(shù)。AI能夠決定使用多少計算量來生成它想要的答案。

推理就是這種思維方式的一部分。與直接推理或一次性回答不同,AI可能會進(jìn)行長時間思考,將問題分解為多個步驟,生成不同的思路并加以評估。當(dāng)前,測試時間scaling已被證明是極其有效的。

隨著這些技術(shù)的逐步發(fā)展,我們能夠看到從ChatGPT o1,再到o3以及Gemini Pro等一系列AI系統(tǒng)的進(jìn)化。這些系統(tǒng)正在經(jīng)歷從預(yù)訓(xùn)練到后訓(xùn)練,再到測試時間scaling的不斷發(fā)展。

因此,所需的計算能力顯然是巨大的。我們不僅希望社會具備擴展計算能力的能力,更期待能夠通過這一擴展,創(chuàng)造出更多創(chuàng)新且更強大的智能系統(tǒng)。畢竟,智能是我們最寶貴的資產(chǎn),它可以幫助我們解決許多復(fù)雜而具有挑戰(zhàn)性的問題。

正因如此,Scaling的不斷增長催生了對英偉達(dá)計算技術(shù)的巨大需求。這股需求推動了Blackwell這款革命性芯片的廣泛應(yīng)用。Blackwell已經(jīng)全面投入生產(chǎn),其表現(xiàn)令人贊嘆。

首先,幾乎所有云服務(wù)提供商都已經(jīng)在部署相關(guān)系統(tǒng)。我們目前已有約15家計算機制造商提供系統(tǒng),這些系統(tǒng)涵蓋了大約200種不同的SKU和配置,包括液冷、風(fēng)冷、x86架構(gòu)、Nvidia Grace CPU、NVL36、NVL72等多種類型。這樣的多樣性使我們能夠滿足全球幾乎所有數(shù)據(jù)中心的需求。如今,這些系統(tǒng)正在全球45個工廠中進(jìn)行生產(chǎn),充分體現(xiàn)了AI的普及程度,以及整個行業(yè)在這一全新計算模型下的快速進(jìn)步。推動這一進(jìn)程的核心動力就是:我們迫切需要更多的計算能力。

當(dāng)前這一代Blackwell芯片,在計算能力方面比上一代提高了四倍每瓦的性能和三倍每美元的性能。這意味著在同樣的計算成本下,我們能訓(xùn)練更大的模型,或者以更低的成本訓(xùn)練同樣規(guī)模的模型。

而最為關(guān)鍵的是,這些系統(tǒng)正在生成的tokens,正是我們在使用ChatGPT、Gemini,甚至未來使用智能手機時所依賴的。這些應(yīng)用幾乎都在消耗這些AI tokens,而這些tokens的生成正是由Blackwell等系統(tǒng)提供的。每個數(shù)據(jù)中心都有電力的制約。因此,如果Blackwell每瓦的性能比上一代提升四倍,那么這些系統(tǒng)能夠帶來的商業(yè)收入和數(shù)據(jù)中心的處理能力也將成倍增長。這使得如今的AI計算設(shè)施,不僅是數(shù)據(jù)中心的一部分,實際上已經(jīng)成為了全新的“工廠”。

因此,我們需要大量的計算資源,以訓(xùn)練更大、更復(fù)雜的模型。未來的推理方式將不再局限于簡單的“一次性推理”,AI將開始與自身進(jìn)行對話、思考、反思和內(nèi)在處理。這樣的轉(zhuǎn)變將大大提升AI的推理能力和智能水平。

正如你可以預(yù)見的那樣,AI能夠處理的tokens數(shù)量將成指數(shù)增長。因此,我們亟需大幅提升tokens的生成速度,同時顯著降低計算成本,確保服務(wù)質(zhì)量始終處于高水平,客戶成本得以控制,AI系統(tǒng)也能夠持續(xù)擴展。這正是我們開發(fā)NVLink系統(tǒng)的核心原因之一。

AI代理興起,創(chuàng)造數(shù)百萬美元的市場機會

在企業(yè)領(lǐng)域中,正在發(fā)生的最重要的事情之一就是AI代理的興起。AI代理由多個模型組成,分工明確。

例如,一部分模型負(fù)責(zé)與客戶或用戶進(jìn)行互動,另一部分則負(fù)責(zé)信息檢索,從存儲中提取數(shù)據(jù)。像RAG這樣的語義AI系統(tǒng)可能會訪問互聯(lián)網(wǎng)、研究PDF文件、使用計算器,甚至利用生成性AI生成圖表等內(nèi)容。AI代理通過逐步迭代的方式處理問題,將復(fù)雜的問題分解成更小的任務(wù),并由不同的模型分別進(jìn)行處理。

為了幫助行業(yè)構(gòu)建AI代理,我們的市場策略并不直接面向企業(yè)客戶,而是與IT生態(tài)系統(tǒng)中的軟件開發(fā)者合作,通過整合我們的技術(shù)來創(chuàng)造新的能力。就像我們曾經(jīng)與CUDA庫合作一樣,我們現(xiàn)在希望在AI庫領(lǐng)域?qū)崿F(xiàn)同樣的目標(biāo)。過去,計算模型中有API來處理計算機圖形學(xué)、線性代數(shù)、流體動力學(xué)等任務(wù),而未來,基于這些加速庫,可能會出現(xiàn)專門的AI加速庫。

為幫助生態(tài)系統(tǒng)構(gòu)建具備自主能力的AI,我們創(chuàng)建了幾項關(guān)鍵技術(shù):

NVIDIA NIM:這是一個AI微服務(wù),已經(jīng)打包并準(zhǔn)備就緒,能處理所有復(fù)雜的軟件任務(wù)。它將模型打包、優(yōu)化,并放入容器中,用戶可以將其帶到任何地方。我們目前已有適用于視覺、語言理解、語音、動畫、數(shù)字生物學(xué)的模型,并且即將發(fā)布一些關(guān)于物理AI的新興模型。

NVIDIA NeMo:本質(zhì)上是一個數(shù)字員工的入職和培訓(xùn)系統(tǒng),旨在讓AI代理成為數(shù)字勞動力,與員工一同工作并代為處理任務(wù)。就像員工入職培訓(xùn)一樣,我們?yōu)檫@些AI代理提供了不同的庫,幫助它們根據(jù)公司特定的語言、流程和工作方式進(jìn)行培訓(xùn)。您可以向AI代理提供工作樣本,它們會試圖生成類似的結(jié)果,您再進(jìn)行反饋并持續(xù)優(yōu)化。同時,您還可以設(shè)置一些限制和權(quán)限,確保代理的行為符合規(guī)范。

整個流程——即數(shù)字員工的管理和發(fā)展過程——被稱為NeMo。從某種意義上講,未來每個公司的IT部門將轉(zhuǎn)變?yōu)锳I代理的“HR部門”,負(fù)責(zé)管理、培訓(xùn)、入職以及提升這些數(shù)字員工。

目前,IT部門主要負(fù)責(zé)管理和維護(hù)各種來自IT行業(yè)的軟件系統(tǒng)。但未來,隨著AI技術(shù)的普及,IT部門將承擔(dān)更多的職責(zé),包括管理、培養(yǎng)、入職以及提升大批數(shù)字代理,并將這些代理部署到公司各個部門使用。

未來,每一位軟件工程師都有可能配備一個AI助手。全球有3000萬軟件工程師,未來每個工程師都將借助AI助手進(jìn)行編程。如果沒有AI的輔助,生產(chǎn)力和代碼質(zhì)量將大幅下降。而在全球的10億知識工作者中,AI代理很可能成為下一個爆發(fā)的行業(yè),并且可能會創(chuàng)造出數(shù)百萬美元的市場機會。

創(chuàng)建世界模型,未來工廠將擁有數(shù)字孿生體

當(dāng)你為大型語言模型提供上下文和提示時,模型則一次生成一個token以產(chǎn)生輸出。這是其工作原理。假設(shè)不是一個問題提示,而是一個行動請求呢?比如“過去把那個箱子拿過來?!痹谶@種情況下,生成的就不是文本的token,而是行動的token。

我剛剛描述的,是未來機器人技術(shù)的一個非常合理的方向,而這項技術(shù)已經(jīng)迫在眉睫。但我們需要做的是,創(chuàng)建一個有效的世界模型,而不是像GPT那樣僅僅是語言模型。這個世界模型必須理解世界的語言,還必須理解物理動態(tài),比如重力、摩擦力和慣性。它必須理解幾何和空間關(guān)系,必須理解因果關(guān)系。

如果你把物體掉到地上,或者推動物體讓它傾倒時,模型應(yīng)該能夠理解物體的恒常性。如果你把一個球從廚房臺面上滾過,它掉到另一邊,并沒有進(jìn)入另一個量子宇宙,而是依然處于那個空間里。

這些類型的直覺理解是當(dāng)今大多數(shù)模型所無法做到的。因此,我們希望創(chuàng)造一個全新的世界。我們需要一個世界基礎(chǔ)模型。今天,我們宣布一項重要的進(jìn)展——Nvidia Cosmos,一個專注于理解物理世界的世界基礎(chǔ)模型。

Nvidia Cosmos是全球首個世界基礎(chǔ)模型,經(jīng)過2000萬小時視頻的訓(xùn)練。這些視頻專注于物理動態(tài)內(nèi)容,例如自然現(xiàn)象、行走的人、移動的手、操控物體,以及快速的攝像機運動。它的真正目標(biāo)是讓AI理解物理世界,而不僅僅是生成創(chuàng)意內(nèi)容。通過這個物理AI,我們能夠進(jìn)行許多下游應(yīng)用。

我們可以生成合成數(shù)據(jù)來訓(xùn)練其他模型,也能為機器人模型奠定基礎(chǔ)。它可以生成多個物理上可行的未來場景,基本上就像《奇異博士》中的場景一樣,因為這個模型理解物理世界,生成的圖像也是物理一致的。這個模型還能夠自動生成字幕,將視頻內(nèi)容轉(zhuǎn)化為字幕,從而為大語言模型和多模態(tài)語言模型的訓(xùn)練提供數(shù)據(jù)。利用這個技術(shù),我們能夠用基礎(chǔ)模型來訓(xùn)練機器人及大型語言模型。

這就是Nvidia Cosmos。該平臺包括一個自回歸模型,支持實時應(yīng)用;一個擴散模型,生成高質(zhì)量圖像;一個強大的分詞器,學(xué)習(xí)現(xiàn)實世界的詞匯;以及一個數(shù)據(jù)管道,便于你將這些技術(shù)應(yīng)用到你自己的數(shù)據(jù)中。我們已經(jīng)加速了整個過程。因此,這也是全球首個加速的數(shù)據(jù)處理管道,也是AI加速的管道,所有這些都包含在Cosmos平臺中。今天,我們宣布Cosmos已經(jīng)開源,并可以通過GitHub獲取。

我們希望,Cosmos的開放能夠像Llama 3對企業(yè)AI的貢獻(xiàn)一樣,為機器人技術(shù)和工業(yè)AI領(lǐng)域做出重大貢獻(xiàn)。

真正的魔力出現(xiàn)在你將Cosmos與Omniverse連接時。根本原因在于,Omniverse是一個基于物理的模擬系統(tǒng),它并不只是模擬物理現(xiàn)實,而是基于算法物理和原理物理的系統(tǒng)。它是一個模擬器。當(dāng)你將其與Cosmos結(jié)合時,Omniverse為Cosmos提供了一個堅實、真實的基礎(chǔ),這使得Cosmos能夠輸出基于真理的內(nèi)容。這正是將大型語言模型與檢索增強生成系統(tǒng)結(jié)合的思路。你希望將AI生成的內(nèi)容與真實世界的基礎(chǔ)連接起來。因此,這兩者的結(jié)合提供了一個物理模擬的、多維度的生成器,應(yīng)用場景令人激動。

顯而易見,對于機器人技術(shù)和工業(yè)應(yīng)用而言,Cosmos加Omniverse代表了構(gòu)建機器人系統(tǒng)所需的第三臺計算機。每個機器人公司最終都必須構(gòu)建三維計算機——一種用于訓(xùn)練AI的計算機,我們稱之為DGX計算機;一種用于部署AI的計算機,我們稱之為AGX,它可以安裝在汽車、機器人或AMR(自動移動機器人)中,或者部署在體育場等地方,這些計算機在邊緣運行并具備自主性。但為了連接這兩者,你需要一個數(shù)字孿生體。所有這些就是你所看到的模擬。數(shù)字孿生體是已訓(xùn)練的AI模型進(jìn)行實踐、精煉的地方,用于生成合成數(shù)據(jù)、強化學(xué)習(xí)反饋等。

這三臺計算機將協(xié)同工作,這正是英偉達(dá)針對工業(yè)界的戰(zhàn)略。未來,所有的一切都將在模擬中完成。每個工廠都會有一個數(shù)字孿生體,與實際工廠完全一致。實際上,你可以使用Omniverse與Cosmos生成大量的未來場景,然后由AI決定哪些場景最適合各種KPI。這將成為程序的約束條件,并能夠部署到現(xiàn)實工廠中。

機器人的“ChatGPT時刻”即將到來

通用機器人技術(shù)的“ChatGPT時刻”即將到來。實際上,所有我剛才提到的使能技術(shù)將在未來幾年內(nèi)推動通用機器人領(lǐng)域發(fā)生迅速且令人震驚的突破。

通用機器人技術(shù)之所以如此關(guān)鍵,是因為,盡管許多機器人依賴履帶或輪子并且需要特定的環(huán)境來適應(yīng),但有三類機器人我們可以制造出來,它們不需要在綠色田野環(huán)境中運行,也不需要特別為現(xiàn)有環(huán)境做適配。

這三類機器人分別是:第一,代理機器人和代理AI,它們作為信息工作者,只需要能夠適應(yīng)我們辦公室中的計算機即可;第二,自駕車,因為我們已經(jīng)花費了超過100年的時間來建設(shè)道路和城市;第三,人形機器人。如果我們能夠解決這三項技術(shù),它們將成為全球最龐大的技術(shù)產(chǎn)業(yè)。因此,我們堅信機器人時代離我們已經(jīng)不遠(yuǎn)。

關(guān)鍵的挑戰(zhàn)在于如何訓(xùn)練這些機器人。尤其在人形機器人領(lǐng)域,模仿信息的收集過程相當(dāng)復(fù)雜。以汽車為例,訓(xùn)練相對簡單,因為我們每天都在開車。然而對于人形機器人來說,收集人類行為的示范信息就變得非常繁瑣。

因此,我們需要找到一種巧妙的方法,利用人工智能和Omniverse,將數(shù)百個示范、成千上萬的人類示范轉(zhuǎn)化為數(shù)百萬個合成動作。通過這些合成動作,AI可以學(xué)習(xí)如何執(zhí)行任務(wù)。Nvidia Isaac Group,是我們?yōu)闄C器人行業(yè)提供的技術(shù)平臺基礎(chǔ)設(shè)施,旨在加速通用機器人技術(shù)的發(fā)展。

讓我再說一遍,我們正在生產(chǎn)三款新的Blackwell。令人振奮的是,全球首個物理AI基礎(chǔ)模型,一個強大的AI基礎(chǔ)性模型已經(jīng)問世,能夠激活全球各行各業(yè),尤其是機器人產(chǎn)業(yè)。與此同時,還在三款機器人正在開發(fā),分別是智能代理AI、人形機器人和自動駕駛汽車。過去的一年真是不可思議,我要感謝大家的合作,感謝你們的到來。

祝大家CES愉快,新年快樂,謝謝!

原創(chuàng)文章,作者:小科同學(xué),如若轉(zhuǎn)載,請注明出處:http://m.2079x.cn/article/701319.html

小科同學(xué)的頭像小科同學(xué)

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論