AIPC和AI手機(jī)出現(xiàn)的什AI手手機(jī)來(lái)龍去脈。
相信大家現(xiàn)在每天經(jīng)常可以在報(bào)章媒體上看到“AI PC”、出現(xiàn)“AI 手機(jī)” 這兩個(gè)詞吧?特別是去脈財(cái)經(jīng)新聞,這幾個(gè)月時(shí)不時(shí)就可以看見(jiàn)哪一只股票又因是什AI手手機(jī)AI PC 概念股上揚(yáng)之類(lèi)。有的出現(xiàn)報(bào)道中甚至表示2024 年是“AI PC 元年”。
你會(huì)不會(huì)好奇,去脈這些大廠或者是什AI手手機(jī)報(bào)章雜志整天在喊的AI PC、AI 手機(jī),出現(xiàn) 到底是去脈什么?他們跟一般的PC、手機(jī),什AI手手機(jī)又差在哪邊?這篇文章就是出現(xiàn)要用最通俗的方式告訴你,AI PC、去脈AI 手機(jī),什AI手手機(jī)他們?yōu)槭裁磿?huì)出現(xiàn)的出現(xiàn)來(lái)龍去脈,以及未來(lái)可能的去脈發(fā)展方向。
顧名思義AI PC、AI 手機(jī)就是可以運(yùn)行人工智能的PC 跟手機(jī)。但沒(méi)有這么簡(jiǎn)單,不然現(xiàn)在就算是一臺(tái)配備普通中低端手機(jī),不都可以通過(guò)app 或?yàn)g覽器,用上ChatGPT、Bard 或是DALL-E、Midjourney 等AI 了嗎?
現(xiàn)在大家在喊的AI PC、AI 手機(jī),最簡(jiǎn)單的定義就是“不用連網(wǎng),就可以在本機(jī)端運(yùn)算AI 模型的PC/手機(jī)”。
相信就有的讀者會(huì)問(wèn)了:“跑AI 模型?那不是有GPU/顯卡就可以跑了嗎?”理論上沒(méi)錯(cuò),其實(shí)有一張不錯(cuò)的消費(fèi)級(jí)顯卡,就很夠拿來(lái)跑許多一般中小型AI 模型了。
不過(guò),這是不考慮一臺(tái)電腦效能功耗比的狀況下所得出的結(jié)論。現(xiàn)在大廠們喊的AI PC、AI 手機(jī),其實(shí)就是裝了NPU(神經(jīng)網(wǎng)絡(luò)處理器)的PC/手機(jī)。
這里跟不太熟的讀者們稍微科普一下:我們現(xiàn)在所熟悉的AI 模型,像是前面提到ChatGPT 或是DALL-E,背后通通都是“神經(jīng)網(wǎng)絡(luò)模型”所寫(xiě)出來(lái)的,這是一種模仿人腦的系統(tǒng),人腦中我們是使用神經(jīng)元接收、發(fā)送訊息,而在神經(jīng)網(wǎng)絡(luò)中,是使用數(shù)學(xué)上的模型來(lái)模仿這種行為。
NPU 就是專(zhuān)門(mén)拿來(lái)算神經(jīng)網(wǎng)絡(luò)模型的芯片,單一“塊”NPU 跟一塊GPU 的算力,當(dāng)然是GPU 強(qiáng),但單一“塊”NPU 的成本、能耗又小又便宜,拿來(lái)跑AI模型的話可以好好分擔(dān)GPU 的工作量。
簡(jiǎn)言之,就是Intel、AMD、高通以及聯(lián)發(fā)科這些大廠看準(zhǔn)了未來(lái)AI 模型會(huì)走進(jìn)每個(gè)人的電腦與手機(jī)里,紛紛推出了“CPU+GPU+NPU”的架構(gòu),反正多多益善,何樂(lè)不為?但為什么會(huì)是“現(xiàn)在”2023-2024 之際,這些大廠才推出這種三層運(yùn)算架構(gòu)的產(chǎn)品呢?
一言以蔽之:大型語(yǔ)言模型(LLM)。更精確的說(shuō),是Meta(Facebook)在消費(fèi)市場(chǎng)上開(kāi)了這扇大門(mén)。在ChatGPT 掀起生成式AI 的狂潮之后, 眾多科技大廠(特別是網(wǎng)絡(luò)跟軟件這端) 開(kāi)始猛起直追, 紛紛加大投入大型語(yǔ)言模型研究。在這些大廠之中,Meta 比較特別,走了一條開(kāi)源的路,把它的LLM“LLaMA”讓各機(jī)構(gòu)提出申請(qǐng),以非商業(yè)授權(quán)使用。
不過(guò)說(shuō)來(lái)也很崎嶇,LLaMA 沒(méi)幾天就意外外流,讓有意的使用者都能下載到使用,再過(guò)幾天事情快速發(fā)酵,陸續(xù)有人把容量比較小的LLaMA 裝在Mac、Google 手機(jī)Pixel,甚至還裝在Raspberry Pi 4 上,大家瞬間了解到就算技術(shù)上還有很多待突破的地方,但要把LLM 裝在終端裝置上,是可行的。也是從這一刻起,Meta 主動(dòng)意識(shí)到大有可為,在隨后7 月發(fā)布新版Llama 2 第一時(shí)間就宣布已跟高通攜手,要把Llama 2 積極帶進(jìn)智能手機(jī)、 PC 等終端裝置。
再說(shuō)通俗一點(diǎn):這波AI PC、AI 手機(jī)風(fēng)潮,是被Meta、高通有意帶動(dòng)起來(lái)的。高通去年也憑借這股底氣,用Snapdragon X Elite 正式向蘋(píng)果、AMD、Intel 下戰(zhàn)帖,不然像AMD,也是早早就有Ryzen AI 擺在那邊。
不然NPU 說(shuō)白了也不是全新玩意,像是蘋(píng)果很早就開(kāi)始在用了,早在什么時(shí)候呢?早在2017 A11 Bionic,那還是iPhone8 就有非圖形專(zhuān)用的神經(jīng)處理單位。然后蘋(píng)果不管是在手機(jī)、電腦,只要是自己研發(fā)的芯片,每年都越塞越多顆NPU,理論上來(lái)說(shuō)他們才是AI PC、AI 手機(jī)的鼻祖。至于非消費(fèi)者端的部分,Google 就更早了,早在2015 年Google 就開(kāi)始偷偷把自己設(shè)計(jì)的TPU 用在數(shù)據(jù)中心。
那到底AI PC、AI 手機(jī)會(huì)是真主流,還是只是又一場(chǎng)泡沫?這是一個(gè)很難現(xiàn)在就用yes 或no 二分法回答的問(wèn)題,其一是因?yàn)檫@個(gè)問(wèn)題,其實(shí)已經(jīng)在2018 年“計(jì)算攝影”(也就是AI 優(yōu)化手機(jī)照相)時(shí)被問(wèn)過(guò)一次了,事后證明NPU 確實(shí)被越來(lái)越多開(kāi)發(fā)者重視,但消費(fèi)端反而還沒(méi)那么(在表面)重視NPU 的表現(xiàn)。
但筆者認(rèn)為,不妨從幾條軸線來(lái)觀察AI PC、AI 手機(jī)的發(fā)展:一是觀察LLM 的壓縮率跟硬體什么時(shí)候到達(dá)“甜蜜點(diǎn)”,像是手機(jī)存儲(chǔ)器的部分,普遍都需要24GB 以上才夠運(yùn)行LLM(但現(xiàn)在的主流規(guī)格只有8~16GB);軟件這邊去年已經(jīng)有非常多研究單位,在壓縮LLM 上有豐碩的成果(最著名的就是SpQR 法),就看雙方什么時(shí)候可以耦合。
二則是觀察開(kāi)發(fā)框架的發(fā)展速度,像是蘋(píng)果最近就推出專(zhuān)為Apple Silicon 芯片進(jìn)行優(yōu)化的深度學(xué)習(xí)框架“MLX”,經(jīng)開(kāi)發(fā)者證實(shí),MLX 在跑模型時(shí)已經(jīng)優(yōu)于自家的MPS,且跟用CUDA 的V100 PCIe 相比也不遜色。蘋(píng)果自家開(kāi)發(fā)框架的表現(xiàn)相當(dāng)快速、優(yōu)異,至于一般PC 這里,就要看有沒(méi)有同樣出色的開(kāi)發(fā)框架出現(xiàn)了。
審核編輯:劉清