高通和 Facebook 母公司 Meta 周二宣布,從 2024 年開始,他們將讓采用高通處理器的智能手機(jī)和電腦能夠運(yùn)行由大型語言模型 Llama 2 構(gòu)建的應(yīng)用程序。
截至目前,由于生成式人工智能對計(jì)算能力和數(shù)據(jù)的巨大需求,大型語言模型主要在采用了英偉達(dá)圖形處理器的大型服務(wù)器農(nóng)場中運(yùn)行。這提振了英偉達(dá)的股價(jià),推動該公司市值在今年上漲了 220% 以上。像高通這樣在手機(jī)和個(gè)人電腦處理器市場中處于領(lǐng)先的企業(yè),并沒有趕上爆炒人工智能股票的浪潮。今年以來,高通股價(jià)的累計(jì)漲幅僅為 10% 左右,遠(yuǎn)遠(yuǎn)落后于納斯達(dá)克綜合指數(shù)同期 36% 的漲幅。
高通與 Meta 周二的聯(lián)合聲明表明,高通希望將其處理器定位為非常適合人工智能,但“在邊緣”,或在設(shè)備上,而不是“在云端”。如果大型語言模型可以在手機(jī)上運(yùn)行,而不是在大型數(shù)據(jù)中心運(yùn)行,這可能會降低運(yùn)行人工智能模型的巨大成本,并可能讓更好更快的語音助手和其他應(yīng)用程序迅速出現(xiàn)。
高通將使 Meta 的開源 Llama 2 模型在高通設(shè)備上可用,它認(rèn)為這將使智能虛擬助理等應(yīng)用成為可能。Meta 的 Llama 2 可以做許多與 ChatGPT 相同的事情,但它可以打包在一個(gè)更小的程序中,使得它可以在手機(jī)上運(yùn)行。
高通的芯片包括一個(gè)“張量處理器單元”,即 TPU,非常適合人工智能模型所需的各種計(jì)算。不過,移動設(shè)備上可用的處理能力與配備尖端 GPU 的數(shù)據(jù)中心相比就相形見絀了。
Meta 的 Llama 受到市場關(guān)注,主要是因?yàn)?Meta 公布了它的參數(shù),這是一組幫助管理特定人工智能模型如何工作的數(shù)據(jù)。這將允許研究人員和最終的商業(yè)企業(yè)在自己的計(jì)算機(jī)上使用人工智能模型,而無需請求許可或支付費(fèi)用。目前市場中的主流大型語言模型,如 OpenAI 的 GPT-4,或谷歌的 Bard,都是閉源大型語言模型,它們的參數(shù)數(shù)據(jù)是嚴(yán)格保密的。
高通過去曾與 Meta 密切合作,尤其是在虛擬現(xiàn)實(shí)設(shè)備 Quest 的芯片方面。高通還展示了一些在其芯片上緩慢運(yùn)行的人工智能模型,如開源圖像生成器 Stable Diffusion。
文章來源:http://www.codekj.com/html/news/xwdt/2023_07/19/3024071.html