国产露脸精品国产沙发|极品妇被弄得99久九精品亚洲|亚洲va成精品在线播放人|日韩精品久久久免费观看

    
    

        <delect id="w59je"></delect>

            當(dāng)前位置:首頁(yè) > 高爾夫球資訊 > 正文內(nèi)容

            如何實(shí)現(xiàn)2000萬(wàn)QPS?Meta揭秘背后的AI平臺(tái)MultiRay:日均處理8000億次請(qǐng)求!

            杏彩體育2年前 (2022-11-29)高爾夫球資訊171

            想要性能強(qiáng),模型除了「大」,還是「大」。

            無(wú)論是自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)或是其他領(lǐng)域的研究,當(dāng)下的深度學(xué)習(xí)研究范式通常采用非常大的模型架構(gòu),對(duì)海量的數(shù)據(jù)進(jìn)行訓(xùn)練,然后將其用于一個(gè)特定的任務(wù)上,從而取得更佳的結(jié)果。

            這種范式的好處是可以提升任務(wù)的性能指標(biāo),但由于其昂貴的訓(xùn)練成本,如果有大量的問(wèn)題需要解決,那相應(yīng)地就需要訓(xùn)練多個(gè)模型,運(yùn)行成本也將急劇上升,甚至?xí)_(dá)到無(wú)法實(shí)現(xiàn)的程度。

            這也意味著在實(shí)踐中,論文中提出的sota大模型只有很少一部分能夠在生產(chǎn)環(huán)境中使用,真實(shí)世界的模型往往更小更簡(jiǎn)單。

            為了提高人工智能系統(tǒng)的運(yùn)行效率,META提出了一個(gè)人工智能平臺(tái)MultiRay,可以運(yùn)行大規(guī)模sota人工智能模型。

            MultiRay上部署多個(gè)模型后,通過(guò)對(duì)相同的輸入計(jì)算得到的embedding進(jìn)行重用,即只計(jì)算一次,共享了大部分處理成本,所以分?jǐn)偟矫總€(gè)模型上的計(jì)算成本就很小,從而可以?xún)?yōu)化所有AI任務(wù)執(zhí)行的總成本。

            并且開(kāi)發(fā)者也會(huì)更加容易地引入AI加速器,因?yàn)檎麄€(gè)公司的計(jì)算集中在一個(gè)單一的模型中,可以在公司級(jí)別的計(jì)算能力和存儲(chǔ)之間進(jìn)行權(quán)衡。

            MultiRay 的通用模型經(jīng)過(guò)訓(xùn)練后,能夠在廣泛的任務(wù)和領(lǐng)域中表現(xiàn)良好。這種萬(wàn)能的模型比之前使用的小得多的針對(duì)每個(gè)任務(wù)的專(zhuān)門(mén)模型提供了更好的質(zhì)量。

            通過(guò)使用 MultiRay,Meta 團(tuán)隊(duì)可以更快地改進(jìn)和迭代機(jī)器學(xué)習(xí)(ML)模型應(yīng)用于大量實(shí)際場(chǎng)景中,比如為帖子生成主題標(biāo)簽、仇恨語(yǔ)音檢測(cè)等。與其他團(tuán)隊(duì)從頭開(kāi)始構(gòu)建大型端到端模型相比,這些任務(wù)也可以以更高的效率和更少的人力完成。

            有網(wǎng)友對(duì)MultiRay編了一個(gè)地獄笑話:「實(shí)在是太高效了,所以Meta選擇開(kāi)除一萬(wàn)名員工?!?/p>

            相關(guān)論文

            MultiRay是Meta宏偉的人工智能藍(lán)圖中的一部分,劍指AI領(lǐng)域的多項(xiàng)難題。

            論文鏈接:https://proceedings.mlsys.org/paper/2022/file/ed3d2c21991e3bef5e069713af9fa6ca-Paper.pdf

            《無(wú)監(jiān)督的大規(guī)??缯Z(yǔ)言表征學(xué)習(xí)》中,研究人員首次證明,在不犧牲每種語(yǔ)言性能的情況下,可以進(jìn)行多語(yǔ)言建模。

            論文鏈接:https://arxiv.org/abs/1911.02116

            《從預(yù)訓(xùn)練語(yǔ)言模型的通用文本embedding中進(jìn)行可擴(kuò)展推理》中,研究人員演示了一種自然語(yǔ)言處理任務(wù)的解決方案,使用大規(guī)模的預(yù)訓(xùn)練的模型對(duì)同一文本執(zhí)行多個(gè)任務(wù),而計(jì)算成本可以下降很多。

            論文鏈接:https://arxiv.org/abs/2004.14287

            《多尺度視覺(jué)Transformer》和《帶掩碼的自編碼器作為時(shí)空l(shuí)earners》中,展示了MultiRay技術(shù)在視頻相關(guān)任務(wù)中的應(yīng)用研究。

            論文鏈接:https://arxiv.org/pdf/2104.11227.pdf

            論文鏈接:https://arxiv.org/pdf/2205.09113.pdf

            多模態(tài)、多任務(wù)

            MultiRay的第一個(gè)模型 TextRay 自2020年起投入生產(chǎn),支持文本理解應(yīng)用程序,如檢測(cè)不真實(shí)內(nèi)容和改善用戶(hù)的搜索體驗(yàn)。

            但在現(xiàn)實(shí)世界中的應(yīng)用場(chǎng)景下,僅能處理文本數(shù)據(jù)是遠(yuǎn)遠(yuǎn)不夠的。

            比如Facebook的推送中可能同時(shí)包含文本、圖像和視頻。為了理解一篇文章,模型需要分別分析其中的每一個(gè)字、每一張圖,并在其他元素的上下文中進(jìn)行分析。

            但是這樣做就意味著將幾個(gè)已經(jīng)計(jì)算密集型的模型組合成一個(gè)更大、更密集的模型,隨之而來(lái)的就是計(jì)算量和功耗的增加,讓更強(qiáng)大的機(jī)器學(xué)習(xí)模型無(wú)法有效投入到產(chǎn)品和服務(wù)中。

            PostRay是MultiRay的第二個(gè)模型,可以將文本和圖像理解集成到同一個(gè)模型中,比如跨Facebook和Instagram的帖子通常同時(shí)包含文本和圖像數(shù)據(jù),就可以使用PostRay。

            通過(guò)使用PostRay,開(kāi)發(fā)團(tuán)隊(duì)無(wú)需重復(fù)開(kāi)發(fā)文本和圖像理解的模型,PostRay已經(jīng)用于Reels分類(lèi)。

            PostRay模型由于同時(shí)包含多個(gè)領(lǐng)域的尖端研究,因此訓(xùn)練、部署和維護(hù)起來(lái)更加復(fù)雜。通過(guò)使用 MultiRay,研究人員只需要執(zhí)行一次,即可完成這些任務(wù),整個(gè)公司都會(huì)從中受益。

            一個(gè)集中的系統(tǒng)服務(wù)于一個(gè)萬(wàn)能的模型,使開(kāi)發(fā)者能夠直接與最前沿的研究團(tuán)隊(duì)合作,并在他們的研究成果發(fā)表后不久就將其投入生產(chǎn)。

            MultiRay工作原理

            MultiRay的主要目標(biāo)是使 Meta的大規(guī)?;A(chǔ)模型的訪問(wèn)更加廉價(jià),通過(guò)將模型集中執(zhí)行在像GPU這樣的加速器上,并使用緩存盡可能地節(jié)省重復(fù)計(jì)算的成本來(lái)實(shí)現(xiàn)的。

            目前,MultiRay在Meta 中支持超過(guò)125個(gè)用例,每秒支持多達(dá)2000萬(wàn)個(gè)查詢(xún)(QPS) ,同時(shí)每天服務(wù)8000億次查詢(xún)。

            什么是embedding

            大規(guī)?;A(chǔ)模型的輸出表示為高維向量空間中的一個(gè)點(diǎn),這個(gè)點(diǎn)可以用來(lái)表征輸入,也稱(chēng)為embedding

            embedding是原始輸入的一個(gè)更加機(jī)器學(xué)習(xí)友好的版本,與處理原始輸入(如文本和圖像)不同,任務(wù)特定的模型可以使用 MultiRay 中的embedding表征,這樣處理起來(lái)要簡(jiǎn)單得多。

            MultiRay 中部署的基礎(chǔ)模型被優(yōu)化為適用于各種任務(wù),包括相似性和分類(lèi),這種通用性使得模型輸出的embedding相當(dāng)大(幾千字節(jié)) ,用以便傳遞更多的信息。

            集中模型開(kāi)發(fā)——分?jǐn)偠鄠€(gè)團(tuán)隊(duì)的開(kāi)銷(xiāo)

            大型模型和延遲限制要求在像 GPU 這樣的加速器上執(zhí)行。

            GPU等專(zhuān)用加速硬件在Meta中的需求量很大,但即使有足夠的GPU,最先進(jìn)的模型也還是需要消耗大量的能量來(lái)訓(xùn)練和托管。MultiRay 的客戶(hù)團(tuán)隊(duì)分?jǐn)偭擞?xùn)練和托管這些大型模型的費(fèi)用,因?yàn)橄嗤挠布吞幚砜梢远啻问褂谩?/p>

            集中模型比每個(gè)團(tuán)隊(duì)單獨(dú)托管的東西要大得多,質(zhì)量也要高得多,在這種情況下,一加一實(shí)現(xiàn)了大于二。

            并且集中模型也帶來(lái)了更簡(jiǎn)單的開(kāi)發(fā)和操作。

            通常公司內(nèi)部的多個(gè)團(tuán)隊(duì)只會(huì)負(fù)責(zé)他們自己的模型、基礎(chǔ)設(shè)施和模型維護(hù)。而隨著模型規(guī)模的增長(zhǎng),對(duì)每個(gè)團(tuán)隊(duì)進(jìn)行培訓(xùn)和服務(wù)的操作負(fù)擔(dān)越來(lái)越重,使得將復(fù)雜的優(yōu)化技術(shù)應(yīng)用到跨越多個(gè)團(tuán)隊(duì)的模型變得更加困難。

            MultiRay使用幾個(gè)大規(guī)模的集中模型,可以讓單個(gè)團(tuán)隊(duì)處理大部分操作和優(yōu)化??蛻?hù)端團(tuán)隊(duì)擁有更小的、特定于任務(wù)的模型,這些模型更容易管理。這使得許多沒(méi)有足夠資源來(lái)訓(xùn)練、部署和管理尖端人工智能的團(tuán)隊(duì)能夠使用這項(xiàng)技術(shù)。

            提升GPU效率:交叉請(qǐng)求一批數(shù)據(jù)

            加速器硬件在并行處理聚合的一組(批, batch)請(qǐng)求時(shí)效率最高。將請(qǐng)求合理地分配到batch中能夠增加服務(wù)的吞吐量,而不會(huì)造成不必要的延遲。但batch結(jié)構(gòu)增加了內(nèi)部客戶(hù)的復(fù)雜性,理想的batch可以隨著新的硬件或模型而改變。

            為了簡(jiǎn)化用戶(hù)的負(fù)擔(dān),MultiRay的外部API一次只針對(duì)一個(gè)請(qǐng)求,然后在內(nèi)部使用交叉請(qǐng)求批邏輯(cross-request batch logic)將跨客戶(hù)端的許多并發(fā)請(qǐng)求聚合到一個(gè)批中。

            用戶(hù)可以編寫(xiě)邏輯來(lái)調(diào)整batch size,以便為模型和硬件創(chuàng)建理想大小的批。這種批處理設(shè)置對(duì)于發(fā)送請(qǐng)求的客戶(hù)機(jī)來(lái)說(shuō)是完全隱藏的,可以隨硬件性能進(jìn)行動(dòng)態(tài)調(diào)整,比如遷移到新一代 GPU 加速器硬件時(shí)使用了更大的批處理大小。

            緩存: 權(quán)衡計(jì)算和存儲(chǔ)

            MultiRay 利用緩存盡可能地節(jié)省重新計(jì)算的成本,使用多層緩存實(shí)現(xiàn)最小成本和低延遲,每一層都會(huì)帶來(lái)更高的命中率,但以較低的速度為代價(jià)。

            這些層從每個(gè) MultiRay 服務(wù)器的 RAM 中的一個(gè)快速但較小的主機(jī)本地緩存開(kāi)始,最后以一個(gè)較慢但較大的全局分布式閃存緩存結(jié)束。

            MultiRay模型很大,并且它們會(huì)生成高維度的embedding來(lái)保持通用性。對(duì)于文本理解來(lái)說(shuō),這些embedding要比輸入本身大得多。

            從高速緩存中embedding所需的電量比重新計(jì)算所需的電量要少,但不可能是零。由于可用的緩存存儲(chǔ)空間是有限的,因此也不可能在緩存中長(zhǎng)時(shí)間緩存結(jié)果。

            MultiRay會(huì)測(cè)量客戶(hù)端之間的請(qǐng)求模式,以確定最佳緩存設(shè)置(大小、生存時(shí)間、更新策略) ,從而降低服務(wù)的總成本。

            比如說(shuō)使用這些測(cè)量數(shù)據(jù)來(lái)模擬各種緩存生命周期設(shè)置所需的能量,在GPU加速器上重新計(jì)算請(qǐng)求的成本與從緩存服務(wù)請(qǐng)求的成本之間進(jìn)行權(quán)衡。這個(gè)反饋循環(huán)可以在客戶(hù)端行為不斷變化的情況下提高 MultiRay 的效率。

            沒(méi)有免費(fèi)的午餐

            這種集中式的服務(wù)也帶來(lái)了許多挑戰(zhàn)。其中一些難題比如客戶(hù)端管理、quotas和成本歸屬等,被認(rèn)為是數(shù)據(jù)庫(kù)等大型系統(tǒng)已經(jīng)解決的問(wèn)題,但需要將算法適應(yīng)于人工智能領(lǐng)域。

            此外,只有在集中模型被廣泛使用的情況下,才能分擔(dān)更高質(zhì)量、更昂貴的 MultiRay 模型的費(fèi)用,這也就要求模型在許多用例中提供最先進(jìn)的質(zhì)量。

            這個(gè)不斷變化的目標(biāo)意味著MultiRay需要在模型更新(版本控制,升級(jí)到新版本,廢棄舊版本)和創(chuàng)新新的模型架構(gòu)和訓(xùn)練流程上投入大量資金,以減少?gòu)难芯康缴a(chǎn)時(shí)間,從而讓MultiRay的用戶(hù)使用上最新的技術(shù)。

            掃描二維碼推送至手機(jī)訪問(wèn)。

            版權(quán)聲明:本文由財(cái)神資訊-領(lǐng)先的體育資訊互動(dòng)媒體轉(zhuǎn)載發(fā)布,如需刪除請(qǐng)聯(lián)系。

            本文鏈接:http://www.thecityplacetownhomes.com/?id=1994

            “如何實(shí)現(xiàn)2000萬(wàn)QPS?Meta揭秘背后的AI平臺(tái)MultiRay:日均處理8000億次請(qǐng)求!” 的相關(guān)文章

            關(guān)之琳高爾夫事件是怎么回事,是真實(shí)發(fā)生過(guò)的還是杜撰的?

            關(guān)之琳高爾夫事件是怎么回事,是真實(shí)發(fā)生過(guò)的還是杜撰的?

            說(shuō)起大美女關(guān)之琳,想必很多人對(duì)她應(yīng)該都不陌生吧,她是香港八九十年代的女神級(jí)人物,憑借著清純的外貌加上一頭秀麗的長(zhǎng)發(fā),俘獲了成千上萬(wàn)男人的心,是很多男人心中夢(mèng)寐以求的女神。雖然已經(jīng)很多年過(guò)去了,但時(shí)至今日,關(guān)之琳風(fēng)采依舊不輸當(dāng)年。 最近隨著網(wǎng)上傳言她準(zhǔn)備復(fù)出娛樂(lè)圈,關(guān)于她曾經(jīng)的艷文趣...

            關(guān)之琳自愿被塞高爾夫球真相

            關(guān)之琳自愿被塞高爾夫球真相

            關(guān)之琳劉鑾雄 明星網(wǎng)訊 關(guān)之琳被塞高爾夫球發(fā)生在1993年,關(guān)之琳打著保守清純的旗號(hào),卻做了許多不堪的事情。關(guān)之琳被塞高爾夫球事件也可以說(shuō)是她自作自受,因?yàn)樗虼速嵙藘汕f(wàn)。傳言是劉鑾雄塞的,一共塞了兩個(gè),后來(lái)拿不出來(lái),晚上三點(diǎn)到香港圣瑪麗醫(yī)院取出的,塞一個(gè)球劉鑾雄給她一千萬(wàn),共計(jì)...

            “爛桃花”關(guān)之琳的風(fēng)流情史

            “爛桃花”關(guān)之琳的風(fēng)流情史

            她曾被稱(chēng)為香港第一美女,憑“十三姨”一角成了多少男人的夢(mèng),然而她的追求從來(lái)都只有一個(gè),那就是:嫁個(gè)有錢(qián)人。 在感情上的關(guān)之琳并不像熒幕中的那么清純,也可以說(shuō)正好相反,當(dāng)年的“高爾夫球”事件可不是隨便說(shuō)說(shuō)的。 關(guān)之琳,原名關(guān)家慧,1962年9月24日出生于...

            國(guó)乒悍將妥協(xié)讓球錯(cuò)失奧運(yùn)金牌,26歲巔峰退役,再回首不后悔

            國(guó)乒悍將妥協(xié)讓球錯(cuò)失奧運(yùn)金牌,26歲巔峰退役,再回首不后悔

            再回首,距離1988年漢城奧運(yùn)會(huì)已過(guò)去快33年了,那屆奧運(yùn)會(huì)的女子單打銅牌得主焦志敏,再一次進(jìn)入大眾視野并接受媒體采訪,回首往事,再次談及那枚本該屬于她的金牌,卻因?yàn)樽约和讌f(xié)讓球而與之失之交臂的事情,焦志敏談笑風(fēng)生間,表示不再有遺憾,也不后悔,因?yàn)槭朗码y料,若沒(méi)有那次讓球讓自己當(dāng)時(shí)委屈退役...

            我市舉辦2022年高爾夫球二級(jí)裁判員培訓(xùn)班

            我市舉辦2022年高爾夫球二級(jí)裁判員培訓(xùn)班

            8月15日至18日,2022年高爾夫球二級(jí)裁判員培訓(xùn)班在山西體育中心舉辦。市體育局競(jìng)體科、市高爾夫球協(xié)會(huì)負(fù)責(zé)人參加開(kāi)班儀式。 本次培訓(xùn)為期4天,由國(guó)際級(jí)裁判顧君擔(dān)任講師,參加培訓(xùn)的學(xué)員有在校大學(xué)生、學(xué)校老師、俱樂(lè)部教練員及管理人員,還包括一些青少年學(xué)員的家長(zhǎng)。培訓(xùn)課程不僅有國(guó)際級(jí)裁...

            ?