幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 業(yè)界 > 關(guān)鍵詞  > IBM最新資訊  > 正文

IBM 的低功耗芯片可能會在生成式 AI 中得到應(yīng)用:大幅降低電力需求

2023-08-24 09:02 · 稿源:站長之家

站長之家(ChinaZ.com) 8月24日消息:大型語言模型是 ChatGPT 等技術(shù)背后的人工智能技術(shù),正如其名稱所示:它們很大。它們通常擁有數(shù)十億個計算節(jié)點和巨量的連接。所有這些意味著需要頻繁地進行內(nèi)存讀寫,并且需要消耗大量電力才能實現(xiàn)。而問題可能會變得更加嚴重

IBM

一種潛在的避免方法是將內(nèi)存和處理混合使用。IBM 和英特爾都制造了芯片,使單個神經(jīng)元配備了執(zhí)行其功能所需的所有內(nèi)存。另一種方法是在內(nèi)存中執(zhí)行操作,這種方法已經(jīng)通過相變內(nèi)存得到證明。

IBM 指出,由于人工智能的存在,自動轉(zhuǎn)錄的準確性在過去十年中得到了極大提高。然而,用于幫助訓(xùn)練和操作這些以及其他人工智能系統(tǒng)的硬件變得越來越昂貴且耗能。為了訓(xùn)練最先進的 AIGPT-3,OpenAI 花費了 460 萬美元,讓 9200 個 GPU 運行了兩周。

現(xiàn)在,IBM 推出了一個更接近于功能性 AI 處理器的相變芯片,在周三發(fā)布于《自然》雜志上的一篇論文中展示了該公司硬件可以以較低能耗占用實現(xiàn)合理準確率的語音識別。

相變

相變內(nèi)存已經(jīng)開發(fā)了一段時間。它提供閃存內(nèi)存持久性但與現(xiàn)有揮發(fā)性 RAM 非常接近的性能。它通過加熱小塊材料并控制其冷卻速度來運作。緩慢冷卻,則形成有序結(jié)晶體導(dǎo)電良好;快速冷卻,則形成無序混亂體電阻更高。這兩種狀態(tài)之間的差異可以存儲一個位,直到施加足夠的電壓再次熔化材料。

這種行為也非常適合神經(jīng)網(wǎng)絡(luò)。在神經(jīng)網(wǎng)絡(luò)中,每個節(jié)點接收輸入,并根據(jù)其狀態(tài)確定將多少信號轉(zhuǎn)發(fā)給其他節(jié)點。通常,這被視為表示網(wǎng)絡(luò)中單個神經(jīng)元之間連接強度的方法。由于相變內(nèi)存的行為,該強度也可以由模擬模式下操作的單個內(nèi)存位來表示。

當存儲數(shù)字位時,最大化相變內(nèi)存開和關(guān)狀態(tài)之間的差異以限制錯誤。但是完全有可能將一位比特設(shè)置為介于其開和關(guān)狀態(tài)之間任何值得電阻值,從而允許進行模擬行為。這些潛在值得平滑漸變可用于表示節(jié)點之間連接強度——通過對相變內(nèi)存進行通流即可獲得等效于神經(jīng)網(wǎng)絡(luò)節(jié)點行為。

如上所述,IBM 已經(jīng)證明了它能夠工作。今天描述的芯片則更接近功能處理器,在規(guī)模上更接近處理大型語言模型所需求。

芯片

新芯片核心組件稱為「tile」,是一個交叉條形數(shù)組(類似正方形網(wǎng)格),由 512 個單位寬、2048 個單位深的單個相變位組成。每個芯片包含 34 個這樣的 tile,即約 3500 萬個相變位。該芯片還具有所有位所需的高速通信硬件,甚至可以在不需要任何模擬到數(shù)字轉(zhuǎn)換的情況下跨越不同 tile 進行通信。板載傳統(tǒng)處理器單元以及一些靜態(tài) RAM 幫助控制此通信流量,并處理芯片中模擬和數(shù)字部分之間的翻譯。

系統(tǒng)也是靈活的,因為它允許任何連接強度由可變數(shù)量比特來保持。并且芯片之間可以進行通信,從而將更大問題分割并分布在多個芯片上。這里展示的最大的工作涉及分布在五個芯片上的 1.4 億個相變位。

為了使這項技術(shù)真正發(fā)揮作用,研究人員使用現(xiàn)有的 AI 系統(tǒng),并設(shè)置相變位的狀態(tài)以匹配。一旦設(shè)置完成,分析可以重復(fù)運行,而芯片的相變部分不需要額外消耗能量。

研究人員利用這種硬件在兩個語音識別任務(wù)中展示了其性能。其中一個較簡單,涉及在語音中識別少量關(guān)鍵字,例如你可能需要處理自動呼叫系統(tǒng)上遇到的交互。第二個是通用語音識別,盡管詞匯表略有壓縮。在這兩種情況下,該硬件能夠與傳統(tǒng)處理器上運行等效 AI 系統(tǒng)的性能相匹配。

因此,在峰值性能時,該芯片每瓦特功率可執(zhí)行 124 萬億次操作。這比傳統(tǒng)處理器執(zhí)行等效操作所需的功率要低得多。

IBM 之前的模擬表明,模擬 AI 的能效可以是適用于 AI 應(yīng)用的最佳 GPU 的 40 到 140 倍。到目前為止,這些估計還缺乏實際展示。

必須注意的是,這不是通用 AI 處理器。它只適用于特定類型的神經(jīng)網(wǎng)絡(luò),并非所有問題都適合那種類型的神經(jīng)網(wǎng)絡(luò)。它承諾節(jié)省能源也基于網(wǎng)絡(luò)保持靜態(tài)。任何需要重新配置節(jié)點之間連接來解決問題都意味著重新設(shè)置相變位狀態(tài),并且需要更多電力。

這也意味著該芯片對于訓(xùn)練 AI 沒有太大用處。實際上,用于開發(fā)在其上執(zhí)行的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程必須進行調(diào)整,以確保結(jié)果可以轉(zhuǎn)換為相變芯片。

盡管如此,在匹配正確類型的問題時,該芯片可能會顯著減少能源消耗。而且在這方面還有更大的潛力。該芯片采用 14 納米工藝制造,遠未達到最先進水平。研究人員表示,他們沒有采取任何措施來優(yōu)化處理器中專用于通信和數(shù)字/模擬轉(zhuǎn)換部分的能源使用。

IBM 科學(xué)家于 8 月 23 日在《自然》雜志在線版上詳細介紹了他們的發(fā)現(xiàn):

https://www.nature.com/articles/s41586-023-06337-5

舉報

  • 相關(guān)推薦
  • 大家在看
  • MLX-Auto-Subtitled-Video-Generator:基于 Apple MLX 框架的視頻字幕生成工具

    一款基于 Apple MLX 框架構(gòu)建的開源字幕生成工具,針對蘋果硅芯片 Mac 優(yōu)化,高效且成本效益高。

  • Blendbox:AI藝術(shù)創(chuàng)作平臺,讓創(chuàng)意不受限制。

    Blendbox是一個基于AI的藝術(shù)創(chuàng)作平臺,它通過提供非破壞性編輯、層級編輯和重組等功能,增強用戶的創(chuàng)造力。用戶可以輕松地對作品的各個層進行編輯和調(diào)整,實現(xiàn)前所未有的創(chuàng)作自由度。Blendbox的背景信息顯示,它是由Blockade Labs開發(fā)的,旨在推動AI技術(shù)在藝術(shù)創(chuàng)作領(lǐng)域的應(yīng)用。產(chǎn)品定位于專業(yè)設(shè)計師和藝術(shù)創(chuàng)作者,價格方面提供試用,具體定價未在頁面中明確。

  • MimicTalk:快速生成個性化和富有表現(xiàn)力的3D會說話面部模型

    MimicTalk是一種基于神經(jīng)輻射場(NeRF)的個性化三維說話面部生成技術(shù),它能夠在幾分鐘內(nèi)模仿特定身份的靜態(tài)外觀和動態(tài)說話風格。這項技術(shù)的主要優(yōu)點包括高效率、高質(zhì)量的視頻生成以及對目標人物說話風格的精確模仿。MimicTalk通過一個通用的3D面部生成模型作為基礎(chǔ),并通過靜態(tài)-動態(tài)混合適應(yīng)流程來學(xué)習(xí)個性化的靜態(tài)外觀和面部動態(tài),同時提出了一種上下文風格化的音頻到運動(ICS-A2M)模型,以生成與目標人物說話風格相匹配的面部運動。MimicTalk的技術(shù)背景是基于深度學(xué)習(xí)和計算機視覺領(lǐng)域的最新進展,特別是在人臉合成和動畫生成方面。目前,該技術(shù)是免費提供給研究和開發(fā)社區(qū)的。

  • Agent S::一個開放的代理框架,讓計算機像人類一樣使用計算機。

    Agent S是一個開放的代理框架,旨在通過圖形用戶界面(GUI)實現(xiàn)與計算機的自主交互,通過自動化復(fù)雜多步驟任務(wù)來轉(zhuǎn)變?nèi)藱C交互。它引入了經(jīng)驗增強的分層規(guī)劃方法,利用在線網(wǎng)絡(luò)知識和敘事記憶,從過去的交互中提取高級經(jīng)驗,將復(fù)雜任務(wù)分解為可管理的子任務(wù),并使用情景記憶進行逐步指導(dǎo),Agent S不斷優(yōu)化其行動并從經(jīng)驗中學(xué)習(xí),實現(xiàn)適應(yīng)性強且有效的任務(wù)規(guī)劃。Agent S在OSWorld基準測試中的表現(xiàn)超過了基線9.37%的成功率(相對提高了83.6%),并在WindowsAgentArena基準測試中展示了廣泛的通用性。

  • Learn About:探索不同學(xué)科的知識,開啟新的對話。

    Learn About 是一個教育實驗平臺,旨在通過提供不同學(xué)科的知識點,幫助用戶探索和學(xué)習(xí)新的話題。它涵蓋了歷史、生物學(xué)、物理學(xué)、經(jīng)濟學(xué)等多個領(lǐng)域,通過互動式學(xué)習(xí),讓用戶能夠更深入地了解各個學(xué)科的奧秘。產(chǎn)品背景信息顯示,Learn About 致力于通過教育技術(shù),激發(fā)用戶的好奇心和學(xué)習(xí)熱情,提升知識水平。

  • InstantIR:盲圖像恢復(fù)技術(shù),利用即時生成參考圖像恢復(fù)破損圖像

    InstantIR是一種基于擴散模型的盲圖像恢復(fù)方法,能夠在測試時處理未知退化問題,提高模型的泛化能力。該技術(shù)通過動態(tài)調(diào)整生成條件,在推理過程中生成參考圖像,從而提供穩(wěn)健的生成條件。InstantIR的主要優(yōu)點包括:能夠恢復(fù)極端退化的圖像細節(jié),提供逼真的紋理,并且通過文本描述調(diào)節(jié)生成參考,實現(xiàn)創(chuàng)造性的圖像恢復(fù)。該技術(shù)由北京大學(xué)、InstantX團隊和香港中文大學(xué)的研究人員共同開發(fā),得到了HuggingFace和fal.ai的贊助支持。

  • PromptFix:根據(jù)人類指令修復(fù)和編輯照片的框架

    PromptFix是一個綜合框架,能夠使擴散模型遵循人類指令執(zhí)行各種圖像處理任務(wù)。該框架通過構(gòu)建大規(guī)模的指令遵循數(shù)據(jù)集,提出了高頻引導(dǎo)采樣方法來控制去噪過程,并設(shè)計了輔助提示適配器,利用視覺語言模型增強文本提示,提高模型的任務(wù)泛化能力。PromptFix在多種圖像處理任務(wù)中表現(xiàn)優(yōu)于先前的方法,并在盲恢復(fù)和組合任務(wù)中展現(xiàn)出優(yōu)越的零樣本能力。

  • Browserbase:AI代理和應(yīng)用程序的網(wǎng)絡(luò)瀏覽器

    Browserbase是一個為AI代理和應(yīng)用程序設(shè)計的網(wǎng)絡(luò)瀏覽器,提供無縫集成、可擴展性、速度、安全性、可觀察性和隱身性等功能。它允許用戶無需維護自己的瀏覽器基礎(chǔ)設(shè)施即可運行和管理頭less瀏覽器。Browserbase支持Playwright、Puppeteer或Selenium,使得開發(fā)者可以輕松集成而無需更改現(xiàn)有代碼。產(chǎn)品背景信息顯示,Browserbase被先鋒和有遠見的人所信賴,并且提供了透明的定價策略。

  • Stagehand:AI驅(qū)動的網(wǎng)頁瀏覽框架,專注于簡潔性和可擴展性。

    Stagehand是一個AI驅(qū)動的網(wǎng)頁瀏覽框架,旨在簡化和擴展網(wǎng)頁自動化的可能性。它提供了三個簡單的API(act、extract、observe),這些API構(gòu)成了自然語言驅(qū)動的網(wǎng)絡(luò)自動化的基礎(chǔ)。Stagehand的目標是提供一個輕量級、可配置的框架,沒有過于復(fù)雜的抽象概念,并且支持不同的模型和模型提供者。它不會為您訂購披薩,但它將幫助您可靠地自動化網(wǎng)絡(luò)。

  • WalkSmart:個性化定制的免費步行導(dǎo)覽,成為自己的導(dǎo)游。

    WalkSmart 提供了一個平臺,用戶可以根據(jù)自己的喜好和需求,快速創(chuàng)建個性化的步行旅游路線。這個產(chǎn)品利用人工智能技術(shù),分析用戶的興趣點,如建筑、教堂、觀景點等,生成獨一無二的旅游路線。它的重要性在于提供了一種全新的旅游體驗方式,讓用戶能夠根據(jù)自己的時間表和興趣來探索世界。WalkSmart 免費提供服務(wù),無需支付費用,適合喜歡自由行和深度游的用戶。

  • SmolLM2-1.7B:輕量級1.7B參數(shù)的語言模型,適用于多種任務(wù)。

    SmolLM2是一系列輕量級的語言模型,包含135M、360M和1.7B參數(shù)的版本。這些模型能夠在保持輕量級的同時解決廣泛的任務(wù),特別適合在設(shè)備上運行。1.7B版本的模型在指令遵循、知識、推理和數(shù)學(xué)方面相較于前代SmolLM1-1.7B有顯著進步。它使用包括FineWeb-Edu、DCLM、The Stack等多個數(shù)據(jù)集進行了訓(xùn)練,并且通過使用UltraFeedback進行了直接偏好優(yōu)化(DPO)。該模型還支持文本重寫、總結(jié)和功能調(diào)用等任務(wù)。

  • kelindar/search:Go語言庫,用于嵌入式向量搜索和語義嵌入

    kelindar/search 是一個Go語言庫,它提供了嵌入式向量搜索和語義嵌入的功能,基于llama.cpp構(gòu)建。這個庫特別適合于小到中型項目,需要強大的語義搜索能力,同時保持簡單高效的實現(xiàn)。它支持GGUF BERT模型,允許用戶利用復(fù)雜的嵌入技術(shù),而不需要深陷傳統(tǒng)搜索系統(tǒng)的復(fù)雜性。該庫還提供了GPU加速功能,能夠在支持的硬件上快速進行計算。如果你的數(shù)據(jù)集少于100,000條目,這個庫可以輕松集成到你的Go應(yīng)用中,實現(xiàn)語義搜索功能。

  • X to Voice:利用ElevenLabs技術(shù)將個人資料轉(zhuǎn)化為獨特聲音。

    X to Voice是ElevenLabs提供的一項服務(wù),它允許用戶分析個人資料并生成一個獨特的聲音。這項技術(shù)主要優(yōu)點在于其創(chuàng)新性和個性化,用戶可以通過上傳文本內(nèi)容,利用ElevenLabs的Text to Voice技術(shù),將文本轉(zhuǎn)換為語音,從而創(chuàng)建出代表個人或品牌形象的聲音。產(chǎn)品背景信息顯示,ElevenLabs致力于通過其API提供高質(zhì)量的語音合成服務(wù),X to Voice是其在個性化聲音設(shè)計領(lǐng)域的一次嘗試。產(chǎn)品定位于為用戶提供一種新穎的互動方式,通過聲音增強個人或品牌的獨特性。

  • In-Context LoRA for Diffusion Transformers:一種用于擴散變換器的上下文LoRA微調(diào)技術(shù)

    In-Context LoRA是一種用于擴散變換器(DiTs)的微調(diào)技術(shù),它通過結(jié)合圖像而非僅僅文本,實現(xiàn)了在保持任務(wù)無關(guān)性的同時,對特定任務(wù)進行微調(diào)。這種技術(shù)的主要優(yōu)點是能夠在小數(shù)據(jù)集上進行有效的微調(diào),而不需要對原始DiT模型進行任何修改,只需改變訓(xùn)練數(shù)據(jù)即可。In-Context LoRA通過聯(lián)合描述多張圖像并應(yīng)用任務(wù)特定的LoRA微調(diào),生成高保真度的圖像集合,更好地符合提示要求。該技術(shù)對于圖像生成領(lǐng)域具有重要意義,因為它提供了一種強大的工具,可以在不犧牲任務(wù)無關(guān)性的前提下,為特定任務(wù)生成高質(zhì)量的圖像。

  • π0:首款通用型機器人基礎(chǔ)模型

    π0是一個通用型機器人基礎(chǔ)模型,旨在通過實體化訓(xùn)練讓AI系統(tǒng)獲得物理智能,能夠執(zhí)行各種任務(wù),就像大型語言模型和聊天機器人助手一樣。π0通過訓(xùn)練在機器人上的實體經(jīng)驗獲得物理智能,能夠直接輸出低級電機命令,控制多種不同的機器人,并可以針對特定應(yīng)用場景進行微調(diào)。π0的開發(fā)代表了人工智能在物理世界應(yīng)用方面的重要進步,它通過結(jié)合大規(guī)模多任務(wù)和多機器人數(shù)據(jù)收集以及新的網(wǎng)絡(luò)架構(gòu),提供了迄今為止最有能力、最靈巧的通用型機器人政策。

  • Monica Code:一站式AI編碼助手,集成至VS Code。

    Monica Code是一款集成至VS Code的AI編碼助手,支持GPT-4o和Claude 3.5 Sonnet,提供代碼補全、代碼編輯、與代碼庫多模態(tài)對話等功能,旨在提高開發(fā)者的編碼效率和質(zhì)量。產(chǎn)品背景信息顯示,Monica Code支持超過20種編程語言,包括C++、Go、Java、JavaScript、Python等,適合需要AI輔助編程的開發(fā)者。價格方面,提供免費版和付費版,付費版包含更多功能和查詢次數(shù)。

  • 51chat:全能AI助手,提供對話、搜索、寫作等功能

    51chat是一個全能AI助手網(wǎng)站,提供對話、搜索、寫作等功能。它通過大模型生成內(nèi)容,幫助用戶一鍵總結(jié)網(wǎng)頁鏈接概要、生成小紅書爆款內(nèi)容、進行多語言翻譯等。產(chǎn)品背景信息顯示,51chat致力于提供高效、準確的AI服務(wù),以滿足用戶的多樣化需求。目前產(chǎn)品提供免費試用,具體價格和定位需進一步了解。

  • VideoMaker:免費在線工具,將文本和圖片轉(zhuǎn)換為視頻

    VideoMaker Luma AI視頻生成器是一個利用AI技術(shù)快速輕松創(chuàng)建高質(zhì)量視頻的平臺,提供文本轉(zhuǎn)視頻和圖片轉(zhuǎn)視頻功能,讓用戶能夠?qū)⑽谋竞蛨D片轉(zhuǎn)化為引人入勝的視頻。該平臺通過免費的AI視頻制作工具和在線視頻制作工具,提供了一種專業(yè)且用戶友好的體驗,無需任何編輯技能。Luma AI以其在AI技術(shù)領(lǐng)域的創(chuàng)新而聞名,特別是在3D建模方面。其最新的創(chuàng)新產(chǎn)品Dream Machine模型是一款A(yù)I視頻生成器,可以通過文本和圖片輸入生成高質(zhì)量、逼真的視頻,具備流暢的動作和一致的背景,相較于以前的AI視頻生成器是一個顯著的改進。

  • Electronic-Component-Sorter:AI驅(qū)動的電子元件分類器,智能組件管理的終極解決方案。

    Vanguard-s/Electronic-Component-Sorter是一個利用機器學(xué)習(xí)和人工智能自動化識別和分類電子元件的項目。該項目通過深度學(xué)習(xí)模型,能夠?qū)㈦娮釉譃殡娮?、電容、LED、晶體管等七大類,并通過OCR技術(shù)進一步獲取元件的詳細信息。它的重要性在于減少人工分類錯誤,提高效率,確保安全性,并幫助視覺障礙人士更便捷地識別電子元件。

  • URL Parser Online:在線URL解析器,將URL轉(zhuǎn)換為適合大型語言模型的輸入格式。

    URL Parser Online是一個在線工具,它能夠?qū)?fù)雜的URL轉(zhuǎn)換為適合大型語言模型(LLMs)使用的輸入格式。這項技術(shù)的重要性在于它能夠幫助開發(fā)者和研究人員更有效地處理和解析URL數(shù)據(jù),尤其是在進行網(wǎng)頁內(nèi)容分析和數(shù)據(jù)抽取時。產(chǎn)品背景信息顯示,隨著互聯(lián)網(wǎng)數(shù)據(jù)量的爆炸式增長,對URL的解析和處理需求日益增加。URL Parser Online以其簡潔的用戶界面和高效的解析能力,為用戶提供了一個便捷的解決方案。該產(chǎn)品目前提供免費服務(wù),定位于開發(fā)者和數(shù)據(jù)分析師。

今日大家都在搜的詞:

熱文

  • 3 天
  • 7天