幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 動態(tài) > 關鍵詞  > 阿里云最新資訊  > 正文

Graphcore宣布其IPU支持阿里云深度學習開放接口標準ODLA

2020-09-25 16:51 · 稿源: TechWeb.com.cn

【TechWeb】9月25日消息, 2020云棲大會上,阿里云宣布對行業(yè)開源業(yè)界首個深度學習開放接口標準ODLA(Open Deep Learning API)。阿里云在今年5月份的OCP全球峰會上首次對外公布ODLA接口標準,并宣布已率先在Graphcore等生態(tài)伙伴上獲得支持。IPU是Graphcore為機器智能從零設計的AI處理器,通過ODLA接口,開發(fā)者可以在IPU上快速跑通AI Matrix的各類模型。

ODLA是一個為加速深度學習的統(tǒng)一異構硬件編程接口。ODLA規(guī)范了深度學習計算任務的定義和執(zhí)行,實現(xiàn)上層應用和底層異構硬件平臺的解耦,讓AI異構計算更簡單,實踐代碼“生成一次,隨時鏈接,隨處執(zhí)行”的愿景。

Graphcore的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Nigel Toon表示:“ODLA優(yōu)雅地滿足了Graphcore新用戶的兩個最大需求。一是他們希望輕松地將我們的技術集成到現(xiàn)有的數(shù)據(jù)中心,二是他們希望確保最終的設置在從各個組件到整個系統(tǒng)的每個層級都能得到高度優(yōu)化?!?/p>

通過ODLA,在Graphcore IPU上技術適配和應用部署的工作量可以實現(xiàn)大幅度降低,且實現(xiàn)效率大幅提升。另外,通過ODLA可以更好的與AI計算框架進行軟硬協(xié)同,快速利用現(xiàn)有的編譯優(yōu)化技術,達到最佳性能。對于異構任務,ODLA充當該系統(tǒng)范圍通用語言與特定于架構的優(yōu)化之間的接口或轉換器,該優(yōu)化可從Graphcore的IPU等設備實現(xiàn)最佳性能。

附 ODLA在2020云棲大會上宣布的主要特性:

?透明接口層,零損耗。

?接口抽象和統(tǒng)一,軟硬件解耦:通過面向AI的多粒度算子抽象,定義統(tǒng)一的接口,解耦具體軟硬件,平滑遷移業(yè)務;實現(xiàn)代碼復用,提升開發(fā)和部署效率。

?多模態(tài)執(zhí)行方式:支持多種執(zhí)行模式,覆蓋解釋執(zhí)行、編譯執(zhí)行、載入預編譯代碼等場景,兼容各種硬件的運行模式。

?AI全場景支持:支持推理和訓練,適配云、邊、端全場景AI業(yè)務;擁有廣泛的算子定義和豐富的接口(設備管理、會話管理、執(zhí)行管理、事件同步/異步、資源查詢、性能監(jiān)控等)。

?卓越的擴展性,支持AI芯片廠家獨特屬性和自定義算子。

舉報

  • 相關推薦
  • 研究人員推出深度學習模型RECAST 改進地震預測

    來自加州伯克利分校、圣克魯斯分校以及慕尼黑工業(yè)大學的研究人員發(fā)表論文,闡述了一種嶄新的模型,將深度學習引入地震預測領域。該模型被命名為RECAST,相比自1988年問世以來改進有限的當前標準模型ETAS,RECAST可利用更大的數(shù)據(jù)集,提供更高的靈活性。你會看到它朝著正確的方向發(fā)展。

  • JoJoGAN:可一鍵生成藝術化面部圖像的深度學習模型

    JoJoGAN是一個深度學習模型,該模型可以將普通的面部圖像轉化為藝術化的作品,無需專業(yè)藝術家或設計師的干預。這項技術可用于各種應用領域,包括藝術創(chuàng)作、虛擬角色設計、社交媒體濾鏡和廣告營銷。它的技術細節(jié)和使用指南在文章中都得到了詳細介紹,為感興趣的用戶提供了寶貴的資源。

  • 谷歌研究人員在 JAX 中引入了一個開源庫 用于在球面上進行深度學習

    Google研究人員最近推出了一個基于JAX的開源庫,旨在解決在球面上進行深度學習的挑戰(zhàn)。傳統(tǒng)的深度學習模型通常處理平面數(shù)據(jù),例如圖像,但科學應用中的數(shù)據(jù)通常是球面數(shù)據(jù)。3.這項研究有望在分子性質預測和氣象預測等領域取得突破性進展,為醫(yī)療研究和氣候分析提供有力支持。

  • DeepMind研究人員發(fā)現(xiàn),深度學習模型在圖像和音頻壓縮方面表現(xiàn)出色

    Google旗下的人工智能子公司DeepMind發(fā)布的一項研究表明,大型語言模型除了在文本數(shù)據(jù)處理方面表現(xiàn)出色之外具備出色的圖像和音頻數(shù)據(jù)壓縮能力。這一發(fā)現(xiàn)為重新審視LLMs的潛力提供了新的角度。這表明LLMs的性能與數(shù)據(jù)集的大小有關,壓縮率可以作為評估模型對數(shù)據(jù)集信息學習的指標。

  • srf-attention:一個提高深度學習模型訓練效率的注意力機制

    注意力很有用,但計算成本很高。一旦訓練完成,通過一些微調計算,您可以減少SRF注意力并消除對序列長度的依賴,從大大加快速度。它可以幫助研究人員和開發(fā)者更高效地構建和訓練深度學習模型,提高模型的性能和效率。

  • 深度學習模型部署與優(yōu)化:策略與實踐;L40S與A100、H100的對比分析

    ★深度學習、機器學習、生成式AI、深度神經(jīng)網(wǎng)絡、抽象學習、Seq2Seq、VAE、GAN、GPT、BERT、預訓練語言模型、Transformer、ChatGPT、GenAI、多模態(tài)大模型、視覺大模型、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100、A800、H800隨著生成式AI應用的迅猛發(fā)展,我們正處在前所未有的大爆發(fā)時代。四、性價比較根據(jù)SuperMicro的數(shù)據(jù),L40S在性價比上相較于A100具有優(yōu)勢,為希望部署高效且具有競爭力的生成式人工智能解決方案的用戶提供更多選擇。在模型分發(fā)和運行過程中,提供全面的賬號認證和日志審計功能,全方位保障模型和數(shù)據(jù)的安全性。

  • 阿里云向海外大模型開發(fā)者推出PAI靈駿智算、AIACC等服務

    在昨日的阿里云國際峰會上,阿里云宣布將向海外大模型開發(fā)者和企業(yè)提供一站式開發(fā)服務,包括模型訓練、推理、部署等全流程的工程平臺和智能算力,以滿足國際市場對大模型開發(fā)服務的旺盛需求。“PAI靈駿智算服務”可為開發(fā)者和企業(yè)提供AI開發(fā)全流程的工程平臺和智能算力,能穩(wěn)定支撐多達10萬億參數(shù)的多模態(tài)大模型的低能耗訓練。根據(jù)斯坦福DAWN深度學習基準測試,AIACC可將人工智能模型訓練速度提高70%,推理速度提高三倍。

  • iPhone 15系列正式開放,USB-C接口可以兼容安卓線

    iPhone15系列的充電接口問題終于得到了確認,據(jù)充電頭網(wǎng)最新消息,iPhone15系列的USB-C接口可以完全兼容其他設備的線材,包括安卓手機沒有任何加密措施。這一消息對于許多用戶來說無疑是一個好消息,尤其是那些需要同時使用多臺設備的用戶,他們現(xiàn)在出門再也不需要多帶一根線了。可以預見,在今年的蘋果春節(jié)賀歲短片中,iPhone15ProMax將會提供有史以來最強的畫面體驗。

  • 阿里云與長龍航空合作 打造航空大模型

    阿里云與長龍航空達成全面合作,共同打造航空大模型。根據(jù)長龍航空與阿里云合作協(xié)議,基于通義系列大模型產品,雙方將共同打造應用于特殊旅客在線服務、手冊智能查詢、航變通知單自動生成等場景中的航空大模型。大模型將通過現(xiàn)有的航班計劃表和保護方案實現(xiàn)秒級自動生成新的航變知單。

  • UCSD 研究人員開源Graphologue:將LLM文本響應轉化為交互式圖表

    大型語言模型如GPT-4因其生成各種用戶查詢的文本響應的能力變得極為流行。盡管它們具有強大的功能,但在有效傳達復雜信息方面存在一些限制。Graphologue代表了使LLM互動更直觀和有效的重大進步。

熱文

  • 3 天
  • 7天