11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享。快來騰訊云選購吧!
【新智元導讀】最近,大模型訓練遭惡意攻擊事件已經(jīng)刷屏了。Anthropic也發(fā)布了一篇論文,探討了前沿模型的巨大破壞力,他們發(fā)現(xiàn):模型遇到危險任務(wù)時會隱藏真實能力會在代碼庫中巧妙地插入bug,躲過LLM和人類「檢查官」的追蹤!就在昨天,某大廠模型訓練遭入侵的事件,驚動了整個AI圈。隨著AI模型能力繼續(xù)提升,這些評估和緩解措施還夠用嗎?Anthropic研究者也表示,希望其他AI研究者和開發(fā)者都能加入改進這些評估的行列。
今天下午,字節(jié)跳動發(fā)布了關(guān)于實習生破壞大模型訓練”的事實澄清公告。近期有媒體稱字節(jié)跳動大模型訓練被實習生攻擊”,經(jīng)公司內(nèi)部核實,確有商業(yè)化技術(shù)團隊實習生發(fā)生嚴重違紀行為,該實習生已被辭退。公司也將其行為同步給行業(yè)聯(lián)盟和所在學校,交由校方處理。
今日,字節(jié)跳動大模型訓練遭實習生攻擊一事引發(fā)廣泛關(guān)注,相關(guān)話題隨即登上熱搜。據(jù)大廠青年”爆料,據(jù)內(nèi)部廠友透露,破壞模型訓練確有其事,但傳聞也有些夸張和虛構(gòu)的信息。一位前字節(jié)技術(shù)員工表示,字節(jié)AILab的實習生權(quán)限和正職員工差異不大,也使得此次事件有了發(fā)生的機會”,其也對此次事件帶來的惡性影響表達了擔憂,這件事之后肯定會極大地收縮實習生的權(quán)
隨著大模型的火熱持續(xù)迭代,AI基礎(chǔ)設(shè)施愈發(fā)成為云廠商的核心競爭力之一。7月1日,騰訊宣布其自研星脈高性能計算網(wǎng)絡(luò)全面升級,升級后的星脈網(wǎng)絡(luò)2.0搭載全自研的網(wǎng)絡(luò)設(shè)備與AI算力網(wǎng)卡,支持超10萬卡大規(guī)模組網(wǎng),網(wǎng)絡(luò)通信效率比上一代提升60%,讓大模型訓練效率提升20%。大模型時代的來臨,將開創(chuàng)下一代云服務(wù),騰訊云致力于打造“最適合大模型的云”,也將持續(xù)升級底
如何復(fù)盤大模型技術(shù)爆發(fā)的這一年?除了直觀的感受,你還需要一份系統(tǒng)的總結(jié)。斯坦福HAI研究所發(fā)布了第七個年度的AIIndex報告,這是關(guān)于人工智能行業(yè)現(xiàn)狀的最全面的報告之一。該指數(shù)中的其他圖表顯示,不同人群的觀點存在顯著差異,年輕人更傾向于樂觀地看待人工智能將如何改變他們的生活。
快科技3月24日消息,中國電信官方宣布,首個國產(chǎn)單池萬卡液冷算力集群,天翼云上海臨港國產(chǎn)萬卡算力池正式啟用,首批用戶也同時入駐。據(jù)介紹,這不僅是國內(nèi)首個投入正式運營的國產(chǎn)單池萬卡液冷算力集群,也是業(yè)內(nèi)領(lǐng)先的全國產(chǎn)化云智一體公共智算中心。該集群采用新一代國產(chǎn)AI算力,通過高速RDMA連接各物理機節(jié)點,提供低延時、高吞吐量、無損通信網(wǎng)絡(luò)和強大的并行計算能力,多項技術(shù)指標領(lǐng)跑全國。該集群還最高可支持萬億參數(shù)大模型,滿足AI計算、深度學習、圖形渲染等復(fù)雜訓練任務(wù)對算力的要求。有機構(gòu)認為,雙碳背景下,IDC綠色化是大勢
亞馬遜云科技與英偉達擴展合作,加速生成式AI創(chuàng)新。雙方將在亞馬遜云科技上提供NVIDIABlackwell架構(gòu)GPU,包括GB200GraceBlackwell超級芯片和B100TensorCoreGPU,以幫助客戶解鎖新的生成式AI能力。推出生成式AI微服務(wù),推進藥物發(fā)現(xiàn)和醫(yī)療領(lǐng)域的發(fā)展。
中興通訊推出專為大規(guī)模模型訓練設(shè)計的旗艦GPU服務(wù)器—R6900G5。該中興服務(wù)器具備卓越的計算性能、高速網(wǎng)絡(luò)通信能力以及創(chuàng)新的能效表現(xiàn),有望為人工智能和深度學習等領(lǐng)域帶來全新的突破。相信中興通訊會繼續(xù)深耕科技創(chuàng)新,為用戶提供更加優(yōu)質(zhì)、高效的最強算力解決方案,推動數(shù)字經(jīng)濟的繁榮發(fā)展。
隨著對生成式人工智能技術(shù)需求的激增,大型語言模型的訓練和容錯性要求也在不斷增加。為應(yīng)對這一挑戰(zhàn),密歇根大學的研究人員開發(fā)了一款名為Oobleck的開源大型模型訓練框架。Oobleck的開發(fā)標志著利用固有冗余提高容錯性的新里程碑,為大型模型的高效訓練和故障恢復(fù)提供了一種創(chuàng)新性的解決方案。
為了滿足大模型對計算資源的需求,智源研究院開發(fā)了FlagAttention項目,旨在構(gòu)建一套適配多種芯片的大模型核心算子集合。該項目選擇使用Triton作為開發(fā)語言,通過Triton的開放性和易用性,使得FlagAttention不僅支持NVIDIAGPU可以顯著降低不同芯片之間模型適配的成本,提高大模型的訓練與推理效率。FlagAttention還將支持更多功能,并與其他芯片廠商合作,優(yōu)化算子的性能和適配。