11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享。快來騰訊云選購吧!
OpenAI公布了一個基于GPT-4訓(xùn)練的模型CriticGPT,主要用于捕捉ChatGPT代碼輸出中的錯誤。通過這一模型,人類訓(xùn)練者可以利用GPT-4查找并改進(jìn)GPT-4自身的不足,OpenAI的實(shí)驗(yàn)顯示,在CriticGPT的輔助下,訓(xùn)練師發(fā)現(xiàn)錯誤的能力提升了60%。CriticGPT的發(fā)布也引發(fā)了熱烈討論,有網(wǎng)友用左腳踩右腳上天”來形容這一自我改進(jìn)的過程。
雖然OpenAI最近推出的模型GPT-4o在大型語言模型領(lǐng)域有了重大突破,但該公司已經(jīng)開始著手研發(fā)下一個旗艦?zāi)P虶PT-5。許多人在GPT-4o發(fā)布前期就期待著OpenAI推出備受矚目的GPT-5。我們將不再依賴AI助手告訴我們天氣如何,它們將能夠從開始到結(jié)束地幫助我們完成任務(wù),這是我們期待的事情。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
微軟工程師的爆料引發(fā)了廣泛關(guān)注,透露GPT-6的訓(xùn)練計劃不僅已啟動導(dǎo)致大規(guī)模GPU集群的部署引發(fā)了電網(wǎng)崩潰的尷尬局面。這一事件凸顯了AI訓(xùn)練對能源的巨大需求,與此同時,OpenAI內(nèi)部消息的曝光也揭示了GPT-5和GPT-6的訓(xùn)練已經(jīng)在進(jìn)行中。解決這些挑戰(zhàn)將需要全球范圍內(nèi)的合作與創(chuàng)新,以確保AI技術(shù)能夠持續(xù)發(fā)展并造福人類社會。
在一個硅谷極客播客中,AI技術(shù)創(chuàng)業(yè)者和研究者們詳細(xì)闡述了為什么代碼解釋器有如此強(qiáng)大的功能,以至于它本身就相當(dāng)于GPT4.5。而且,通過代碼解釋器,OpenAI離AGI更近了!在上周,一個由硅谷創(chuàng)業(yè)極客和科研人員更新的播客Latent Space Podcast火了!兩個小時的播客結(jié)束時,有接近2萬人同時在收聽。后來組織者將他們的播客內(nèi)容轉(zhuǎn)錄成一篇長文 ——《代碼解釋器就是
ChatGPT的開發(fā)者OpenAI已經(jīng)向美國專利商標(biāo)局提交了“GPT-5”的商標(biāo)申請。這一消息是由商標(biāo)律師JoshGerben在推特上分享的。盡管該應(yīng)用程序并未確認(rèn)GPT-5的立即開發(fā),但商標(biāo)申請的主要目的可能是確保名稱“GPT-5”以防止其他人使用它。
【新智元導(dǎo)讀】誰能想到,訓(xùn)練GPT-5竟不用手寫代碼。MIT微軟最新研究發(fā)現(xiàn),GPT-4在代碼修復(fù)中的有效性。ChenglongWangChenglongWang是微軟研究院的研究員,此前在華盛頓大學(xué)獲得了博士學(xué)位,并曾就讀于北京大學(xué)。
在3月14日推出新一代的自然語言處理模型GPT-4之后,OpenAI何時會推出下一代的模型也就備受關(guān)注,在馬斯克、沃茲尼亞克上千名業(yè)內(nèi)人士及知名人士簽署公開信,呼吁AI實(shí)驗(yàn)室暫停訓(xùn)練更強(qiáng)大模型6個月的情況下,OpenAI是否已在訓(xùn)練GPT-4的繼任者GPT-5,也是外界所關(guān)注的。但對于GPT-5,OpenAI的CEO薩姆·奧特曼,4月14日在麻省理工學(xué)院的一場活動中就已表示他們并未開始訓(xùn)練GPT-5,在短期內(nèi)也不會訓(xùn)練。在4月份在麻省理工學(xué)院的活動上,薩姆·奧特曼也談到了馬斯克等人所簽署的公開信,當(dāng)時他是表示信中缺少大部分技術(shù)細(xì)節(jié),無法了解需要暫停的地方。
歡迎來到站長之家的[每周AI大事件],這里記錄了過去一周值得關(guān)注的AI領(lǐng)域相關(guān)內(nèi)容,幫助大家更好地了解人工智能領(lǐng)域的動態(tài)和發(fā)展風(fēng)向。過去一周AI領(lǐng)域發(fā)生了什么?在最新一+期站長之家[每周AI大事件]新聞趨勢中,我們揭示了過去一個月AI領(lǐng)域的發(fā)展,熱點(diǎn)問題和熱門故事。點(diǎn)擊讓我們來了解一下這幾個+AI+工具吧。
北京時間4月20日早間消息,埃隆·馬斯克表示將對微軟提起“訴訟”,理由是微軟使用+Twitter+數(shù)據(jù)“非法”訓(xùn)練其產(chǎn)品。今天早些時候微軟宣布將停止在其智能廣告平臺上支持+Twitter,馬斯克此舉顯然是針對微軟的報復(fù)行動。不確定+Twitter+和微軟是否真的會在法庭相見,但大模型背后的公司和那些在途中無償提供數(shù)據(jù)的公司,他們之間的訴訟將會越來越多。
近期有消息稱GPT-5正處在秘密訓(xùn)練中,并且將在年內(nèi)閃上市。現(xiàn)在官方親自來辟謠了,OpenAI首席執(zhí)行官、ChatGPT之父”Sam+Altman回應(yīng):現(xiàn)在并未訓(xùn)練GPT-5,在短期內(nèi)也不會訓(xùn)練。有網(wǎng)友批評稱,馬斯克這么做是希望自己有時間追趕上其他公司的步伐。
ChatGPT+人工智能聊天機(jī)器人背后的人工智能研究公司+OpenAI,在+3+月+14+日已推出了新一代的自然語言處理模型+GPT-4,具備了新的功能,在高級推理能力上勝過去年+11+月份推出、用戶已經(jīng)過億的+ChatGPT。+OpenAI+CEO、Sam+Altman+近日確認(rèn),OpenAI+目前沒有訓(xùn)練+GPT-5,也不會在短期內(nèi)進(jìn)行訓(xùn)練。Altman+強(qiáng)調(diào)了這一點(diǎn),并指出這些問題在信中被完全忽略了。
以驚艷之作ChatGPT這一人工智能聊天機(jī)器人廣為人知的人工智能研究公司OpenAI,在3月14日已推出了新一代的自然語言處理模型GPT-4,具備了新的功能,在高級推理能力上勝過去年11月份推出、用戶已經(jīng)過億的ChatGPT。隨著各大巨頭相繼進(jìn)入大型語言模型賽道,加速類ChatGPT產(chǎn)品的研發(fā)或應(yīng)用,大型語言模型等人工智能技術(shù)的潛在風(fēng)險及如何合理的開發(fā)和應(yīng)用,也就備受關(guān)注,包括馬斯克、蘋果聯(lián)合創(chuàng)始人斯蒂夫?沃茲尼亞克在內(nèi)的上千名頂尖人士,就已簽署公開信,呼吁AI實(shí)驗(yàn)室暫停訓(xùn)練更強(qiáng)大的模型6個月,以便制定并落實(shí)相關(guān)的安全協(xié)議。SamAltman就提到,他們正在GPT-4之上開展其他工作,他認(rèn)為這些工作涉及到安全問題,但在信中被完全忽略了。
【新智元導(dǎo)讀】LLM訓(xùn)練速度還可以再飆升20倍!英偉達(dá)團(tuán)隊祭出全新架構(gòu)歸一化Transformer,上下文越長,訓(xùn)練速度越快能維持原有精度。AI的未來,或許就此改寫......最近,英偉達(dá)團(tuán)隊拋出的一枚重磅炸彈,提出了全新神經(jīng)網(wǎng)絡(luò)架構(gòu)——?dú)w一化Transformer,基于超球面進(jìn)行表示學(xué)習(xí)。下圖6展示了,注意力模塊和MLP模塊的特征學(xué)習(xí)率,應(yīng)用于MLP中間狀態(tài)的縮放因子,應(yīng)用于QK點(diǎn)積之前?
NVIDIA的最新研究可能徹底改變AI的未來,其研究團(tuán)隊提出了一種名為歸一化Transformer的新型神經(jīng)網(wǎng)絡(luò)架構(gòu)。這一架構(gòu)在超球面上進(jìn)行表示學(xué)習(xí),能夠顯著提升大型語言模型的訓(xùn)練速度,最高可達(dá)20倍,同時保持了模型的精度。這種方法不僅提高了訓(xùn)練速度增強(qiáng)了模型的穩(wěn)定性。
【新智元導(dǎo)讀】離職已成為OpenAI常態(tài)。o1推理模型貢獻(xiàn)者之一剛剛宣布離職創(chuàng)業(yè)。在他GoogleScholar所有研究中,被引次數(shù)最高的一篇論文,是本科畢業(yè)發(fā)表的關(guān)于CNN的無監(jiān)督學(xué)習(xí)表示。
OpenAI的下一代旗艦大語言模型,要來了?據(jù)悉,新模型代號Orion,就是能超越GPT-4的下一代模型。獵戶座的預(yù)訓(xùn)練數(shù)據(jù),正是由草莓模型生成的。我們能從中窺見草莓和Orion的端倪。
Llama3.1405B巨獸開源的同時,OpenAI又搶了一波風(fēng)頭。每天200萬訓(xùn)練token免費(fèi)微調(diào)模型,截止到9月23日。也有點(diǎn)具有歷史意義。
【新智元導(dǎo)讀】ChatGPT能耗驚人,該怎么解?谷歌DeepMind新算法JEST問世,讓LLM訓(xùn)練的迭代次數(shù)降低13倍,計算量減少10倍,或?qū)⒅厮蹵I未來。ChatGPT早已成為世界耗能大戶:一天用掉超50萬度電,相當(dāng)于1.7萬個美國家庭的用電量!然,大模型對能源的吞噬,遠(yuǎn)不僅如此。未來的工作可以探索一種方法,從指定的下游任務(wù)中如何推斷出參考數(shù)據(jù)集的組成和分布。
AI發(fā)展科研機(jī)構(gòu)Epochai在官網(wǎng)發(fā)布了一項,關(guān)于大模型消耗訓(xùn)練數(shù)據(jù)的研究報告。人類公開的高質(zhì)量文本訓(xùn)練數(shù)據(jù)集大約有300萬億tokens。不要等著枯竭的那一天,望著荒漠干流淚。
OpenAI近期發(fā)布了ChatGPTEdu版本,這是一款專為大學(xué)教育環(huán)境打造的AI工具,旨在服務(wù)學(xué)生、教職員工、研究人員以及校園運(yùn)營人員。值得一提的是,ChatGPTEdu的用戶交互數(shù)據(jù)不會用于OpenAI其他模型的訓(xùn)練。OpenAI特別推出了ChatGPTEdu版本,旨在讓更多學(xué)生受益于這一先進(jìn)技術(shù),縮短學(xué)習(xí)差距,并抓住教育領(lǐng)域的發(fā)展機(jī)遇。
OpenAI宣布推出ChatGPTEdu,ChatGPTEdu是為大學(xué)設(shè)計的版本,旨在負(fù)責(zé)地向?qū)W生、教職員工、研究人員和校園運(yùn)營部署人工智能。搭載GPT-4o,ChatGPTEdu可以跨文本和視覺進(jìn)行推理,使用先進(jìn)工具如數(shù)據(jù)分析。ChatGPTEdu特點(diǎn)包括了:ChatGPTEdu旨在為希望向?qū)W生和校園社區(qū)更廣泛部署人工智能的學(xué)校提供。
大神Karpathy已經(jīng)不滿足于用C語言造Llama了!他給自己的最新挑戰(zhàn):復(fù)現(xiàn)OpenAI經(jīng)典成果,從基礎(chǔ)版GPT-2開始。挑戰(zhàn)成功本身并不意外,但是只花費(fèi)20美元、90分鐘完成訓(xùn)練,Loss和評測還超越原版,就!有!點(diǎn)!過!分!了!。有條件的朋友可以試試了。
【新智元導(dǎo)讀】近日,西交微軟北大聯(lián)合提出信息密集型訓(xùn)練大法,使用純數(shù)據(jù)驅(qū)動的方式,矯正LLM訓(xùn)練過程產(chǎn)生的偏見,在一定程度上治療了大語言模型丟失中間信息的問題。辛辛苦苦給大語言模型輸入了一大堆提示,它卻只記住了開頭和結(jié)尾?這個現(xiàn)象叫做LLM的中間迷失,是大模型當(dāng)前仍面臨的最大挑戰(zhàn)之一。以寬松的匹配準(zhǔn)確性作為衡量標(biāo)準(zhǔn):如果響應(yīng)中的標(biāo)簽或描述完全匹配,則給出1分,否則為0分。
【新智元導(dǎo)讀】GPT-4o發(fā)布不到一周,首個敢于挑戰(zhàn)王者的新模型誕生!最近,Meta團(tuán)隊發(fā)布了「混合模態(tài)」Chameleon,可以在單一神經(jīng)網(wǎng)絡(luò)無縫處理文本和圖像。10萬億token訓(xùn)練的34B參數(shù)模型性能接近GPT-4V,刷新SOTA。*表示共同一作,?表示關(guān)鍵貢獻(xiàn)者,?表示工作流程負(fù)責(zé)人,?表示項目負(fù)責(zé)人。
如何復(fù)盤大模型技術(shù)爆發(fā)的這一年?除了直觀的感受,你還需要一份系統(tǒng)的總結(jié)。斯坦福HAI研究所發(fā)布了第七個年度的AIIndex報告,這是關(guān)于人工智能行業(yè)現(xiàn)狀的最全面的報告之一。該指數(shù)中的其他圖表顯示,不同人群的觀點(diǎn)存在顯著差異,年輕人更傾向于樂觀地看待人工智能將如何改變他們的生活。
AI公司在獲取高質(zhì)量訓(xùn)練數(shù)據(jù)方面遇到的挑戰(zhàn),OpenAI為了訓(xùn)練其最先進(jìn)的大型語言模型GPT-4,使用了超過一百萬小時的YouTube視頻副本。該公司通過其Whisper音頻轉(zhuǎn)錄模型轉(zhuǎn)錄這些視頻,盡管這一做法在法律上具有爭議性,OpenAI仍認(rèn)為這屬于合理使用。AI領(lǐng)域正面臨訓(xùn)練數(shù)據(jù)短缺的挑戰(zhàn)解決方案尚未明朗,公司們需要權(quán)衡利弊并尋求合理途徑應(yīng)對這一問題。
《華爾街日報》報道稱,人工智能公司在收集高質(zhì)量訓(xùn)練數(shù)據(jù)方面遇到了困難?!都~約時報》詳細(xì)介紹了一些公司處理這一問題的方法,其中涉及到了人工智能版權(quán)法的模糊灰色區(qū)域。但這些公司的另一個選擇是使用他們能找到的任何東西,無論他們是否獲得許可,這可能會引發(fā)版權(quán)法方面的擔(dān)憂。
歡迎來到【今日AI】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
隨著對Sora技術(shù)分析的展開,AI基礎(chǔ)設(shè)施的重要性愈發(fā)凸顯。來自字節(jié)和北大的一篇新論文在此時吸引關(guān)注:文章披露,字節(jié)搭建起的萬卡集群,能在1.75天內(nèi)完成GPT-3規(guī)模模型的訓(xùn)練。剪映旗下類似Sora的AI視頻工具已經(jīng)啟動邀請內(nèi)測。