11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
【新智元導(dǎo)讀】來(lái)自佐治亞理工學(xué)院和英偉達(dá)的兩名華人學(xué)者帶隊(duì)提出了名為RankRAG的微調(diào)框架,簡(jiǎn)化了原本需要多個(gè)模型的復(fù)雜的RAG流水線,用微調(diào)的方法交給同一個(gè)LLM完成,結(jié)果同時(shí)實(shí)現(xiàn)了模型在RAG任務(wù)上的性能提升。在需要大量事實(shí)知識(shí)的文本生成任務(wù)中,RAG成為了常用的LLM部署技巧。值得一提的是,本篇論文對(duì)標(biāo)的基準(zhǔn)方法ChatQA也是WeiPing之前的研究。
【新智元導(dǎo)讀】訓(xùn)練數(shù)據(jù)的數(shù)量和質(zhì)量,對(duì)LLM性能的重要性已經(jīng)是不言自明的事實(shí)。EpochAI近期的一篇論文卻給正在瘋狂擴(kuò)展的AI模型們潑了冷水,他們預(yù)測(cè),互聯(lián)網(wǎng)上可用的人類(lèi)文本數(shù)據(jù)將在四年后,即2028年耗盡?!缸畲蟮牟淮_定性在于,你會(huì)看到什么樣的技術(shù)突破。
【新智元導(dǎo)讀】剛剛,老黃又高調(diào)向全世界秀了一把:已經(jīng)量產(chǎn)的Blackwell,8年內(nèi)將把1.8萬(wàn)億參數(shù)GPT-4的訓(xùn)練能耗狂砍到1/350;英偉達(dá)驚人的產(chǎn)品迭代,直接原地沖破摩爾定律;Blackwell的后三代路線圖,也一口氣被放出。老黃手持Blackwell向全世界展示的那一刻,全場(chǎng)的觀眾沸騰了。正如老黃所說(shuō)的,「這不是未來(lái),這一切都正在發(fā)生」。
ArcSearch最近推出了一個(gè)全新的功能——CALLARC,允許用戶(hù)通過(guò)自然語(yǔ)言的方式隨時(shí)隨地獲得問(wèn)題的答案。這一功能的推出,極大地方便了用戶(hù)在各種場(chǎng)景下快速獲取信息的需求。通過(guò)CALLARC,用戶(hù)可以更輕松地在日常生活中獲取所需的信息,享受科技帶來(lái)的便利和樂(lè)趣。
LobeChat是一個(gè)創(chuàng)新的網(wǎng)頁(yè)平臺(tái),它支持通過(guò)網(wǎng)頁(yè)版直接調(diào)用Ollama本地模型。這項(xiàng)服務(wù)的推出,為用戶(hù)提供了一種便捷的方式,通過(guò)網(wǎng)頁(yè)界面直接利用開(kāi)源大模型的能力。體驗(yàn)地址:https://chat-preview.lobehub.com/chat隨著LobeChat等工具的不斷發(fā)展,我們可以預(yù)見(jiàn)未來(lái)將有更多集成本地大模型的網(wǎng)頁(yè)應(yīng)用出現(xiàn),為用戶(hù)提供更豐富的交互體驗(yàn)和更高效的工作流程。
Llama3-8B-Chinese-Chat是一個(gè)基于Meta-Llama-3-8B-Instruct模型,通過(guò)ORPO方法進(jìn)行微調(diào)的中文聊天模型。該模型在處理中文問(wèn)題時(shí),相較于原始模型,減少了使用英文回答和混合中英文回答的情況,同時(shí)減少了表情符號(hào)的使用,使得回答更加正式和專(zhuān)業(yè)。Llama3-8B-Chinese-Chat模型在數(shù)學(xué)問(wèn)題解答、寫(xiě)作和編程示例方面也表現(xiàn)出色,能夠提供清晰、準(zhǔn)確的解答和示例代碼。
Llama2是由MetaAI開(kāi)發(fā)的一款先進(jìn)的人工智能模型,專(zhuān)注于理解和生成人類(lèi)語(yǔ)言文本。這一模型自2023年推出以來(lái),已成為自然語(yǔ)言AI處理領(lǐng)域的一個(gè)關(guān)注點(diǎn)。由于內(nèi)容生成式AI工具對(duì)算力的高要求,部署在高性能主機(jī)或服務(wù)器上的Llama2面臨著遠(yuǎn)程訪問(wèn)的難題,這時(shí)貝銳花生殼內(nèi)網(wǎng)穿透技術(shù)成為了一個(gè)簡(jiǎn)單有效的解決方案,簡(jiǎn)單的三步操作,用戶(hù)可以輕松實(shí)現(xiàn)遠(yuǎn)程訪問(wèn)本地部署的Llama2,無(wú)需復(fù)雜的網(wǎng)絡(luò)配置節(jié)省了大量時(shí)間成本,如需了解貝銳花生殼更多的AI場(chǎng)景應(yīng)用或申請(qǐng)?jiān)囉?,可以搜索“貝銳花生殼”進(jìn)入官網(wǎng)。
LLocalSearch是一個(gè)開(kāi)源項(xiàng)目,它提供了一種基于局部搜索的優(yōu)化方法。這種方法可以在一定區(qū)域內(nèi)搜索最優(yōu)解,廣泛應(yīng)用于組合優(yōu)化、調(diào)度問(wèn)題和其他需要尋找最佳解決方案的場(chǎng)景。點(diǎn)擊前往LLocalSearch官網(wǎng)體驗(yàn)入口需求人群:LLocalSearch適用于需要解決優(yōu)化問(wèn)題的開(kāi)發(fā)者和研究人員,特別是在資源有限的情況下尋找最優(yōu)解的場(chǎng)景。
歡迎來(lái)到【今日AI】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
GenerativeLargeLanguageModels在各種自然語(yǔ)言處理任務(wù)中取得了顯著成功,包括問(wèn)答和對(duì)話(huà)系統(tǒng)。大多數(shù)模型是在英文數(shù)據(jù)上訓(xùn)練的,缺乏在提供中文答案方面的強(qiáng)大泛化能力。MedChatZH的有效性有望為特定于不同語(yǔ)言和文化背景的LLMs開(kāi)辟新途徑。
馬斯克宣布將在本周開(kāi)源由xAI旗下公司推出的生成式AI產(chǎn)品——Grok。這款類(lèi)ChatGPT產(chǎn)品于去年11月首次亮相,針對(duì)生成文本、代碼、郵件和信息檢索等多個(gè)領(lǐng)域提供功能。以上內(nèi)容參考xAI官網(wǎng),如有侵權(quán)請(qǐng)聯(lián)系刪除。
設(shè)計(jì)在特定環(huán)境中實(shí)現(xiàn)目標(biāo)的一系列操作是測(cè)試人工智能能力和規(guī)劃能力的重要標(biāo)志。這一領(lǐng)域通過(guò)算法來(lái)制定潛在的操作序列,以尋找最優(yōu)解,對(duì)于從機(jī)器人到自動(dòng)決策系統(tǒng)等應(yīng)用至關(guān)重要。IBMResearch團(tuán)隊(duì)的工作強(qiáng)調(diào)了將經(jīng)典規(guī)劃方法與LLMs先進(jìn)能力相結(jié)合的轉(zhuǎn)變潛力,為未來(lái)創(chuàng)造更可靠和復(fù)雜的人工智能系統(tǒng)奠定了基礎(chǔ)。
2月24日ChatGPT代碼庫(kù)進(jìn)行了一些變動(dòng),與英語(yǔ)語(yǔ)言/翻譯文件、圖像生成樣式圖像、工作區(qū)設(shè)置.groups、ReadAloud/AudioPlayer等相關(guān)的一些內(nèi)容發(fā)生了更改!具體如下:1、DALL·E3圖像生成系統(tǒng)的更新:DALL·E3是一個(gè)強(qiáng)大的圖像生成模型。這次更新增加了35mm膠片、抽象、魚(yú)眼等67種新的圖像風(fēng)格,為用戶(hù)提供了更豐富的選擇。5、ChatGPT知識(shí)庫(kù)最新日期已經(jīng)是2023年12月份:這表明ChatGPT的知識(shí)庫(kù)更新非常頻繁,能夠?yàn)橛脩?hù)提供最新的信息。
ChatCell是一個(gè)應(yīng)用程序框架,利用自然語(yǔ)言使單細(xì)胞分析更容易、更直觀。它首先將單細(xì)胞RNA測(cè)序數(shù)據(jù)轉(zhuǎn)換為大型語(yǔ)言模型可以輕松理解的單細(xì)胞語(yǔ)言。獲取更多信息想深入了解ChatCell的功能和用法,請(qǐng)?jiān)L問(wèn)其官網(wǎng)獲取更多詳細(xì)信息。
LangChain的LLM應(yīng)用開(kāi)發(fā)平臺(tái)LangSmith正式開(kāi)放給了所有人使用,同時(shí)宣布獲得了Sequoia領(lǐng)投的A輪融資。LangSmith是一個(gè)統(tǒng)一的DevOps平臺(tái),用于開(kāi)發(fā)、協(xié)作、測(cè)試、部署和監(jiān)控LLM應(yīng)用程序。無(wú)論您是初學(xué)者還是專(zhuān)業(yè)開(kāi)發(fā)人員,LangSmith都能幫助您快速、高效地構(gòu)建和部署LLM驅(qū)動(dòng)的應(yīng)用程序。
大語(yǔ)言模型是否是世界模型?大語(yǔ)言模型除了在數(shù)字世界完成如寫(xiě)作或翻譯等任務(wù),它們能否理解并處理物理世界中的信息并進(jìn)完成更廣泛的任務(wù)呢?最近來(lái)自香港科技大學(xué)、南洋理工大學(xué)與加利福尼亞大學(xué)洛杉磯分校的研究者們提供了新的思路:他們發(fā)現(xiàn)大語(yǔ)言模型如ChatGPT可以理解傳感器信號(hào)進(jìn)完成物理世界中的任務(wù)。該項(xiàng)目初步成果發(fā)表于ACMHotMobile2024。如想進(jìn)一步了解滲透式
歡迎來(lái)到【AI視野】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
F1賽事作為賽車(chē)界最為受大家關(guān)注的盛事之一,每一年都在上演速度與激情的盛宴。隨著阿布扎比大獎(jiǎng)賽落幕,2023年的F1賽事已經(jīng)完美收官。,恰逢中國(guó)站的20周年,讓我們隨同頭號(hào)車(chē)迷RICHARDMILLE一起,共同迎接新賽季的到來(lái)。
**劃重點(diǎn):**1.🚀WikiChat通過(guò)維基百科檢索數(shù)據(jù),有效阻止大型語(yǔ)言模型的幻覺(jué)。2.🌐項(xiàng)目使用ColBERT進(jìn)行信息檢索,并通過(guò)七階段流程確保響應(yīng)準(zhǔn)確。通過(guò)WikiChat,我們有望有效應(yīng)對(duì)大型語(yǔ)言模型的幻覺(jué)問(wèn)題,使得這些模型在提供信息時(shí)更加可靠和準(zhǔn)確。
魔搭社區(qū)與vLLM和FastChat展開(kāi)合作,聯(lián)合為中國(guó)開(kāi)發(fā)者提供更快更高效的LLM推理和部署服務(wù)。開(kāi)發(fā)者可以使用vLLM作為FastChat中的推理引擎,提供高吞吐量的模型推理。還可以結(jié)合FastChat和vLLM搭建一個(gè)網(wǎng)頁(yè)Demo或者類(lèi)OpenAIAPI服務(wù)器。
Privado.ai,一家以開(kāi)發(fā)者友好的隱私平臺(tái)聞名的公司,推出了一款創(chuàng)新的開(kāi)源LLM聊天應(yīng)用MuroChat,旨在加強(qiáng)企業(yè)數(shù)據(jù)保護(hù),解決LLM聊天機(jī)器人引入的數(shù)據(jù)隱私風(fēng)險(xiǎn)。這種基于大型語(yǔ)言模型的聊天機(jī)器人應(yīng)用如ChatGPT等,為全球各行各業(yè)的專(zhuān)業(yè)人士提供了創(chuàng)作內(nèi)容、生成想法、撰寫(xiě)電子郵件、生成代碼等功能。Mahajan解釋了開(kāi)源MuroChat的想法:“在開(kāi)發(fā)MuroChat的過(guò)程中,我們意識(shí)到許多?
百度發(fā)布Apollo開(kāi)放平臺(tái)9.0,全面升級(jí)自動(dòng)駕駛開(kāi)發(fā)領(lǐng)域,包括工程、算法和工具三方面,重構(gòu)12萬(wàn)行代碼,新增20萬(wàn)行。工程框架拆分成小軟件包,提高靈活性;算法優(yōu)化感知算法,支持4D毫米波雷達(dá);工具升級(jí)包括高精地圖、傳感器標(biāo)定等,提升Dreamview效率。項(xiàng)目網(wǎng)址:https://julian-parker.github.io/stemgen/論文網(wǎng)址:https://arxiv.org/abs/2312.08723👨??
HuggingFace技術(shù)負(fù)責(zé)人PhilippSchmid表示:“代碼自動(dòng)補(bǔ)全工具,如GitHubCopilot,已被超過(guò)一百萬(wàn)開(kāi)發(fā)者使用,幫助他們的編碼速度提高了55%??吹较馦agicoder和OSS-INSTRUCT這樣的開(kāi)源創(chuàng)新超越了OpenAI的GPT-3.5和GoogleDeepMind的GeminiUltra,真是令人振奮。張令明老師現(xiàn)任UIUC計(jì)算機(jī)系副教授,主要從事軟件工程、機(jī)器學(xué)習(xí)、代碼大模型的相關(guān)研究,更多詳細(xì)信息請(qǐng)見(jiàn)張老師的個(gè)人主頁(yè):https://lingming.cs.illinois.edu/。
智譜AI發(fā)布了專(zhuān)為中文大語(yǔ)言模型生的對(duì)齊評(píng)測(cè)基準(zhǔn)AlignBench,這是目前第一個(gè)針對(duì)中文大模型的評(píng)測(cè)基準(zhǔn),能夠在多維度上細(xì)致評(píng)測(cè)模型和人類(lèi)意圖的對(duì)齊水平。AlignBench的數(shù)據(jù)集來(lái)自于真實(shí)的使用場(chǎng)景,經(jīng)過(guò)初步構(gòu)造、敏感性篩查、參考答案生成和難度篩選等步驟,確保具有真實(shí)性和挑戰(zhàn)性。通過(guò)登錄AlignBench網(wǎng)站,提交結(jié)果可以使用CritiqueLLM作為評(píng)分模型進(jìn)行評(píng)測(cè),大約5分鐘即可得到評(píng)測(cè)結(jié)果。
LangChain正式開(kāi)源全棧應(yīng)用程序AnythingLLM,為用戶(hù)提供了構(gòu)建私有ChatGPT的便利。無(wú)論是使用商業(yè)的現(xiàn)成LLM是流行的開(kāi)源LLM和VectorDB解決方案,您都可以輕松地在本地或遠(yuǎn)程托管中運(yùn)行它,并智能地與提供的任何文檔進(jìn)行對(duì)話(huà)。文內(nèi)引用和源鏈接:在聊天中提供文內(nèi)引用,鏈接到原始文檔源和文本,增加了對(duì)信息來(lái)源的可追溯性。
PyTorch團(tuán)隊(duì)在其博客中分享了一篇關(guān)于如何加速大型生成式AI模型推理的文章。該團(tuán)隊(duì)以Llama7B為例,展示了如何通過(guò)一系列優(yōu)化技術(shù)將推理速度提升10倍,達(dá)到了244.7tok/s。PyTorch團(tuán)隊(duì)通過(guò)一系列創(chuàng)新性的優(yōu)化手段,不僅成功提升了大模型的推理速度以不到1000行的純?cè)鶳yTorch代碼展示了這一技術(shù)的實(shí)現(xiàn)過(guò)程。
在OpenAI發(fā)生權(quán)力斗爭(zhēng)和大規(guī)模辭職的時(shí)刻,微軟作為AI巨頭的長(zhǎng)期支持者,依然在其人工智能努力上不懈努力。微軟公司的研究部門(mén)今日發(fā)布了Orca2,這是一對(duì)小型語(yǔ)言模型,經(jīng)測(cè)試在復(fù)雜推理任務(wù)的零樣本設(shè)置中,與Meta的Llama-2Chat-70B等五到十倍大的語(yǔ)言模型相匹敵或更勝一籌。六個(gè)月前在巴黎創(chuàng)立并以其獨(dú)特的WordArt標(biāo)志和創(chuàng)紀(jì)錄的1.18億美元種子輪融資引起轟動(dòng)的MistralAI公司?
大模型代碼生成能力如何得看你的「需求表達(dá)」好不好。從通過(guò)HumEval中67%測(cè)試的GPT-4,到近來(lái)各種開(kāi)源大模型,比如CodeLlama,有望成為碼農(nóng)編碼利器。通過(guò)ChatCoder這種通過(guò)聊天進(jìn)行需求細(xì)化的方法,可以提高大模型代碼生成的能力,使其更好地滿(mǎn)足用戶(hù)需求。
腕表的意義除了計(jì)時(shí)和裝飾,現(xiàn)如今更多是生活態(tài)度的體現(xiàn),基因里流淌著“打破常規(guī)”的RICHARDMILLE也吸引了一群愛(ài)冒險(xiǎn)、勇突破的伙伴們,共同為傳統(tǒng)腕表業(yè)不斷注入驚喜。自2017年起,摩根士丹利與咨詢(xún)公司LuxeConsult每年會(huì)聯(lián)合發(fā)布一份瑞士鐘表行業(yè)年度報(bào)告,對(duì)過(guò)去一年主要鐘表品牌的產(chǎn)量、銷(xiāo)售額做一個(gè)排行榜,并分析行業(yè)形勢(shì),預(yù)測(cè)未來(lái)發(fā)展。RICHARDMILLE不僅是品牌名?
大模型浪潮正在重構(gòu)千行百業(yè)??梢灶A(yù)見(jiàn)的是,隨著技術(shù)的不斷進(jìn)步以及應(yīng)用場(chǎng)景的不斷擴(kuò)展,基于大模型的AI應(yīng)用將會(huì)不斷涌現(xiàn),并成為推動(dòng)AI產(chǎn)業(yè)發(fā)展的重要力量。曾在騰訊云CODINGDevOps團(tuán)隊(duì)負(fù)責(zé)產(chǎn)品及運(yùn)營(yíng)管理工作,服務(wù)超百萬(wàn)開(kāi)發(fā)者用戶(hù)的平臺(tái)產(chǎn)品。