11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
一款名為Ameca的人形機器人現(xiàn)在可以說多種語言,這得益于ChatGPT的支持。Ameca的開發(fā)商Engineered+Arts發(fā)布了一段視頻,展示了這款機器人說英語、日語、德語、中文和法語的能力。“行走對于機器人來說是一項艱巨的任務(wù),盡管我們已經(jīng)進行了研究,但我們還沒有創(chuàng)造出完全的行走人形機器人。
一直以來,在線少兒用于教育平臺GoGoKid始終依托教育學(xué)界前沿理論,對標北美教學(xué)體系,堅持打造全方位沉浸式英語學(xué)習(xí)環(huán)境。近日,更是宣布與藍思Lexile達成戰(zhàn)略合作,將GoGoKid原創(chuàng)英語教材中的閱讀短文及自研繪本正式納入藍思分級體系,經(jīng)過權(quán)威定級的內(nèi)容為學(xué)員們帶來更為量化、有效的閱讀體驗。據(jù)了解,藍思分級閱讀系統(tǒng)是美國MetaMetrics教育測評研究機構(gòu)受美國國家衛(wèi)生研究院(National Institute of Health)資助,歷時十余?
翻譯活動是人類社會最古老的交流行為之一。自古以來,世界上存在各種不同的語言,為了便不同語言人群之間的交流,翻譯活動(包括口譯和筆譯)發(fā)揮了重要的作用。在社會發(fā)展的過程中,翻譯行為在政治、經(jīng)濟、文化等方面均扮演了舉足輕重的角色。
近日,蘋果公司推出了300億參數(shù)的多模態(tài)AI大模型MM1.5,該版本是在前代MM1的架構(gòu)基礎(chǔ)上發(fā)展來的。該模型繼續(xù)遵循數(shù)據(jù)驅(qū)動的訓(xùn)練原則,著重探究在不同訓(xùn)練周期中混合各類數(shù)據(jù)對模型性能產(chǎn)生的影響,相關(guān)模型文檔已在HuggingFace上發(fā)布。盡管MM1.5模型在多項基準測試中表現(xiàn)優(yōu)異,但蘋果團隊仍計劃通過進一步融合文本、圖像和用戶交互數(shù)據(jù),并設(shè)計更復(fù)雜的架構(gòu),來提升模型對移動設(shè)備UI的理解能力,從讓蘋果牌”AI更強大。
深度學(xué)習(xí)領(lǐng)域的研究人員發(fā)現(xiàn),語言模型在邏輯推理方面的表現(xiàn)仍然是一個重要挑戰(zhàn)。最新的一項由Google旗下的DeepMind進行的研究揭示了一個簡單重要的發(fā)現(xiàn):任務(wù)中前提的順序顯著影響語言模型的邏輯推理性能。通過這項研究,我們可以看到改變前提順序可能是提升語言模型推理能力的一種簡單有效的方法,也為未來改進這一領(lǐng)域的研究提供了新的方向。
谷歌最新研究提出SpatialVLM,旨在解決視覺語言模型缺乏空間推理能力的問題。視覺語言模型在理解目標在三維空間中位置或關(guān)系時存在困難,研究者通過借鑒人類空間推理能力的思路,提出了這一新方法。這一研究成果有望推動視覺語言模型在未來的發(fā)展方向上取得更大突破,為人工智能領(lǐng)域帶來新的進步。
谷歌最新論文揭示的SpatialVLM,是一種具備空間推理能力的視覺語言模型,旨在解決當(dāng)前視覺語言模型在空間推理方面的困難。視覺語言模型在圖像描述、視覺問答等任務(wù)上取得顯著進展,但在理解目標在三維空間中的位置或空間關(guān)系方面仍存在難題。這一研究為視覺語言模型的空間推理能力提供了新的思路,為未來在機器人、圖像識別等領(lǐng)域的發(fā)展帶來了新的可能性。
谷歌AI研究團隊最近提出了SpatialVLM,這是一種旨在增強視覺語言模型空間推理能力的創(chuàng)新系統(tǒng)。盡管先進的模型如GPT-4V在人工智能驅(qū)動任務(wù)中取得了顯著進展,但它們在空間推理方面仍存在顯著局限。-SpatialVLM的開發(fā)標志著人工智能技術(shù)的重大進步。
在AAAI2024上,小紅書搜索算法團隊推出了一項創(chuàng)新框架,旨在解決大語言模型在推理任務(wù)中的黑盒屬性和龐大參數(shù)量帶來的問題。傳統(tǒng)研究方法主要關(guān)注正樣本這項工作強調(diào)了負樣本在知識蒸餾中的價值。這一研究為提高大語言模型應(yīng)用性能提供了新思路,通過引入負樣本的知識,彌補了傳統(tǒng)研究方法的不足,為推理任務(wù)的應(yīng)用提供了更可靠和高效的解決方案。
2024年1月18日凌晨,三星在舉辦了GalaxyAI全球新品發(fā)布會,宣告GalaxyS24系列的登場,應(yīng)用了谷歌Gemininano大模型共同迎接“GalaxyAI時代”的到來。除了這個模型,GalaxyS24的一些功能還受益于谷歌Imagen2模型,將文本到圖像的能力植入手機。S24、S24的起售價為115.5萬韓元、135.3萬韓元Ultra版則以169.84萬韓元起售。
【新智元導(dǎo)讀】小模型的風(fēng)潮,最近愈來愈盛,Mistral和微軟分別有所動作。網(wǎng)友實測發(fā)現(xiàn),Mistral-medium的代碼能力竟然完勝了GPT-4所花成本還不到三分之一。甚至還可以通過不冗長的輸出,來進一步節(jié)省成本。
在多模態(tài)大型語言模型領(lǐng)域取得顯著進展的同時,盡管在輸入端多模態(tài)理解方面取得了顯著進展,但在多模態(tài)內(nèi)容生成領(lǐng)域仍存在明顯的空白。為填補這一空白,騰訊人工智能實驗室與悉尼大學(xué)聯(lián)手推出了GPT4Video,這是一個統(tǒng)一的多模態(tài)框架,賦予大型語言模型獨特的視頻理解和生成能力。其在多模態(tài)基準測試中表現(xiàn)出色進一步強調(diào)了其卓越性能。
中國的研究人員近期提出了一項名為ControlLLM的創(chuàng)新框架,旨在增強大型語言模型在處理復(fù)雜的現(xiàn)實任務(wù)時的表現(xiàn)。盡管LLMs在處理自主代理的規(guī)劃、推理和決策方面已經(jīng)取得了顯著進展,但在某些情況下,由于用戶提示不清晰、工具選擇錯誤以及參數(shù)設(shè)置和調(diào)度不足,它們可能需要輔助工具。ControlLLM整合了各種信息源,以生成基于執(zhí)行結(jié)果的全面有意義的回應(yīng)。
聯(lián)發(fā)科今晚正式發(fā)布天璣9300旗艦5G生成式AI移動芯片,支持在端側(cè)生成式AI、游戲、影像等方面定義旗艦新體驗。天璣9300集成MediaTek第七代AI處理器APU790,為生成式AI設(shè)計,其性能和能效得到顯著提升,整數(shù)運算和浮點運算的性能是前一代的2倍,功耗降低了45%。MediaTek的AI開發(fā)平臺NeuroPilot構(gòu)建了豐富的AI生態(tài),支持Android、MetaLIama2、百度文心一言大模型、百川智能百川大模型等前沿主流AI大模型,完整的工具鏈助力開發(fā)者在端側(cè)快速且高效地部署多模態(tài)生成式AI應(yīng)用,為用戶提供文字、圖像、音樂等終端側(cè)生成式AI創(chuàng)新體驗。
Meta的研究人員提出了一種名為檢索增強雙指令調(diào)優(yōu)的新型人工智能方法,用于提升語言模型的知識檢索能力。該方法試圖解決大型語言模型在捕獲較為冷門知識時的局限性以及大規(guī)模預(yù)訓(xùn)練的高計算成本問題。該研究證明了輕量級指令調(diào)優(yōu)對檢索增強語言模型的有效性,特別是在涉及大規(guī)模外部知識源的場景中。
隨著大型語言模型的出現(xiàn),人工智能和數(shù)學(xué)問題求解領(lǐng)域取得了顯著進展。這些模型在面對復(fù)雜的數(shù)學(xué)挑戰(zhàn)時仍然存在問題。對工具交互的優(yōu)勢和挑戰(zhàn)進行的全面分析為未來的研究提供了重要見解,有望開發(fā)更先進和適應(yīng)性更強的推理代理。
阿里云旗下魔搭社區(qū)宣布開源視覺語言模型Qwen-VL。Qwen-VL以通義千問70億參數(shù)模型Qwen-7B為基座語言模型研發(fā),支持圖文輸入,具備多模態(tài)信息理解能力。該模型的推理速度快,資源消耗相對較低。
TogetherAI發(fā)布了Llama-2-7B-32K-Instruct:一項在語言處理中擴展上下文的突破。這項創(chuàng)新具有重大意義,特別是在需要對復(fù)雜上下文細微差別有深刻理解的任務(wù)中。這一突破將為語言處理帶來新的進展,架起了理解復(fù)雜上下文和生成相關(guān)回應(yīng)之間的橋梁。
Meta的研究人員開發(fā)了一種名為"指令回譯"的新技術(shù),用于提高大語言模型的指令跟蹤能力。該技術(shù)可對LLaMa等大型語言模型進行微調(diào)以遵循指令無需依賴昂貴的人工注釋或從GPT-4等更強大的模型進行提煉。研究人員表示,他們計劃通過考慮更大的未標記語料庫來進一步擴展這一方法,從獲得更好的效果。
文章要點:檢索增強生成方法可以讓語言模型訪問最新的知識庫,從提高模型在實際業(yè)務(wù)中的應(yīng)用能力。RAG方法相比重新訓(xùn)練模型或微調(diào)模型更為便宜和容易實現(xiàn),同時也避免了數(shù)據(jù)集準備的工作量。通過增加步驟數(shù)或添加記憶組件等方式,可以進一步改進模型的性能。
近期研究人員提出了一種名為LEVER的技術(shù),通過學(xué)習(xí)驗證生成的程序與執(zhí)行結(jié)果來改善自然語言到代碼的生成。LEVER使用自然語言描述、程序表面形式和執(zhí)行結(jié)果的組合表示進行訓(xùn)練,以識別和拒絕錯誤的程序。LEVER的技術(shù)可以提高代碼LLMs將自然語言描述轉(zhuǎn)化為可執(zhí)行代碼的能力,有潛力改善數(shù)據(jù)庫接口、機器人控制和虛擬助手等人工智能應(yīng)用。
人工智能正在快速發(fā)展中。大模型可以使用工具、計劃并通過標準化評估。這項研究展示了LLM在應(yīng)用稅法方面的潛力和發(fā)展趨勢。
如果你只需要訓(xùn)練一個線性層,就能拿將純視覺模型轉(zhuǎn)變?yōu)榫邆湔Z言理解能力的視覺語言模型,結(jié)果會怎樣?有研究人員想到了這個辦法。研究人員通過使用沒有文本監(jiān)督訓(xùn)練的現(xiàn)成視覺編碼器來將文本映射到概念向量,以便直接比較單詞和圖像的表示。他們的簡單方法在92%的測試中都取得了成功。
日本東北大學(xué)和日本東京工業(yè)大學(xué)等團隊計劃開發(fā)一種更強日語能力的“大語言模型”,作為生成式人工智能的基礎(chǔ)技術(shù)。該團隊將利用理化學(xué)研究所的超級計算機“富岳”學(xué)習(xí)大量數(shù)據(jù),并將在本年度內(nèi)逐步公開。富士通和理研也已加入團隊,計劃開發(fā)其他語言和項目的代碼。
大語言模型已經(jīng)徹底改變了自然語言處理+的研發(fā)現(xiàn)狀。增加語言模型的規(guī)模能夠為一系列下游+NLP+任務(wù)帶來更好的任務(wù)效果,當(dāng)模型規(guī)模足夠大的時候,大語言模型會出現(xiàn)涌現(xiàn)現(xiàn)象,就是說突然具備了小模型不具備的很多能力。博士畢業(yè)于中科院軟件所,主要的專業(yè)興趣集中在自然語言處理及推薦搜索等方向,喜歡新技術(shù)并樂于做技術(shù)分享,著有《這就是搜索引擎》,《大數(shù)?
出海如今成為了很多企業(yè)的戰(zhàn)略,國內(nèi)卷不過,國外市場大有可為。產(chǎn)品想要出海,得先過語言關(guān)。謹以此言、與諸君共勉。
語言是人類信息傳遞最重要的媒介,讓機器理解語言并進行交互是人工智能的基本挑戰(zhàn)。近日,由中國計算機學(xué)會(CCF)和中國中文信息學(xué)會(CIPS)共同發(fā)起并聯(lián)合主辦的第四屆語言與智能高峰論壇(The 3rd Language & Intelligence Summit)在北京語言大學(xué)梧桐會堂召開。 2019 語言與智能技術(shù)競賽在本次論壇上進行了頒獎。百度技術(shù)委員會聯(lián)席主席吳華博士受邀出席“ 2019 語言與智能技術(shù)競賽”頒獎儀式并發(fā)表了競賽總結(jié)演講。2019 語言與智能
圖片分享社交網(wǎng)站Pinterest在吸引消費者購物方面的能力遠勝于Facebook,其成功秘訣在于充分利用圖片本身魅力,而不是像Facebook一樣拉攏與用戶的關(guān)系。
快科技11月7日消息,據(jù)報道,京東集團前副總裁蔡磊,目前正面臨著一個令人痛心的困境:他無法正常飲水進食,難以操控手機,語言功能也在逐漸衰退。這一切,都源于他在2019年被確診的漸凍癥。如今,已是確診后的第五個年頭,蔡磊的身體狀況急劇惡化。面對這一突如其來的疾病,蔡磊果斷地向公司董事說明了情況,并決定離職回家,全身心投入到治療中。然而,他的決?
倉頡編程語言官網(wǎng)于今天10:08正式公開上線,同時首個公測版本開放下載。本次倉頡編程語言官網(wǎng)上線了首頁、在線體驗、文檔、學(xué)習(xí)、下載、動態(tài)以及三方庫共六個模塊,可供開發(fā)和學(xué)習(xí)和體驗。強安全安全DNA融入倉頡編程語言設(shè)計,幫助開發(fā)者專注于業(yè)務(wù)邏輯,免于將太多精力投入到防御性編程中,編碼即安全,漏洞無處藏。