幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 業(yè)界 > 關鍵詞  > 正文

Meta華人提出語言模型Shepherd 用于評估模型生成

2023-08-15 13:53 · 稿源:站長之家

站長之家(ChinaZ.com)8月15日 消息:最近,Meta AI 提出了一種新的語言模型叫做 "牧羊人"(Shepherd),用于評估其他模型生成的文本,并給出改進建議。這個模型使用了約70億個參數(shù),并通過社區(qū)反饋和人工標注的數(shù)據(jù)集來進行訓練。

"牧羊人" 模型的評估結果顯示,在與其他競爭模型進行比較時,它的平均勝率為53-87%,遠高于其他模型。此外,在人工評估中,"牧羊人" 模型的表現(xiàn)也優(yōu)于其他模型,與 ChatGPT 相當。

該模型的特點之一是能夠生成自然語言的反饋,包括總體判斷、一般建議以及領域知識等。它可以識別文本中的問題,如事實性、邏輯錯誤、連貫性和一致性,并提出改進建議。

image.png

論文地址:https://arxiv.org/pdf/2308.04592.pdf

為了微調(diào)和評估 "牧羊人" 模型,研究人員創(chuàng)建了一個高質(zhì)量的反饋數(shù)據(jù)集,包括社區(qū)反饋和人工標注的反饋。通過使用 GPT-4作為評估工具,并選擇了6個涵蓋廣泛主題和推理技能的數(shù)據(jù)集進行評估。

研究人員發(fā)現(xiàn),"牧羊人" 模型在批判模型生成方面的能力優(yōu)于其他模型,尤其是在提供正確判斷的反饋方面。同時,社區(qū)反饋和人工標注的反饋數(shù)據(jù)對模型的性能有不同的影響,社區(qū)反饋更多樣化但非正式,而人工標注的數(shù)據(jù)信息量更大。

image.png

總的來說,"牧羊人" 模型展示出了令人印象深刻的結果,在多個下游任務中表現(xiàn)優(yōu)于其他模型。這一研究對于改進語言模型生成的可靠性非常有益。

語言模型的特點包括:

  • 能夠生成連貫、有語境和語義的文本。

  • 能夠識別問題,并提供改進建議。

  • 可以涉及領域知識,給出相關的建議。

  • 可以通過社區(qū)反饋和人工標注的數(shù)據(jù)進行微調(diào)和評估。

  • 在批判模型生成方面表現(xiàn)優(yōu)于其他模型。

  • 在多個下游任務中的表現(xiàn)優(yōu)于其他模型。

  • 對不同類型的任務都能提供反饋。

舉報

  • 相關推薦
  • Meta研究人員提出輕量級微調(diào)方法RA-DIT 以增強語言模型知識檢索能力

    Meta的研究人員提出了一種名為檢索增強雙指令調(diào)優(yōu)的新型人工智能方法,用于提升語言模型的知識檢索能力。該方法試圖解決大型語言模型在捕獲較為冷門知識時的局限性以及大規(guī)模預訓練的高計算成本問題。該研究證明了輕量級指令調(diào)優(yōu)對檢索增強語言模型的有效性,特別是在涉及大規(guī)模外部知識源的場景中。

  • 秒懂生成式AI—大語言模型是如何生成內(nèi)容的?

    備受關注的大語言模型,核心是自然語言的理解與文本內(nèi)容的生成,對于此,你是否好奇過它們究竟是如何理解自然語言并生成內(nèi)容的,其工作原理又是什么呢?要想了解這個,我們就不得不先跳出大語言模型的領域,來到機器翻譯這里。傳統(tǒng)的機器翻譯方式是采用RNN循環(huán)神經(jīng)網(wǎng)絡。以上就是大語言模型的工作原理了,強大Transformer的實用性還不止于在自然語言處理領域,包括?

  • Meta悄然發(fā)布Llama 2 Long AI模型

    Meta最近發(fā)布了Llama2LongAI模型,該模型在一些任務上超越了GPT-3.5Turbo和Claude2。通過改進訓練方法和編碼技術,Meta的研究人員提高了這個AI模型的性能,使其能夠更好地處理長文本和復雜任務。強調(diào)了合作的重要性,指出不是每個企業(yè)都擁有高級的數(shù)據(jù)工程和數(shù)據(jù)科學技能,因此需要與具有相關技術和深刻了解整個領域的合作伙伴合作來解決這一問題。

  • LayoutNUWA:一個基于大型語言模型的布局生成工具

    在網(wǎng)上創(chuàng)建引人注目的設計對于吸引用戶的興趣和幫助他們理解信息非常重要。這種新方法,被稱為LayoutNUWA,通過使用語言模型將編碼指令轉(zhuǎn)化為出色的布局,使這些設計更加智能。通過這些核心功能,LayoutNUWA為用戶提供了一個強大的布局生成工具,可以應用于各種項目和領域,從提高布局生成的效率和質(zhì)量。

  • PIT框架提升大型語言模型的質(zhì)量

    傳統(tǒng)方法中,提高LLMs性能需要通過人工注釋來收集更多多樣化和高質(zhì)量的訓練數(shù)據(jù),但這是一項資源密集型的任務,尤其是對于專業(yè)領域言。為了解決這個問題,來自伊利諾伊大學厄巴納-香檳分校和Google的研究人員提出了“ImplicitSelf-Improvementframework”。通過從人類偏好數(shù)據(jù)中學習改進目標,PIT解決了傳統(tǒng)提示方法的限制,并展示了在各種數(shù)據(jù)集和條件下提高LLMs響應質(zhì)量的有效性。

  • OpenLM:一個專為中等規(guī)模語言模型設計的模型訓練庫

    OpenLM是一個旨在訓練中等規(guī)模語言模型的PyTorch代碼庫,它強調(diào)了最大化GPU利用率和訓練速度的設計。該庫已經(jīng)通過訓練OpenLM-1B和OpenLM-7B兩個語言模型,分別在1.6T和1.25T的文本標記上進行驗證,取得了令人矚目的成果。OpenLM的團隊成員和致謝也在文章中列出,表明了該項目的合作性質(zhì)和開源精神。

  • Meta AI提出視頻摳圖新方法OmnimatteRF:結合動態(tài)2D前景圖層和3D背景模型

    Omnimatte是迄今為止最有前景的視頻摳圖方法。它使用單應性建模背景,因此只適用于背景為平面或僅有旋轉(zhuǎn)運動的視頻。它也可助力構建沉浸式的虛擬環(huán)境。

  • Headless語言模型:通過捆綁嵌入提高模型的訓練速度

    研究人員發(fā)現(xiàn)了一種改進語言模型性能的方法——Headless語言模型,即將輸入嵌入與模型的其他嵌入捆綁在一起,并使用對比損失。通常情況下,語言模型的輸入和輸出嵌入層是分開的,但這種新方法通過捆綁它們,提高了模型的訓練速度和準確性。這項工作為以對比學習取代交叉熵作為自監(jiān)督預訓練目標開辟了道路,為語言表示學習提供了一種高效可行的替代方案。

  • 「深呼吸」讓大模型表現(xiàn)更佳!谷歌DeepMind利用大語言模型生成Prompt,還是AI更懂AI

    【新智元導讀】谷歌DeepMind提出了一個全新的優(yōu)化框架OPRO,僅通過自然語言描述就可指導大語言模型逐步改進解決方案,實現(xiàn)各類優(yōu)化任務?!干詈粑?,一步一步地解決這個問題。這項研究首次提出并驗證了使用大語言模型進行優(yōu)化的有效性,為利用LLM進行更廣泛優(yōu)化任務提供了框架和經(jīng)驗,是這個新的研究方向的開拓性工作,具有重要意義。

  • 谷歌、CMU研究表明:語言模型通過使用良好的視覺tokenizer首次擊敗了擴散模型

    來自谷歌、CMU的研究發(fā)現(xiàn),語言模型在圖像、視頻生成領域的性能一直不如擴散模型,主要原因是缺乏有效的視覺表示。通過引入一種名為MAGVIT-v2的視頻tokenizer,采用無查找量化和增強功能的設計,研究者成功改進了圖像和視頻生成的質(zhì)量,超越了現(xiàn)有技術。通過這一研究,我們可以看到語言模型在視覺生成領域的潛力,以及如何通過創(chuàng)新的設計和改進來實現(xiàn)更好的性能。

熱文

  • 3 天
  • 7天