幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 業(yè)界 > 關(guān)鍵詞  > 正文

韓國研究人員開發(fā)小樣本學(xué)習(xí)模型,僅憑腦波數(shù)據(jù)就能發(fā)現(xiàn)人的意圖

2023-09-21 11:25 · 稿源:站長之家

文章概要:

1. 研究團隊成功開發(fā)了一種小樣本學(xué)習(xí)模型,能夠準(zhǔn)確分類腦波,僅需少量信息。

2. 傳統(tǒng)深度學(xué)習(xí)模型需要大量腦波數(shù)據(jù),而新開發(fā)的模型可以即使使用少量數(shù)據(jù)也能準(zhǔn)確分類腦波,有望推動腦波相關(guān)研究。

3. 研究團隊采用了嵌入模塊、時間注意模塊、聚合注意模塊和關(guān)系模塊,成功提高了模型的分類準(zhǔn)確性,為腦波研究提供了新的可能性。

站長之家(ChinaZ.com) 9月21日 消息:韓國Daegu科技大學(xué)(DGIST)機器人與機械工程系的Sanghyun Park教授領(lǐng)導(dǎo)的研究團隊宣布,他們已經(jīng)成功開發(fā)了一種小樣本學(xué)習(xí)模型,僅需少量信息就能夠準(zhǔn)確分類腦波。這一突破性的研究可能會對未來與腦波相關(guān)的研究產(chǎn)生積極影響。

傳統(tǒng)上,要使用現(xiàn)有的深度學(xué)習(xí)模型準(zhǔn)確分類新的腦波,需要從目標(biāo)對象收集大量腦波數(shù)據(jù)。然而,這個新開發(fā)的深度學(xué)習(xí)模型可以即使使用少量數(shù)據(jù)也能準(zhǔn)確分類腦波,這對于未來的腦波研究具有重要意義。

人工智能大腦 大模型 (2)

腦波數(shù)據(jù)因個體而異,即使在執(zhí)行相同任務(wù)時,不同人的腦波分布也會有所不同。因此,大多數(shù)現(xiàn)有的分類模型會收集來自執(zhí)行者的數(shù)據(jù),并將其用于訓(xùn)練,重點放在了個體內(nèi)部的分類上。這意味著那些沒有參與訓(xùn)練的人的腦波不能使用這些分類模型進行分類。

為了克服這一不足,研究人員積極進行了“領(lǐng)域自適應(yīng)”模型的研究,其中深度學(xué)習(xí)模型用于推斷目標(biāo)對象的腦波信號。然而,這些模型仍然存在一個問題,即它們不能輕松應(yīng)用于新的對象,因為它們需要學(xué)習(xí)這些對象的腦波數(shù)據(jù)。

此外,還有其他研究致力于優(yōu)化遷移學(xué)習(xí)模型,其中來自多個個體的腦波數(shù)據(jù)被用于訓(xùn)練,但由于仍然需要大量腦波數(shù)據(jù),因此它們的可用性相對較低。

因此,研究團隊開發(fā)了一種新的深度學(xué)習(xí)模型,可以根據(jù)從目標(biāo)對象腦波數(shù)據(jù)中獲得的少量數(shù)據(jù)的地面真實性來準(zhǔn)確分類腦波。為了有效地學(xué)習(xí)少量數(shù)據(jù)與其余腦波之間的關(guān)系,他們首先從腦波數(shù)據(jù)中提取了有意義的特征,然后使用時間注意模塊從提取的特征中突出顯示重要特征,同時減少不必要的噪音。

隨后,他們使用聚合注意模塊從給定的腦波數(shù)據(jù)中找到只有重要的數(shù)據(jù),以識別目標(biāo)對象腦波中所代表的意圖特征。最后,他們使用關(guān)系模塊計算腦波特征與向量之間的關(guān)系。此外,他們還開發(fā)了腦波分類微調(diào)技術(shù),以確保通過優(yōu)化準(zhǔn)確分類腦波。

研究團隊開發(fā)的新深度學(xué)習(xí)模型在跨個體分類中使用20個腦波數(shù)據(jù)點時,對目標(biāo)對象的意圖表現(xiàn)出高達76%的分類準(zhǔn)確性??紤]到先前提出的方法(個體內(nèi)部分類、遷移學(xué)習(xí)和其他小樣本學(xué)習(xí)方法)的準(zhǔn)確性為64%至73%,這個新開發(fā)的模型表現(xiàn)出了更高的性能。

Sanghyun Park教授表示:“本研究中開發(fā)的腦波分類深度學(xué)習(xí)模型能夠僅憑少量信息準(zhǔn)確分類腦波,無需重新構(gòu)建來自受試者的學(xué)習(xí)數(shù)據(jù),因此有望為需要個性化的腦波研究做出貢獻。”他進一步補充道:“我們的技術(shù)將進一步提升,以在各種生物信號分析中更普遍地得到應(yīng)用?!?/p>

這項研究得到了韓國國家警察廳“面向警察官定制健康管理服務(wù)的智能大數(shù)據(jù)綜合平臺開發(fā)項目”和DGIST的“沉浸式人機多感官交互技術(shù)商業(yè)化項目”的支持,并已發(fā)表在IEEE Transactions on Neural Networks and Learning Systems上。

這一研究的突破性將有望在未來的醫(yī)療和腦機接口領(lǐng)域產(chǎn)生深遠的影響,為更好理解和應(yīng)用腦波數(shù)據(jù)打開了新的可能性。

舉報

  • 相關(guān)推薦
  • 研究人員推出深度學(xué)習(xí)模型RECAST 改進地震預(yù)測

    來自加州伯克利分校、圣克魯斯分校以及慕尼黑工業(yè)大學(xué)的研究人員發(fā)表論文,闡述了一種嶄新的模型,將深度學(xué)習(xí)引入地震預(yù)測領(lǐng)域。該模型被命名為RECAST,相比自1988年問世以來改進有限的當(dāng)前標(biāo)準(zhǔn)模型ETAS,RECAST可利用更大的數(shù)據(jù)集,提供更高的靈活性。你會看到它朝著正確的方向發(fā)展。

  • DeepMind研究人員發(fā)現(xiàn),深度學(xué)習(xí)模型像和音頻壓縮方面表現(xiàn)出色

    Google旗下的人工智能子公司DeepMind發(fā)布的一項研究表明,大型語言模型除了在文本數(shù)據(jù)處理方面表現(xiàn)出色之外具備出色的圖像和音頻數(shù)據(jù)壓縮能力。這一發(fā)現(xiàn)為重新審視LLMs的潛力提供了新的角度。這表明LLMs的性能與數(shù)據(jù)集的大小有關(guān),壓縮率可以作為評估模型對數(shù)據(jù)集信息學(xué)習(xí)的指標(biāo)。

  • AI研究人員發(fā)現(xiàn)了主要大語言模型中關(guān)鍵漏洞 可低成本復(fù)制

    大型語言模型如ChatGPT和Bard在全球范圍內(nèi)引起了廣泛的關(guān)注,眾多公司投資數(shù)百萬美元用于開發(fā)這些人工智能工具一些領(lǐng)先的AI聊天機器人的估值已達到了數(shù)十億美元。這些LLM主要被應(yīng)用于AI聊天機器人,它們通過整合互聯(lián)網(wǎng)上的大量信息來學(xué)習(xí)和為用戶提供請求的答案,這些請求通常被稱為“提示”。”這項研究為我們提醒了雖然AI技術(shù)帶來了巨大的機會,但也伴隨著一系列潛在的威脅,因此必須謹(jǐn)慎行事。

  • 研究人員發(fā)現(xiàn)使用少見語言即可繞過GPT-4的限制

    布朗大學(xué)的計算機科學(xué)研究人員發(fā)現(xiàn)了OpenAI的GPT-4存在的安全性問題。通過使用不常見的語言,如祖魯語和蓋爾語,他們成功繞過了GPT-4的限制性設(shè)置。盡管他們意識到這一研究可能會給網(wǎng)絡(luò)犯罪分子提供想法,但他們?nèi)匀徽J(rèn)為將這一漏洞公之于眾是必要的,因為利用現(xiàn)有的翻譯API輕松實施這些攻擊,因此那些試圖繞過安全防護的惡意行為者最終會發(fā)現(xiàn)這一漏洞。

  • 微軟研究人員用兒童故事進行訓(xùn)練:微型語言模型進入成熟期

    學(xué)習(xí)英語并不容易,許多學(xué)生都深有體會。但當(dāng)學(xué)生是一臺計算機時,有一種方法表現(xiàn)出奇地出色:只需將大量來自互聯(lián)網(wǎng)的文本輸入到一個名為神經(jīng)網(wǎng)絡(luò)的巨大數(shù)學(xué)模型中。他們的研究結(jié)果暗示了可能有助于訓(xùn)練更大型模型并理解其行為的新研究方向。

  • 谷歌研究人員在 JAX 中引入了一個開源庫 用于在球面上進行深度學(xué)習(xí)

    Google研究人員最近推出了一個基于JAX的開源庫,旨在解決在球面上進行深度學(xué)習(xí)的挑戰(zhàn)。傳統(tǒng)的深度學(xué)習(xí)模型通常處理平面數(shù)據(jù),例如圖像,但科學(xué)應(yīng)用中的數(shù)據(jù)通常是球面數(shù)據(jù)。3.這項研究有望在分子性質(zhì)預(yù)測和氣象預(yù)測等領(lǐng)域取得突破性進展,為醫(yī)療研究和氣候分析提供有力支持。

  • Meta研究人員提出輕量級微調(diào)方法RA-DIT 以增強語言模型知識檢索能力

    Meta的研究人員提出了一種名為檢索增強雙指令調(diào)優(yōu)的新型人工智能方法,用于提升語言模型的知識檢索能力。該方法試圖解決大型語言模型在捕獲較為冷門知識時的局限性以及大規(guī)模預(yù)訓(xùn)練的高計算成本問題。該研究證明了輕量級指令調(diào)優(yōu)對檢索增強語言模型的有效性,特別是在涉及大規(guī)模外部知識源的場景中。

  • srf-attention:一個提高深度學(xué)習(xí)模型訓(xùn)練效率的注意力機制

    注意力很有用,但計算成本很高。一旦訓(xùn)練完成,通過一些微調(diào)計算,您可以減少SRF注意力并消除對序列長度的依賴,從大大加快速度。它可以幫助研究人員和開發(fā)者更高效地構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型,提高模型的性能和效率。

  • 微軟人工智能研究人員泄露 38TB 數(shù)據(jù):包括密鑰、密碼和 Teams 消息

    微軟的人工智能研究員在GitHub上發(fā)布開源訓(xùn)練數(shù)據(jù)存儲桶時,意外暴露了數(shù)十TB的敏感數(shù)據(jù),包括私鑰和密碼。云安全初創(chuàng)公司W(wǎng)iz發(fā)現(xiàn)了這個屬于微軟AI研究部門的GitHub倉庫,并將其作為其持續(xù)進行的云托管數(shù)據(jù)意外曝光工作的一部分分享給TechCrunch?!刮④洷硎?,由于Wiz的研究,它已經(jīng)擴展了GitHub的秘密掃描服務(wù),該服務(wù)可以監(jiān)控所有公開源代碼的更改,以防明文暴露憑證和其他秘密,包括任何可能具有過度許可過期或權(quán)限的SAStoken。

  • 斯坦福大學(xué)研究人員提出MAPTree算法,改進決策樹建模

    決策樹是一種廣泛使用的著名機器學(xué)習(xí)算法,可用于分類和回歸任務(wù)。斯坦福大學(xué)的研究人員在最新論文中提出了一種稱為MAPTree的決策樹歸納算法,這是基于貝葉斯決策樹理論的一種改進方法。這項突破不僅利于決策樹算法本身的發(fā)展,也為決策樹在數(shù)據(jù)挖掘等領(lǐng)域的應(yīng)用帶來了新的契機。

熱文

  • 3 天
  • 7天