11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
Llama3.1終于現(xiàn)身了,不過出處卻不是Meta官方。Reddit上新版Llama大模型泄露的消息遭到了瘋傳,除了基礎(chǔ)模型包括8B、70B和最大參數(shù)的405B的基準(zhǔn)測(cè)試結(jié)果。在部署Llama3.1模型的任何應(yīng)用之前,開發(fā)人員應(yīng)針對(duì)模型的具體應(yīng)用進(jìn)行安全測(cè)試和微調(diào)。
只要在提示詞中把時(shí)間設(shè)定成過去,就能輕松突破大模型的安全防線。且對(duì)GPT-4o尤其有效,原本只有1%的攻擊成功率直接飆到88%,幾乎是“有求必應(yīng)”。這樣的結(jié)果也說明,如果能夠?qū)撛诘墓暨M(jìn)行準(zhǔn)確預(yù)判,并使用拒絕示例讓模型對(duì)齊,就能有效對(duì)攻擊做出防御,也就意味著在評(píng)估語言模型的安全性和對(duì)齊質(zhì)量時(shí),需要設(shè)計(jì)更全面、更細(xì)致的方案。
歡迎來到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、又炸!人們需要意識(shí)到模型只是模仿人類行為非真正思考或理解。
一位昵稱為「ToreKnabe」的網(wǎng)友在X平臺(tái)發(fā)布的一段視頻引發(fā)了人們的討論。四個(gè)AINPC與一個(gè)人類坐在一起,按照“乘務(wù)員”的要求互相試探,找出其中隱藏的人類。超過一半的游戲開發(fā)者相信,超過40%的工作室將在未來5年內(nèi)采用AINPC。
LLama3-V模型正式發(fā)布,這是一種全新的SOTA開源VLM模型。LLama3-V不僅優(yōu)于LLaVA在與GPT4-V、GeminiUltra、ClaudeOpus相比的性能表現(xiàn)上也不遜色,同時(shí)模型體積只有它們的1/100。這一消息讓人興奮不已,相信隨著LLama3-V的問世,將會(huì)給人工智能領(lǐng)域帶來全新的發(fā)展和突破。
在"I/O2024"大會(huì)上,谷歌DeepMind推出了一款全新的AI代理產(chǎn)品ProjectAstra,標(biāo)志著谷歌在生成式AI領(lǐng)域的又一重大進(jìn)展。ProjectAstra的推出被認(rèn)為是打破現(xiàn)實(shí)與科幻界限的創(chuàng)新,讓人聯(lián)想到電影《她》和《星際迷航》系列中的人工智能。隨著AI技術(shù)的不斷進(jìn)步,我們有理由期待AI代理將如何進(jìn)一步改變我們的生活和工作方式。
5月15日凌晨,谷歌召開“I/O2024”,生成式AI成為本次大會(huì)的重點(diǎn)并發(fā)布了一系列產(chǎn)品和多款大模型。谷歌DeepMind發(fā)布了一款全新的AI代理產(chǎn)品ProjectAstra,可以像昨天OpenAI發(fā)布的GPT4o一樣,實(shí)現(xiàn)跨文本、音頻、視頻多模態(tài)實(shí)時(shí)推理。同時(shí)為之前的智能RPA、AutoGPT等起到推波助瀾的作用擴(kuò)大認(rèn)知和市場(chǎng)范圍,極大培養(yǎng)了用戶的習(xí)慣一個(gè)全民AI代理時(shí)代已經(jīng)來臨。
科技巨頭OpenAI再次掀起人工智能浪潮,全新旗艦大模型GPT-4o正式亮相。OpenAI還宣布將推出ChatGPT桌面版應(yīng)用程序,首先向Plus用戶推出macOS版,未來計(jì)劃推出Windows版本。這一舉措將極大地推動(dòng)GPT-4o在各行各業(yè)的應(yīng)用和發(fā)展,為用戶帶來更加智能、便捷的服務(wù)體驗(yàn)。
OpenAI宣布,其最新旗艦生成式AI模型GPT-4o即將亮相,并將于未來數(shù)周內(nèi)分階段集成至OpenAI的系列產(chǎn)品中。令人興奮的是,GPT-4o將免費(fèi)對(duì)所有用戶開放,無需任何付費(fèi)門檻。新的界面設(shè)計(jì)將讓用戶可以更加專注于與模型的協(xié)作無需在意界面本身。
OpenAI發(fā)布會(huì)前一天,員工集體發(fā)瘋中……上演大型套娃行為藝術(shù)。與此同時(shí)還有小動(dòng)作不斷,比如現(xiàn)在GPT-4的文字描述已不再是“最先進(jìn)的模型”僅僅是“先進(jìn)的”。量子位將在第一時(shí)間給大家?guī)鞳penAI線上發(fā)布會(huì)的最新消息。
4月24日,商湯集團(tuán)在港交所暫停交易前股價(jià)上漲31.15%。商湯集團(tuán)表示,其大模型日日新5.0發(fā)布會(huì)受到市場(chǎng)極大關(guān)注,公司將進(jìn)一步刊發(fā)相關(guān)公告。商湯的生成式AI業(yè)務(wù)在2023年取得了顯著增長,占總收入的35%。
Meta公司宣布了一項(xiàng)重大技術(shù)進(jìn)展,發(fā)布了其最新的開源模型——Llama3。這一模型包含兩種參數(shù)規(guī)模:8B和70B,預(yù)計(jì)將于今年7月正式面世。MetaAI還整合了搜索功能,可以直接訪問網(wǎng)絡(luò)上的實(shí)時(shí)信息,無需切換應(yīng)用。
MiniGPT4-Video是什么?MiniGPT4-Video是為視頻理解設(shè)計(jì)的多模態(tài)大模型,能處理時(shí)態(tài)視覺數(shù)據(jù)和文本數(shù)據(jù),配標(biāo)題、宣傳語,適用于視頻問答。用戶可以上傳視頻,讓模型生成標(biāo)題與宣傳語,理解特效處理,或作超美抒情詩。
【新智元導(dǎo)讀】秒懂視頻的AI誕生了!KAUST和哈佛大學(xué)研究團(tuán)隊(duì)提出MiniGPT4-Video框架,不僅能理解復(fù)雜視頻,甚至還能作詩配文。OpenAI官方賬號(hào)發(fā)布了第一支由Sora制作的MV——Worldweight,引全網(wǎng)圍觀。下一步研究將模型能力擴(kuò)展到處理更長視頻的能力。
科大訊飛副總裁、研究院院長劉聰在博鰲2024年會(huì)現(xiàn)場(chǎng)表示:科大訊飛計(jì)劃在今年6月,正式發(fā)布對(duì)標(biāo)GPT-4當(dāng)前能力的星火大模型V4.0版本。訊飛星火大模型V4.0目前正在訓(xùn)練中。劉慶峰表示,星火大模型的背后,是科大訊飛多年的研究和技術(shù)積累,多年來研發(fā)團(tuán)隊(duì)不斷探索和改進(jìn)各種算法和模型,以解決語言理解和推理中的挑戰(zhàn)。
快科技3月27日消息,據(jù)媒體報(bào)道,科大訊飛副總裁、研究院院長劉聰在博鰲2024年會(huì)現(xiàn)場(chǎng)接受采訪時(shí)表示,對(duì)標(biāo)GPT-4當(dāng)前能力的訊飛星火大模型V4.0正在訓(xùn)練中,預(yù)計(jì)今年6月發(fā)布。劉聰透露,訊飛星火大模型從去年5月6日首次發(fā)布以來,已迭代到星火V3.5,已經(jīng)逼近GPT-4的當(dāng)前水平。此前科大訊飛董事長劉慶峰曾表示,今年訊飛星火大模型將繼續(xù)快速升級(jí),不過還是要科學(xué)理性正視?
快手聯(lián)合創(chuàng)始人兼CEO程一笑表示,“2023年,快手不斷深化內(nèi)容和商業(yè)生態(tài)建設(shè),開啟了全面盈利的新篇章。2023年全年經(jīng)調(diào)整后凈利潤也首次突破百億大關(guān),Q4MAU突破了7億,創(chuàng)歷史新高。本季度財(cái)報(bào)是快手近幾個(gè)季度財(cái)報(bào)中,很強(qiáng)勢(shì)的一個(gè)季度,在國內(nèi)市場(chǎng)和海外市場(chǎng)只奉行兩個(gè)字“搞錢”,從結(jié)果來看確實(shí)取得了不錯(cuò)的成績(jī),但值得注意的是當(dāng)前市值僅為2229億,約為上市首?
快手公司發(fā)布了其2023年第四季度及全年業(yè)績(jī)報(bào)告,數(shù)據(jù)顯示,快手在2023年全年實(shí)現(xiàn)了顯著的收入增長,總收入高達(dá)1134.7億元,同比增長了20.5%。更值得一提的是,經(jīng)過調(diào)整后,快手的凈利潤首次突破了百億元大關(guān),達(dá)到了102.7億元。Base預(yù)訓(xùn)練模型在多個(gè)權(quán)威的中/英文測(cè)試平臺(tái)中,如MMLU、CMMLU、C-Eval等,展現(xiàn)出了與同等模型相比的領(lǐng)先水平。
今日,快手發(fā)布2023年第四季度及全年業(yè)績(jī),2023全年總收入達(dá)1134.7億元,同比增長20.5%,經(jīng)調(diào)整凈利潤首次超百億達(dá)102.7億元。在快手業(yè)績(jī)電話會(huì)上,快手創(chuàng)始人兼CEO程一笑透露,2023年公司啟動(dòng)AI戰(zhàn)略后,一步步扎實(shí)推進(jìn)自研大模型的研發(fā)訓(xùn)練。Base預(yù)訓(xùn)練模型在MMLU、CMMLU、C-Eval等權(quán)威的中/英文測(cè)試平臺(tái)中,在同等模型中處于領(lǐng)先水平。
歡迎來到【今日AI】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
GPT4Free是一個(gè)GPTAI和ChatGPT的在線Playground,無需API、登錄或限制。您可以盡情探索GPT3.5Turbo、GPT4和GPT4Vision等最新模型。
美國亞利桑那州立大學(xué)與OpenAI達(dá)成合作,將引進(jìn)ChatGPT企業(yè)版提升教學(xué)能力。作為首家采用OpenAI的高等學(xué)府,官方表示:在AI的幫助下,將提高教學(xué)、學(xué)習(xí)和發(fā)現(xiàn)能力。該平臺(tái)不僅能夠成為幫助學(xué)生學(xué)得更快、對(duì)學(xué)科理解更透徹的工具能具有令人難忘的潛力。
GPTEval3D是一個(gè)開源的3D生成模型評(píng)價(jià)工具,基于GPT-4V實(shí)現(xiàn)了對(duì)文本到3D生成模型的自動(dòng)評(píng)測(cè)。它可以計(jì)算生成模型的ELO分?jǐn)?shù),并與現(xiàn)有模型進(jìn)行對(duì)比排名。要獲取更多詳細(xì)信息并開始使用GPTEval3D進(jìn)行評(píng)測(cè)工作,請(qǐng)?jiān)L問GPTEval3D官方網(wǎng)站。
近日,OpenAI正在對(duì)最新的GPT4.5turbo模型進(jìn)行灰度測(cè)試,該模型在文本生成質(zhì)量、效率、上下文理解、多模態(tài)能力、編程和代碼生成、安全性、個(gè)性化定制等七個(gè)方面都取得顯著進(jìn)展。Gemini自曝中文用文心一言訓(xùn)練Gemini-Pro在谷歌VertexAI平臺(tái)上自稱為百度文心大模型,引發(fā)網(wǎng)友疑慮。產(chǎn)品體驗(yàn)地址:https://www.hrblock.com/online-tax-filing/👨?💻💡🎯聚焦開發(fā)者EPFL與蘋果聯(lián)手開源人工智能
有消息稱OpenAI正在灰度測(cè)試最新模型GPT4.5turbo寶玉、歸藏等博主也紛紛表示自己的版本已經(jīng)更新到GPT4.5。據(jù)GPT4.5turbo問答結(jié)果顯示,相較于之前的GPT-4-turbo,新模型在多個(gè)方面實(shí)現(xiàn)了六大能力的增強(qiáng)。感興趣的可以去試試。
OpenAI的GPT-4是一款強(qiáng)大的自然語言生成器,可以幫助用戶生成各種類型的文本,不過近期卻出現(xiàn)懶惰”的跡象。有不少用戶表示,當(dāng)使用ChatGPT或者GPT-4時(shí),會(huì)遇到回應(yīng)速度慢、敷衍回答、拒絕回答中斷會(huì)話等一系列問題。OpenAI承諾將盡快修復(fù)問題,并進(jìn)行離線評(píng)估和線上測(cè)試,以提高模型的質(zhì)量和性能。
OpenAI遭到了一些用戶的不滿,他們反映在使用ChatGPT或GPT-4API的過程中,經(jīng)常出現(xiàn)回復(fù)緩慢、敷衍了事、拒絕服務(wù)、中途斷線等問題,OpenAI對(duì)此表示了認(rèn)可,并承諾將盡快、有效地解決這些問題。OpenAI之前表示,GPT-4變得懶散的原因是,OpenAI自11月11日以來就沒有對(duì)模型進(jìn)行更新,導(dǎo)致GPT模型的表現(xiàn)變得難以控制,目前該公司正努力修復(fù)問題。由于OpenAI的CEOSamAltman因?yàn)殡x職事件和歐美假期的影響,導(dǎo)致OpenAI的日常運(yùn)作出現(xiàn)混亂,除了GPT-4定期更新被推遲外,原本計(jì)劃于今年12月初上線的GPTStore,也被延后到2024年初才能上線。
OpenAI宣布將修復(fù)GPT-4變懶問題,并解釋了其變懶的原因。上周OpenAI收到了用戶的投訴,稱在使用ChatGPT或GPT-4API時(shí)遇到了回應(yīng)速度慢、敷衍回答、拒絕回答、中斷會(huì)話等問題。這一系列問題使得OpenAI在維護(hù)和更新其模型上面臨一些挑戰(zhàn)。
最近在多模態(tài)大型語言模型領(lǐng)域取得了顯著進(jìn)展,但在多模態(tài)內(nèi)容生成方面仍存在明顯的空白。為了填補(bǔ)這一空白,騰訊AI實(shí)驗(yàn)室和悉尼大學(xué)的合作引入了GPT4Video,這是一個(gè)統(tǒng)一的多模型框架,使得大型語言模型具備了視頻理解和生成的獨(dú)特能力。該研究還提出了一種簡(jiǎn)單有效的微調(diào)方法,并發(fā)布了數(shù)據(jù)集,為未來的多模態(tài)LLMs研究提供了便利。
在多模態(tài)大型語言模型領(lǐng)域取得顯著進(jìn)展的同時(shí),盡管在輸入端多模態(tài)理解方面取得了顯著進(jìn)展,但在多模態(tài)內(nèi)容生成領(lǐng)域仍存在明顯的空白。為填補(bǔ)這一空白,騰訊人工智能實(shí)驗(yàn)室與悉尼大學(xué)聯(lián)手推出了GPT4Video,這是一個(gè)統(tǒng)一的多模態(tài)框架,賦予大型語言模型獨(dú)特的視頻理解和生成能力。其在多模態(tài)基準(zhǔn)測(cè)試中表現(xiàn)出色進(jìn)一步強(qiáng)調(diào)了其卓越性能。