要點(diǎn):
1、零一萬物API正式開放,提供三款模型,支持通用聊天、多文檔閱讀理解、多模態(tài)輸入等功能。
2、多模態(tài)模型Yi-VL-Plus在中文圖表體驗(yàn)上超越GPT-4V,支持圖表識(shí)別、信息提取、問答和推理。
3、Yi-34B-Chat-200K模型開放,準(zhǔn)確率高達(dá)99.8%,可用于長文本理解、小說內(nèi)容總結(jié)和論文要點(diǎn)提取。
站長之家(ChinaZ.com)3月22日 消息:近日,零一萬物API正式向開發(fā)者開放,其中包含三款強(qiáng)大的模型。首先是Yi-34B-Chat-0205,支持通用聊天、問答、對(duì)話、寫作和翻譯等功能;其次是Yi-34B-Chat-200K,能處理多文檔閱讀理解和構(gòu)建超長知識(shí)庫;最后是Yi-VL-Plus多模態(tài)模型,支持文本、視覺多模態(tài)輸入,中文圖表體驗(yàn)超越GPT-4V。這些模型的開放將促進(jìn)更廣泛的應(yīng)用場(chǎng)景落地,形成更加繁榮的生態(tài)。
地址:https://platform.lingyiwanwu.com/playground
Yi-VL-Plus作為多模態(tài)模型,在中文圖表體驗(yàn)上展現(xiàn)出優(yōu)異的性能,能夠識(shí)別復(fù)雜圖表、提取信息并進(jìn)行推理。相比之下,GPT-4V在這方面表現(xiàn)不佳,例如在處理折線圖和餅狀圖時(shí)準(zhǔn)確度較低。Yi-VL-Plus不僅可以準(zhǔn)確識(shí)別圖表內(nèi)容,還能將其轉(zhuǎn)換成其他格式,如markdown。這種多模態(tài)能力為用戶提供了更加便捷和準(zhǔn)確的圖表分析體驗(yàn)。
另一款模型Yi-34B-Chat-200K的開放,讓大模型應(yīng)用進(jìn)入了長文本時(shí)代。該模型具有極高的準(zhǔn)確率,可用于理解多篇文檔內(nèi)容、分析海量數(shù)據(jù)和提取關(guān)鍵信息。文學(xué)愛好者可以通過該模型快速掌握幾十萬字小說的精髓,科研人員也可以高效提取論文要點(diǎn)。這種上下文能力的提升,將在各個(gè)領(lǐng)域帶來更多可能性和便利。
零一萬物API的開放為開發(fā)者們帶來了豐富的寶藏,Yi大模型的強(qiáng)大功能將有助于各種應(yīng)用場(chǎng)景的優(yōu)化和提升。無論是在圖表識(shí)別、文本理解還是長篇文本分析方面,這些模型都展現(xiàn)出了令人驚嘆的性能。開發(fā)者們趕快來尋寶吧,探索這些API帶來的無限可能!
(舉報(bào))