幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 資本 > 關(guān)鍵詞  > FoodPanda最新資訊  > 正文

送餐服務(wù)商FoodPanda獲得6000萬美元新一輪融資

2014-08-12 09:57 · 稿源:億歐網(wǎng)

《送餐服務(wù)商FoodPanda獲得6000萬美元新一輪融資》文章已經(jīng)歸檔,站長(zhǎng)之家不再展示相關(guān)內(nèi)容,下文是站長(zhǎng)之家的自動(dòng)化寫作機(jī)器人,通過算法提取的文章重點(diǎn)內(nèi)容。這只AI還很年輕,歡迎聯(lián)系我們幫它成長(zhǎng):

RocketInternet旗下的送餐服務(wù)商FoodPanda(空腹熊貓)獲得了6000萬美元的新一輪融資,來自FalconEdge資本和RocketInternetAG...

空腹熊貓作為餐廳的網(wǎng)上服務(wù)商,顧客可以通過其移動(dòng)APP訂餐,空腹熊貓負(fù)責(zé)配送...

類似于RocketInternet的其它合資企業(yè),包括EasyTaxi、電商公司Linio、Lazada、Zalora、比價(jià)服務(wù)平臺(tái)PricePanda等,空腹熊貓?jiān)谝恍┏鞘羞\(yùn)營(yíng)成功后把其成功的商業(yè)模式以相對(duì)較低的運(yùn)營(yíng)成本在新興市場(chǎng)復(fù)制推廣...

該公司的服務(wù)范圍覆蓋南美、亞洲、東歐和非洲等地區(qū)的40多個(gè)國(guó)家和地區(qū),目前在全球有超過800名員工,并且繼續(xù)飛速發(fā)展...

......

本文由站長(zhǎng)之家用戶“億歐網(wǎng)”投稿,本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完整的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)聯(lián)系作者獲取原文。

舉報(bào)

  • 相關(guān)推薦
  • 大家在看
  • Sparsh:自監(jiān)督觸覺表示,用于基于視覺的觸覺傳感。

    Sparsh是一系列通過自監(jiān)督算法(如MAE、DINO和JEPA)訓(xùn)練的通用觸覺表示。它能夠?yàn)镈IGIT、Gelsight'17和Gelsight Mini生成有用的表示,并在TacBench提出的下游任務(wù)中大幅度超越端到端模型,同時(shí)能夠?yàn)樾孪掠稳蝿?wù)的數(shù)據(jù)高效訓(xùn)練提供支持。Sparsh項(xiàng)目包含PyTorch實(shí)現(xiàn)、預(yù)訓(xùn)練模型和與Sparsh一起發(fā)布的數(shù)據(jù)集。

  • Digit 360:具有人類級(jí)別精度的人工觸覺傳感器

    Digit 360是由Meta FAIR發(fā)布的人工手指形狀的觸覺傳感器,它能夠以人類級(jí)別的精度數(shù)字化觸覺。該傳感器擁有超過18種獨(dú)特的傳感特性,允許研究人員結(jié)合使用各種傳感技術(shù)或單獨(dú)隔離信號(hào)進(jìn)行深入分析。Digit 360在檢測(cè)空間細(xì)節(jié)上達(dá)到了7微米,力量檢測(cè)上達(dá)到了1毫牛,響應(yīng)速度是人的30倍,為觸覺傳感技術(shù)樹立了新的標(biāo)準(zhǔn)。

  • UndetectableGPT.ai:在線工具,將AI文本轉(zhuǎn)換為類人內(nèi)容,繞過AI檢測(cè)器。

    UndetectableGPT.ai是一個(gè)在線工具,旨在將AI生成的文本轉(zhuǎn)換成類人的寫作風(fēng)格,使其無法被AI檢測(cè)器如GPTZero和ZeroGPT識(shí)別。這項(xiàng)技術(shù)的重要性在于它能夠幫助用戶保持內(nèi)容的真實(shí)性,同時(shí)避免被AI檢測(cè)器標(biāo)記為機(jī)器生成。產(chǎn)品背景信息顯示,該工具適用于需要讓AI文本不可檢測(cè)的各種寫作任務(wù),包括文章、博客、產(chǎn)品描述和社交媒體更新。UndetectableGPT.ai提供免費(fèi)服務(wù),定位于需要繞過AI檢測(cè)器的用戶群體。

  • MobileLLM-350M:高效優(yōu)化的子十億參數(shù)語言模型,專為設(shè)備端應(yīng)用設(shè)計(jì)

    MobileLLM-350M是由Meta開發(fā)的自回歸語言模型,采用優(yōu)化的Transformer架構(gòu),專為設(shè)備端應(yīng)用設(shè)計(jì),以滿足資源受限的環(huán)境。該模型整合了SwiGLU激活函數(shù)、深層薄架構(gòu)、嵌入共享和分組查詢注意力等關(guān)鍵技術(shù),實(shí)現(xiàn)了在零樣本常識(shí)推理任務(wù)上的顯著準(zhǔn)確率提升。MobileLLM-350M在保持較小模型尺寸的同時(shí),提供了與更大模型相媲美的性能,是設(shè)備端自然語言處理應(yīng)用的理想選擇。

  • MobileLLM-125M:高效優(yōu)化的小型語言模型,專為設(shè)備端應(yīng)用設(shè)計(jì)。

    MobileLLM-125M是由Meta開發(fā)的自動(dòng)回歸語言模型,它利用優(yōu)化的變換器架構(gòu),專為資源受限的設(shè)備端應(yīng)用而設(shè)計(jì)。該模型集成了包括SwiGLU激活函數(shù)、深度薄架構(gòu)、嵌入共享和分組查詢注意力等多項(xiàng)關(guān)鍵技術(shù)。MobileLLM-125M/350M在零樣本常識(shí)推理任務(wù)上相較于前代125M/350M SoTA模型分別取得了2.7%和4.3%的準(zhǔn)確率提升。該模型的設(shè)計(jì)理念可有效擴(kuò)展到更大模型,MobileLLM-600M/1B/1.5B均取得了SoTA結(jié)果。

  • Claude 3.5 Haiku:先進(jìn)的編程、工具使用和推理能力的模型

    Claude 3.5 Haiku是Anthropic公司推出的最新最快的模型,它在編程、工具使用和推理任務(wù)上表現(xiàn)出色,并且價(jià)格親民。該模型在速度上與Claude 3 Haiku相似,但在各項(xiàng)技能上都有提升,甚至在許多智能基準(zhǔn)測(cè)試上超越了上一代最大的模型Claude 3 Opus。Anthropic公司致力于AI的安全性,Claude 3.5 Haiku在開發(fā)過程中經(jīng)過了多語言和政策領(lǐng)域的廣泛安全評(píng)估,增強(qiáng)了處理敏感內(nèi)容的能力。

  • ComfyUI-MochiEdit:視頻編輯工具,使用Genmo Mochi技術(shù)

    ComfyUI-MochiEdit是一個(gè)基于Genmo Mochi技術(shù)的視頻編輯插件,允許用戶通過ComfyUI界面對(duì)視頻進(jìn)行編輯。該插件的主要優(yōu)點(diǎn)在于其能夠利用先進(jìn)的視頻處理技術(shù),提供給用戶一個(gè)直觀、易用的編輯環(huán)境。產(chǎn)品背景信息顯示,它是由logtd和kijai共同開發(fā),并且遵循GPL-3.0開源許可證。由于其開源特性,該插件可以免費(fèi)使用,定位于需要視頻編輯功能的專業(yè)用戶或愛好者。

  • hertz-dev:開源的全雙工音頻生成基礎(chǔ)模型

    hertz-dev是Standard Intelligence開源的全雙工、僅音頻的變換器基礎(chǔ)模型,擁有85億參數(shù)。該模型代表了可擴(kuò)展的跨模態(tài)學(xué)習(xí)技術(shù),能夠?qū)温暤?6kHz語音轉(zhuǎn)換為8Hz潛在表示,具有1kbps的比特率,性能優(yōu)于其他音頻編碼器。hertz-dev的主要優(yōu)點(diǎn)包括低延遲、高效率和易于研究人員進(jìn)行微調(diào)和構(gòu)建。產(chǎn)品背景信息顯示,Standard Intelligence致力于構(gòu)建對(duì)全人類有益的通用智能,而hertz-dev是這一旅程的第一步。

  • Alex Sidebar:Xcode的智能側(cè)邊欄助手

    Alex Sidebar是一個(gè)為Xcode設(shè)計(jì)的智能側(cè)邊欄插件,它通過提供多種功能來增強(qiáng)開發(fā)者的編程效率。產(chǎn)品背景信息顯示,Alex Sidebar由Combinator支持,是一款在Beta階段免費(fèi)提供給用戶的插件。它通過語義搜索、代碼生成、錯(cuò)誤自動(dòng)修復(fù)等功能,幫助開發(fā)者更快速、更智能地編寫代碼。

  • Claude Vision Object Detection:利用Claude 3.5 Sonnet Vision API進(jìn)行圖像中物體檢測(cè)和可視化的強(qiáng)大Python工具

    Claude Vision Object Detection是一個(gè)基于Python的工具,它利用Claude 3.5 Sonnet Vision API來檢測(cè)圖像中的物體并進(jìn)行可視化。該工具能夠自動(dòng)在檢測(cè)到的物體周圍繪制邊界框,對(duì)它們進(jìn)行標(biāo)記,并顯示置信度分?jǐn)?shù)。它支持處理單張圖片或整個(gè)目錄中的圖片,并且具有高精度的置信度分?jǐn)?shù),為每個(gè)檢測(cè)到的物體使用鮮艷且不同的顏色。此外,它還能保存帶有檢測(cè)結(jié)果的注釋圖片。

  • GyftPro:完美禮物,為每一個(gè)時(shí)刻準(zhǔn)備

    GyftPro是一款A(yù)I驅(qū)動(dòng)的禮物推薦應(yīng)用,旨在簡(jiǎn)化尋找完美禮物的過程。用戶可以通過這個(gè)應(yīng)用探索各種產(chǎn)品,保存禮物想法,甚至直接在應(yīng)用內(nèi)購(gòu)買禮物。它的主要優(yōu)點(diǎn)包括個(gè)性化禮物推薦、基于事件的禮物清單管理、直接購(gòu)買和通過聯(lián)盟鏈接探索產(chǎn)品、按品牌購(gòu)物、社交禮物分享以及節(jié)日特別優(yōu)惠。GyftPro讓禮物購(gòu)物變得有趣、簡(jiǎn)單、無壓力。

  • MotionCLR:基于注意力機(jī)制的運(yùn)動(dòng)生成和無訓(xùn)練編輯模型

    MotionCLR是一個(gè)基于注意力機(jī)制的運(yùn)動(dòng)擴(kuò)散模型,專注于人類動(dòng)作的生成和編輯。它通過自注意力和交叉注意力機(jī)制,分別模擬模態(tài)內(nèi)和模態(tài)間的交互,實(shí)現(xiàn)對(duì)動(dòng)作序列的精細(xì)控制和編輯。該模型的主要優(yōu)點(diǎn)包括無需訓(xùn)練即可進(jìn)行編輯,具有較好的解釋性,能夠通過操作注意力圖來實(shí)現(xiàn)多種運(yùn)動(dòng)編輯方法,如動(dòng)作的強(qiáng)調(diào)或減弱、就地替換動(dòng)作、基于示例的動(dòng)作生成等。MotionCLR的研究背景是解決以往運(yùn)動(dòng)擴(kuò)散模型在細(xì)粒度編輯能力上的不足,通過清晰的文本-動(dòng)作對(duì)應(yīng)關(guān)系,提高動(dòng)作編輯的靈活性和精確性。

  • VoteGPT:智能選舉助手,幫助您了解候選人立場(chǎng)。

    VoteGPT是一個(gè)選舉輔助網(wǎng)站,它通過官方政策和維基百科提供的信息,幫助用戶了解不同候選人和政黨的立場(chǎng)。該產(chǎn)品的主要優(yōu)點(diǎn)是提供簡(jiǎn)單、誠(chéng)實(shí)、無偏見的信息,幫助用戶在選舉中做出更明智的選擇。產(chǎn)品背景信息顯示,它由Ethical.net創(chuàng)建,旨在為美國(guó)人民提供服務(wù)。

  • 可靈AI:新一代創(chuàng)意生產(chǎn)力平臺(tái),點(diǎn)燃你的想象力

    可靈AI是一個(gè)基于可靈大模型和可圖大模型的創(chuàng)意生產(chǎn)力平臺(tái),提供視頻、圖片生成與編輯能力。它允許用戶通過輸入文本或圖片來生成視頻和圖片,支持多種尺寸和風(fēng)格,并且可以將圖片一鍵生成視頻。該平臺(tái)還提供了一個(gè)創(chuàng)意圈,用戶可以在這里尋找創(chuàng)作靈感,并與其他創(chuàng)作者互動(dòng)。產(chǎn)品背景信息顯示,可靈AI廣受海內(nèi)外創(chuàng)作者好評(píng),其技術(shù)優(yōu)勢(shì)在于物理仿真理解、運(yùn)動(dòng)幅度和畫面審美表現(xiàn),以及降低制作成本。價(jià)格方面,可靈AI提供免費(fèi)下載,并提供App內(nèi)購(gòu)買項(xiàng)目。

  • Ferret-UI-Llama8b:基于Llama-3-8B的多模態(tài)大型語言模型,專注于UI任務(wù)。

    Ferret-UI是首個(gè)以用戶界面為中心的多模態(tài)大型語言模型(MLLM),專為指代表達(dá)、定位和推理任務(wù)設(shè)計(jì)。它基于Gemma-2B和Llama-3-8B構(gòu)建,能夠執(zhí)行復(fù)雜的用戶界面任務(wù)。這個(gè)版本遵循了Apple的研究論文,是一個(gè)強(qiáng)大的工具,可以用于圖像文本到文本的任務(wù),并且在對(duì)話和文本生成方面具有優(yōu)勢(shì)。

  • ManiSkill:開源機(jī)器人模擬平臺(tái),用于生成無限機(jī)器人數(shù)據(jù)和泛化AI。

    ManiSkill是一個(gè)領(lǐng)先的開源平臺(tái),專注于機(jī)器人模擬、無限機(jī)器人數(shù)據(jù)生成和泛化機(jī)器人AI。由HillBot.ai領(lǐng)導(dǎo),該平臺(tái)支持通過狀態(tài)和/或視覺輸入快速訓(xùn)練機(jī)器人,與其它平臺(tái)相比,ManiSkill/SAPIEN實(shí)現(xiàn)了10-100倍的視覺數(shù)據(jù)收集速度。它支持在GPU上并行模擬和渲染RGB-D,速度高達(dá)30,000+FPS。ManiSkill提供了40多種技能/任務(wù)和2000多個(gè)對(duì)象的預(yù)構(gòu)建任務(wù),擁有數(shù)百萬幀的演示和密集的獎(jiǎng)勵(lì)函數(shù),用戶無需自己收集資產(chǎn)或設(shè)計(jì)任務(wù),可以專注于算法開發(fā)。此外,它還支持在每個(gè)并行環(huán)境中同時(shí)模擬不同的對(duì)象和關(guān)節(jié),訓(xùn)練泛化機(jī)器人策略/AI的時(shí)間從天縮短到分鐘。ManiSkill易于使用,可以通過pip安裝,并提供簡(jiǎn)單靈活的GUI以及所有功能的廣泛文檔。

  • xAI API:開發(fā)者可使用的Grok系列基礎(chǔ)模型API

    xAI API提供了對(duì)Grok系列基礎(chǔ)模型的程序化訪問,支持文本和圖像輸入,具有128,000個(gè)token的上下文長(zhǎng)度,并支持函數(shù)調(diào)用和系統(tǒng)提示。該API與OpenAI和Anthropic的API完全兼容,簡(jiǎn)化了遷移過程。產(chǎn)品背景信息顯示,xAI正在進(jìn)行公共Beta測(cè)試,直至2024年底,期間每位用戶每月可獲得25美元的免費(fèi)API積分。

  • Chat Nio:國(guó)內(nèi)領(lǐng)先的LLM一站式企業(yè)解決方案

    Chat Nio是一個(gè)國(guó)內(nèi)領(lǐng)先的LLM(Large Language Model)一站式企業(yè)解決方案,提供強(qiáng)大的AI集成工具,支持35+主流AI模型,涵蓋文本生成、圖像創(chuàng)作、音頻處理和視頻編輯等領(lǐng)域,并支持私有化部署和中轉(zhuǎn)服務(wù)。它為開發(fā)者、個(gè)人用戶和企業(yè)提供定制化的AI解決方案,包括但不限于多租戶令牌分發(fā)、計(jì)費(fèi)管理系統(tǒng)、深度集成Midjourney Proxy Plus繪畫功能、全方位調(diào)用日志記錄系統(tǒng)等。Chat Nio以其多功能性、靈活性和易用性,滿足企業(yè)和團(tuán)隊(duì)的多樣化需求,幫助他們高效開發(fā)和部署AI應(yīng)用。

  • Grounding with Google Search:利用Google搜索提升AI模型的準(zhǔn)確性和信息新鮮度

    Gemini API和Google AI Studio現(xiàn)在提供與Google Search結(jié)合的Grounding功能,使開發(fā)者能夠獲得更準(zhǔn)確、更新的響應(yīng),這些響應(yīng)由Google搜索輔助的Gemini模型提供。此功能不僅可以提供更準(zhǔn)確的響應(yīng),還能返回支持鏈接和搜索建議,引導(dǎo)用戶找到與響應(yīng)相對(duì)應(yīng)的搜索結(jié)果。這一技術(shù)的應(yīng)用,可以減少AI應(yīng)用的虛構(gòu)信息,提供最新的信息,增強(qiáng)AI應(yīng)用的可信度,并且通過提供支持鏈接,增加發(fā)布者網(wǎng)站的流量。

  • Fish Agent V0.1 3B:高精度環(huán)境音頻信息捕捉與生成的語音轉(zhuǎn)語音模型

    Fish Agent V0.1 3B是一個(gè)開創(chuàng)性的語音轉(zhuǎn)語音模型,能夠以前所未有的精確度捕捉和生成環(huán)境音頻信息。該模型采用了無語義標(biāo)記架構(gòu),消除了傳統(tǒng)語義編碼器/解碼器的需求。此外,它還是一個(gè)尖端的文本到語音(TTS)模型,訓(xùn)練數(shù)據(jù)涵蓋了700,000小時(shí)的多語言音頻內(nèi)容。作為Qwen-2.5-3B-Instruct的繼續(xù)預(yù)訓(xùn)練版本,它在200B語音和文本標(biāo)記上進(jìn)行了訓(xùn)練。該模型支持包括英語、中文在內(nèi)的8種語言,每種語言的訓(xùn)練數(shù)據(jù)量不同,其中英語和中文各約300,000小時(shí),其他語言各約20,000小時(shí)。

今日大家都在搜的詞:

熱文

  • 3 天
  • 7天