快科技4月15日消息,ChatGPT是迄今最復(fù)雜的大語言模型(LLM),但是OpenAI CEO并不認(rèn)為LLM越大越好。
當(dāng)?shù)貢r(shí)間13日,OpenAI聯(lián)合創(chuàng)始人兼CEOSam Altman在麻省理工學(xué)院的活動(dòng)上接受了媒體的采訪。
Altman表示,大小并非衡量一個(gè)模型質(zhì)量的正確方式,他還把LLM與芯片的發(fā)展速度進(jìn)行了比較。他認(rèn)為人們過于關(guān)注參數(shù)數(shù)量,也許參數(shù)數(shù)量肯定會增加。
就如同現(xiàn)在有些手機(jī)上運(yùn)行著功能更強(qiáng)大的芯片,但用戶大多數(shù)時(shí)候并不知道它們的速度有多快,只知道它們能很好地完成工作。
Altman認(rèn)為,未來模型參數(shù)應(yīng)該向更小的方向發(fā)展,或者以多個(gè)小模型協(xié)作的方式工作,參數(shù)數(shù)量應(yīng)該隨著時(shí)間的推移而減少,或者我們應(yīng)該讓多個(gè)模型一起工作。
如今,越來越多的科技公司提出為廣大企業(yè)的特定需求打造專屬大語言模型的戰(zhàn)略,為智能聊天和客戶支持、專業(yè)內(nèi)容創(chuàng)作、數(shù)字模擬等任務(wù)構(gòu)建專屬的、特定領(lǐng)域的生成式AI應(yīng)用。
(舉報(bào))