0.5b 這種才是最有用的,因為它可以萬能地微調(diào)成單一小任務(wù)。
而且它參數(shù)量小,本地跑,運行快。
以前的那些nlp任務(wù)都可以用這種萬金油來微調(diào)。
比如文章提取,文章樣式整理,數(shù)據(jù)格式轉(zhuǎn)換,文章校驗,快遞信息提取等。
你可能會說我為什么不用傳統(tǒng)的nlp來干? 主要是現(xiàn)在的llm模型,從訓(xùn)練到部署已經(jīng)非常的流水線了,不會深度學(xué)習(xí)的人也能訓(xùn)練一個并部署,這個流水線簡單到,真的只需要處理數(shù)據(jù)集而已。
整個過程你甚至不需要寫…。
