python jieba分词
import jieba from jieba.analyse import tfidf words = jieba.lcut('美菜网拟赴美上市,“生鲜第一股”有望成真?') print(words) #['美菜', '网拟', '赴美', '上市', ',', '“', '生鲜', '第一股', '”', '有望', '成', '真', '?'] nws = tfidf('美菜网拟赴美上市,“生鲜第一股”有望成真?',topK=5) print(nws) #['美菜', '网拟', '生鲜', '第一股', '赴美']