
自然语言处理
自然语言处理
一壶浊酒..
没事早点睡
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
使用jieba库进行中文分词和去除停用词
jieba.lcut()和jieba.lcut_for_search()是jieba库中的两个分词函数,它们的功能和参数略有不同。jieba.lcut()方法接受三个参数:需要分词的字符串,是否使用全模式(默认为False)以及是否使用HMM模型(默认为True)。它返回一个列表,其中包含分词后的词语。该方法适合用于普通的文本分词任务。而jieba.lcut_for_search()方法接受两个参数:需要分词的字符串和是否使用HMM模型。原创 2024-01-03 14:02:26 · 2407 阅读 · 0 评论 -
CharRNN实现简单的文本生成
CharRNN实现简单的文本生成原创 2024-01-02 21:53:25 · 628 阅读 · 0 评论