nltk.download下载失败

今天准备理解一下 TF-IDF,于是下载安装nltk包,但是import word_tokenize后使用word_tokenize进行分词,报错:
LookupError:

Resource [93mpunkt[0m not found.
Please use the NLTK Downloader to obtain the resource:
nltk.download(‘punkt’)
Attempted to load [93mtokenizers/punkt/english.pickle[0m
Searched in:
- ‘C:\Users\Administrator/nltk_data’
- ‘D:\Python3.6\nltk_data’
- ‘D:\Python3.6\share\nltk_data’
- ‘D:\Python3.6\lib\nltk_data’
- ‘C:\Users\Administrator\AppData\Roaming\nltk_data’
- ‘C:\nltk_data’
- ‘D:\nltk_data’
- ‘E:\nltk_data’
- ‘’

意思应该是需要 nltk.download(‘punkt’),于是在Python中运行:
import nltk
nltk.download(‘punkt’)
报错:无法连接。
又试: nltk.download(),but:

好吧,佛了。
于是,,,去官网直接下载:https://github.com/nltk/nltk_data

下载packages就好。
放入之前报错中的:
- ‘C:\Users\Administrator/nltk_data’
- ‘D:\Python3.6\nltk_data’
- ‘D:\Python3.6\share\nltk_data’
- ‘D:\Python3.6\lib\nltk_data’
- ‘C:\Users\Administrator\AppData\Roaming\nltk_data’
- ‘C:\nltk_data’
- ‘D:\nltk_data’
- ‘E:\nltk_data’
- ‘’
任一文件夹下就OK,这里需将 packages 重命名成 nltk_data。
在anaconda中,可存入
C:\ProgramData\Anaconda3\Lib\nltk_data
或者
C:\Users\zml\AppData\Roaming\nltk_data
多存入一个,免得出错。

然后,,以为大功告成?不!继续报错,哈哈~ 所以呢,往下看
找到 nltk-data 中 punkt 所在目录:

这里要进入 punkt.zip 将 punkt 文件带文件夹拖出来,与 punkt.zip 同级,即文件夹名为punkt,然后 punkt.zip 就可以删掉啦,于是才大功告成,呼~
image.png
再试一下 word_tokenize,木问题啦!
我想,后续如果要用到其他数据文件,类似punkt的处理。

原文链接:https://blog.csdn.net/Siramisu/article/details/102961329

Python英文文本聚类及可视化

https://blog.csdn.net/sinat_40431164/article/details/81030854
http://brandonrose.org/clustering

招聘信息文本聚类

http://www.situxueying.site/big%20data/2018/07/09/Extracting-Skill-Imformation-from-recruitment-ADs-with-text-clustering-2.html