基于tensorflow2.0中的keras进行中文的文本分类
目前已完成:
2020/07/18:TextCNN model
2020/07/19:LSTM model
2020/07/20:preprocess代码优化
Tensorflow.keras
Python3
使用THUCNews进行训练与测试(由于数据集太大,无法上传到Github,可自行下载)
百度网盘:链接: https://pan.baidu.com/s/1nD9ej_waIPpk_GITTbgXGA 密码: 3swf
数据集划分如下:
训练集cnews.train.txt 50000条
验证集cnews.val.txt 5000条
测试集cnews.test.txt 10000条
共分为10个类别:"体育","财经","房产","家居","教育","科技","时尚","时政","游戏","娱乐"。
cnews.vocab.txt为词汇表,字符级,大小为5000。
将数据集中的四份数据存放至data资料夹中
src中的文件为代码存放资料夹:
preprocess.py:加载数据与预处理相关函数。
model.py:模型结构主体。
config.py:配置文件,包含路径配置与各模型的相关参数。
main.py:主函数文件
速度相当快,效果也不错,precision与recall都趋近于0.9
CNN系列与RNN系列训练速度上的差距
尝试包含预训练模型等方法进行优化