1 熟悉数据
2 端到端训练+获取基线
3 过拟合
4 正则化
5 调模型
- 随机网格搜索
- 超参数优化
6 再挤挤
- 集成模型
- 继续训练
分类标签归档:自然语言处理
from keras.layers import Layer
import keras.backend as K
from keras impo...
张量(多维数...
import numpy as np
import keras
import gensim
import json
from sklearn.model_selection import tr...
Token:tokenizer中一共涉及21128个字/词(vocab_size=21128),参数量为21128∗768=16226304
Segm...