- 博客(4)
- 收藏
- 关注
原创 使用transformers库的AutoTokenizer.from_pretrained()报错
检查transformers库依赖安装是否完整。
2025-03-27 12:28:13
325
原创 编码器-解码器模型实现文本翻译时添加<SOS><EOS>原因
在编码器-解码器模型(Encoder-Decoder Model)中实现文本翻译时,在输入序列和输出序列的首尾分别添加“startofseq”(通常简写为。标记是编码器-解码器模型实现文本翻译时的一种常见且有效的做法,它有助于提高模型的性能、稳定性和可靠性。)和“endofseq”(通常简写为。
2025-01-10 17:16:56
277
转载 机器学习笔记:L1范数和L2范数
总结来说,L1范数倾向于产生稀疏解,而L2范数倾向于产生稠密解。L1范数在特征选择和稀疏化方面有其优势,而L2范数在防止过拟合和提升模型泛化能力方面有其优势。是两种常用的向量范数,
2024-03-25 03:55:57
730
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人