因果推断导论笔记-Lecture1-The Neyman-Rubin Framework 这门课终于手选成功了!之前立flag手选成功就要做好笔记,而且现在觉得统辅的笔记需要记录下来整理好,不像专业课在之后会时时用到,像上学期学的多元和回归都忘光了( 2022-09-22 课程笔记 > 因果推断导论 #因果推断 #统计
Kaggle首战记录(5)-English Language Learning-cohesion维度的单独训练 前文提到了多个维度一同训练的弊端,包括数据增强的难处,以及不同维度相互牵制使得性能下降。本文单独处理了cohesion看看效果(由于batchsize无法很大,把batchnorm换成了dropout),效果印证了前文的猜测。 2022-09-12 Kaggle实战 > English Language Learning #NLP
Kaggle首战记录(4)-English Language Learning-baseline的数据增强 数据增强后是否真的有用还有待商榷,但确实增加了0.01个点。另外还学会了nlp处理的很多库。 2022-09-12 Kaggle实战 > English Language Learning #NLP
Kaggle首战记录(3)-English Language Learning-baseline的设计和训练 Kaggle首战记录(3)-English Language Learning-baseline的设计和训练 一个模型训练效果的好坏除了模型本身,还很依赖于训练资源——数据和CPU 2022-09-11 Kaggle实战 > English Language Learning #NLP
Kaggle首战记录(2)-English Language Learning-baseline的数据处理 这部分是和baseline有关的数据处理环节。 2022-09-11 Kaggle实战 > English Language Learning #NLP
Kaggle首战记录(1)-English Language Learning-比赛简介及读题 第一次参加kaggle的比赛,选择了这个比赛,现在距正式做已经一周时间了,发现做这个能让自己注意很多深度学习的细节(例如显存等平时上课看论文不太关心的),而且自己能在反思中收获很多东西。刚好一周 41hours 的GPU配额快用完了。因此决定把自己的比赛过程记录下来。 2022-09-10 Kaggle实战 > English Language Learning #NLP
论文阅读笔记 (LS导致隐式长度惩罚) 通过数学推导在理论上说明训练时采用标签平滑会隐式地导致beam search解码机器翻译任务时存在长度惩罚,使得解码倾向于给出较短的结果,且理论上,标签平滑的模型会使得解码的长度存在与输入无关的常数上界。作者在实验中也发现了上述现象,并提出了修正方法。 2022-08-24 论文笔记 > 解码方法 #NLP #解码方法
Hello World Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub. Quick 2022-08-23 #Genesis