doctoral study weekly working
waiting line | doing | finshed |
---|---|---|
1. How to calculate the information of matrix | ||
2. How to desgine an experiment to verify the relationship of the information to xxx | ||
3. If the information of the matrix is the best way? | ||
4. Remenber the question waitting to be soloved: disentanglement | ||
5. And try to find the way that change the loss with information of the matrix | ||
6. Do a full literature review of information bottleneck in a week |
待办
待办 | 在办 | 完成 |
---|---|---|
1. alpha go蒙特卡洛的深度理解 | ✓ | ✓ |
2. Beta分布,高斯分布,T,F分布等分布 | ✓ | ✓ |
3. 两种含义的LDA和PCA | ||
4. 各种样子的Softmax | ||
5. 实体对齐算法汇总 | ✓ | |
6. 图嵌入[表示学习] | ✓ | |
7. 之前的打过草稿的算法单独摘出来写成文章 | ||
8. 矩阵分解方法和意义 | ✓ | ✓ |
9. Gitlab使用手册编写 | ✓ | ✓ |
10.毕业论文修改记录给老师 | ✓ | ✓ |
11.强化学习大体综述 | ||
12.easy rl强化学习学习 | ||
13.SVD等矩阵分解方式 | ✓ | ✓ |
14.用别的方法进行梯度下降试试看 | ✓ | |
15.集成学习各种方法与方差偏差变化(梯度提升树为起点) | ✓ | |
16.毕业论文跑代码 | ✓ | ✓ |
17.windows下的针对vpn的路由设置 | ✓ | ✓ |
18.最近工作的好的地方进行整理 | ✓ | ✓ |
19.GANs实际上手 | ✓ | |
20.Wasserstein相关的各种散度、分布 | ✓ | ✓ |
21.记一下ensamble这个自己想出来的方法 | ||
22.记一下篱笆型LSTM | ||
23.怎么改到focal loss,有什么限制和优缺点 | ||
24.交叉熵是一个什么角度来衡量信息差的 | ✓ | ✓ |
25.决策树,回归树,分类树是个啥? | ✓ | ✓ |
26.KL散度,JS散度,Wasserstein距离是啥 | ✓ | ✓ |
27.拉格朗日算子法是个什么样的算法? | ✓ | ✓ |
28.对抗样本学习方法综述 | ✓ | |
29.从self-attention到BERT | ✓ | ✓ |
30.从BERT到GPT | ✓ | ✓ |
31.EM算法是什么 | ||
32.XGB和决策树为啥这么好,怎么改 | ✓ |
重要程度的待办【实时更新】
待办 | 在办 | 完成 |
---|---|---|
1.XGB和决策树为啥这么好,怎么改,写文章 | ✓ | |
2.EM算法是什么 | ||
3.图嵌入和GNN | ||
4.easy rl强化学习学习 | ||
5.BERT在各种层各种任务的总结【以池化层用来文本分类为例】 | ||
6.XGB和LightGBM在实现决策树时的不同原理和实例 | ||
7.能不能让XGB处理部分文本呢?或者处理部分文本时能考虑跟XGB一起? | ||
8.能不能让文本分类在处理整体文本时,加入文本的特征信息 | ||
9.胶囊神经网络?静态动态路由? | ||
10:对抗训练和强化学习 | ||
11:元学习,提示学习 | ||
12:怎么只对mask的地方进行预测。。啥原理啊 | ||
13:huggingface对五种模型的总结https://huggingface.co/docs/transformers/model_summary | ||
14.最新的那个chatGPT社会化的原理? | ||
15.重新定义lstm,xgb的各种计算方法,cart还有信息增益啥的 | ||
16.huggingface的autoTokenizer和BertTokenizer和其他的区别 | ||
17.bert各层用处,为啥这里文本分类就用那个池化层了,能不能改的更好 | ||
18.总结我自己的那个补全的函数,看看能不能优化 | ||
19.F.cross交叉熵的用法,还有ignox_index。 | ||
20.趁机把正则表达式学会 | ||
21.怎么检查内存在哪里消耗?import pynvml不管用,因为跑model.py时提前分配 | ||
22.从GPT到ChatGPT |
Q.E.D.
Comments | 0 条评论