doctoral study working
waiting line | doing | finshed |
1. How to calculate the information of matrix | ✓ | ✓ |
2. How to desgine an experiment to verify the relationship of the information to xxx | ✓ | ✓ |
3. If the information of the matrix is the best way? | ✓ | ✓ |
4. Remenber the question waitting to be soloved: disentanglement | ✓ | ✓ |
5. And try to find the way that change the loss with information of the matrix | ✓ | ✓ |
6. Do a full literature review of information bottleneck in a week | ✓ | ✓ |
因为课题组要求,以后的笔记更新会在学校的网站上。偶尔偶尔也会回来加更一下
待办
待办 | 在办 | 完成 |
1. alpha go蒙特卡洛的深度理解 | ✓ | ✓ |
2. Beta分布,高斯分布,T,F分布等分布 | ✓ | ✓ |
3. 两种含义的LDA和PCA | | |
4. 各种样子的Softmax | | |
5. 实体对齐算法汇总 | ✓ | |
6. 图嵌入[表示学习] | ✓ | |
7. 之前的打过草稿的算法单独摘出来写成文章 | | |
8. 矩阵分解方法和意义 | ✓ | ✓ |
9. Gitlab使用手册编写 | ✓ | ✓ |
10.毕业论文修改记录给老师 | ✓ | ✓ |
11.强化学习大体综述 | | |
12.easy rl强化学习学习 | | |
13.SVD等矩阵分解方式 | ✓ | ✓ |
14.用别的方法进行梯度下降试试看 | ✓ | |
15.集成学习各种方法与方差偏差变化(梯度提升树为起点) | ✓ | |
16.毕业论文跑代码 | ✓ | ✓ |
17.windows下的针对vpn的路由设置 | ✓ | ✓ |
18.最近工作的好的地方进行整理 | ✓ | ✓ |
19.GANs实际上手 | ✓ | |
20.Wasserstein相关的各种散度、分布 | ✓ | ✓ |
21.记一下ensamble这个自己想出来的方法 | | |
22.记一下篱笆型LSTM | | |
23.怎么改到focal loss,有什么限制和优缺点 | | |
24.交叉熵是一个什么角度来衡量信息差的 | ✓ | ✓ |
25.决策树,回归树,分类树是个啥? | ✓ | ✓ |
26.KL散度,JS散度,Wasserstein距离是啥 | ✓ | ✓ |
27.拉格朗日算子法是个什么样的算法? | ✓ | ✓ |
28.对抗样本学习方法综述 | ✓ | |
29.从self-attention到BERT | ✓ | ✓ |
30.从BERT到GPT | ✓ | ✓ |
31.EM算法是什么 | | |
32.XGB和决策树为啥这么好,怎么改 | ✓ | |
重要程度的待办【实时更新】
待办 | 在办 | 完成 |
1.XGB和决策树为啥这么好,怎么改,写文章 | ✓ | |
2.EM算法是什么 | | |
3.图嵌入和GNN | | |
4.easy rl强化学习学习 | | |
5.BERT在各种层各种任务的总结【以池化层用来文本分类为例】 | | |
6.XGB和LightGBM在实现决策树时的不同原理和实例 | | |
7.能不能让XGB处理部分文本呢?或者处理部分文本时能考虑跟XGB一起? | | |
8.能不能让文本分类在处理整体文本时,加入文本的特征信息 | | |
9.胶囊神经网络?静态动态路由? | | |
10:对抗训练和强化学习 | | |
11:元学习,提示学习 | | |
12:怎么只对mask的地方进行预测。。啥原理啊 | | |
13:huggingface对五种模型的总结https://huggingface.co/docs/transformers/model_summary | | |
14.最新的那个chatGPT社会化的原理? | | |
15.重新定义lstm,xgb的各种计算方法,cart还有信息增益啥的 | | |
16.huggingface的autoTokenizer和BertTokenizer和其他的区别 | | |
17.bert各层用处,为啥这里文本分类就用那个池化层了,能不能改的更好 | | |
18.总结我自己的那个补全的函数,看看能不能优化 | | |
19.F.cross交叉熵的用法,还有ignox_index。 | | |
20.趁机把正则表达式学会 | | |
21.怎么检查内存在哪里消耗?import pynvml不管用,因为跑model.py时提前分配 | | |
22.从GPT到ChatGPT | | |
Q.E.D.
Comments | 0 条评论