TODO LIST 2023-10-4

2022-03-25   696 次阅读


doctoral study weekly working

waiting linedoingfinshed
1. How to calculate the information of matrix
2. How to desgine an experiment to verify the relationship of the information to xxx
3. If the information of the matrix is the best way?
4. Remenber the question waitting to be soloved: disentanglement
5. And try to find the way that change the loss with information of the matrix
6. Do a full literature review of information bottleneck in a week

待办

待办在办完成
1. alpha go蒙特卡洛的深度理解
2. Beta分布,高斯分布,T,F分布等分布
3. 两种含义的LDA和PCA
4. 各种样子的Softmax
5. 实体对齐算法汇总
6. 图嵌入[表示学习]
7. 之前的打过草稿的算法单独摘出来写成文章
8. 矩阵分解方法和意义
9. Gitlab使用手册编写
10.毕业论文修改记录给老师
11.强化学习大体综述
12.easy rl强化学习学习
13.SVD等矩阵分解方式
14.用别的方法进行梯度下降试试看
15.集成学习各种方法与方差偏差变化(梯度提升树为起点)
16.毕业论文跑代码
17.windows下的针对vpn的路由设置
18.最近工作的好的地方进行整理
19.GANs实际上手
20.Wasserstein相关的各种散度、分布
21.记一下ensamble这个自己想出来的方法
22.记一下篱笆型LSTM
23.怎么改到focal loss,有什么限制和优缺点
24.交叉熵是一个什么角度来衡量信息差的
25.决策树,回归树,分类树是个啥?
26.KL散度,JS散度,Wasserstein距离是啥
27.拉格朗日算子法是个什么样的算法?
28.对抗样本学习方法综述
29.从self-attention到BERT
30.从BERT到GPT
31.EM算法是什么
32.XGB和决策树为啥这么好,怎么改

重要程度的待办【实时更新】

待办在办完成
1.XGB和决策树为啥这么好,怎么改,写文章
2.EM算法是什么
3.图嵌入和GNN
4.easy rl强化学习学习
5.BERT在各种层各种任务的总结【以池化层用来文本分类为例】
6.XGB和LightGBM在实现决策树时的不同原理和实例
7.能不能让XGB处理部分文本呢?或者处理部分文本时能考虑跟XGB一起?
8.能不能让文本分类在处理整体文本时,加入文本的特征信息
9.胶囊神经网络?静态动态路由?
10:对抗训练和强化学习
11:元学习,提示学习
12:怎么只对mask的地方进行预测。。啥原理啊
13:huggingface对五种模型的总结https://huggingface.co/docs/transformers/model_summary
14.最新的那个chatGPT社会化的原理?
15.重新定义lstm,xgb的各种计算方法,cart还有信息增益啥的
16.huggingface的autoTokenizer和BertTokenizer和其他的区别
17.bert各层用处,为啥这里文本分类就用那个池化层了,能不能改的更好
18.总结我自己的那个补全的函数,看看能不能优化
19.F.cross交叉熵的用法,还有ignox_index。
20.趁机把正则表达式学会
21.怎么检查内存在哪里消耗?import pynvml不管用,因为跑model.py时提前分配
22.从GPT到ChatGPT

Q.E.D.

知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议

无论在未来前做什么,未来都会普通的到来