关于线性模型的介绍:
郑瀚Andrew,博客园,https://www.cnblogs.com/LittleHann/p/10498579.html
关于最小二乘法与梯度下降的区别:
任妍Carol的回答 - 知乎 https://www.zhihu.com/question/20822481/answer/576692537
关于对比学习:
对白,51CTO,https://www.51cto.com/article/681705.html
对比学习,就是在没有更大标注数据集的情况下,如何采用自监督预训练模式,来从中吸取图像本身的先验知识分布,得到一个预训练的模型
条件概率分布:
机器之心,https://www.jiqizhixin.com/graph/technologies/d299def3-4c12-4555-9005-6d2da3a7b9b3
极大似然估计:
一文搞懂极大似然估计 - 忆臻的文章 - 知乎 https://zhuanlan.zhihu.com/p/26614750
长文总结半监督学习
PaperWeekly的文章 - 知乎 https://zhuanlan.zhihu.com/p/252343352
知识蒸馏的介绍
【经典简读】知识蒸馏经典之作 - 潘小小的文章 - 知乎 https://zhuanlan.zhihu.com/p/102038521
softmax的特点和作用
Softmax函数的特点和作用是什么? - 忆臻的回答 - 知乎 https://www.zhihu.com/question/23765351/answer/240869755
L1、L2范数及正则化详解(这篇文章给我讲明白了什么叫正则)
L1和L2 详解(范数、损失函数、正则化) - 人工智能的文章 - 知乎
https://zhuanlan.zhihu.com/p/137073968
Comments | NOTHING