机器学习:无监督学习
文章目录
聚类Clustering
Kmeans
随机选取K个中心,然后计算每个点与中心的距离,找最近的,然后更新中心点
HAC
如何觉得距离的个数跟kmeans不一样,切的地方不一样导致的数量会不一样。
分布表示
降维
PCA
特征先归一化,然后计算投影,选择最大的方差的
w1 w_1 w1 与 w2 w_2 w2是垂直的,后续也是找垂直于它们的 w3 w_3 w3 …看需要多少维。
w 1 w1 w1就是最大的特征向量。然后找下一个 w 2 w2 w2
基本的内容组成,直线,点,斜线,圆圈等。一个数字就能用这些进行表示:
在强度,生命力,攻击力等方面各有侧重
Matrix Factorization
元素之间有些相同的特点。
这些事情是没有人知道的。
有的是只有这种关系矩阵,如果基于这些关系推断出关系:
可以将这个进行矩阵分解,得到两个向量相乘,但是会存在那种缺失值的话,可以考虑使用梯度下降方法:
只考虑有定义的值。
就可以预测缺失的值,然后就能判断每个人对某个物体的喜好程度,填充:
该算法可以用于推荐系统。
可以考虑通过梯度下降算法硬解一下。
MF也可以用于主题分析,LSA
Manifold Learning
从立体变成2d
LLE
Laplacian Eigenmaps
t-SEN
coil-20数据
两个分布越接近越好,KL散度,对这个问题做梯度下降的。
这种相似度计算方式会维持原来的距离。
来源地址:https://blog.csdn.net/uncle_ll/article/details/132010102
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341