什么是矩阵的模怎么计算中心化,中心化矩阵H怎样计算

区块链“去中心化”到底是指什么?_智慧资产吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:257贴子:
区块链“去中心化”到底是指什么?
去中心化并不是什么新词,它其实就是亚当o斯密的那只看不见的手:市场的自由竞争。算力集中本身就是市场的结果,任何一个开放系统在自由竞争下,都会形成专业化分工,这就好比生物有机体的组织分化。专业化的矿工,专业化的支付钱包,专业化的区块链数据服务商……这正是区块链去中心化的结果,而不是我们处心积虑要避免的后果。
报考一级消防师要求,学尔森13年考培经验为您解答,更有百度信贷分期付学费.
过去几年里,人们对区块链的最大误解可能就是对“去中心化”这个词的理解,按字面含义,去中心化就是节点的分散,数据的分散,矿工的分散,开发者的分散……甚至有人认为,矿工的分散(人人都能用个人电脑挖矿)是中本聪的初心,中本聪支持“一CPU一票”,即每个用户通过个人电脑、手机就能挖矿。还有人试图通过算法的改进,阻抗ASIC芯片的研发,避免算力的中心化,当然,这些努力都是掩耳盗铃,算法只能延缓专业化挖矿芯片的诞生,而不是阻止。
每个人都能通过自己的个人电脑、手机挖矿,这看起来是更公平、更去中心化的理想社会,可为什么区块链的安全性反而降低了呢?原因很简单,去中心化并不是一个描述状态的词,而是一个描述过程的词,状态的去中心化并不意味着过程的去中心化,僵尸网络的节点在状态上是分散的,但在行为模式上具有高度一致性。去中心化的本意是指,每个人参与共识的自由度。他有参与的权力,他也有退出的权力。在代码开源、信息对称的前提下,参与和决策的自由度,即意味着公平。
我们可以从资产配置的角度来理解去中心化,资产配置也同样有着分散风险、分散资产的需求。早在数百年前,莎士比亚《威尼斯商人》中的安东尼奥说道:“我的买卖的成败,并不完全寄托在一艘船上,更不是依赖着一处地方;我的全部财产,也不会因为一年的盈亏而受到影响。”也就是人们常说的“不把鸡蛋放在同一个篮子”策略。
但是,如果篮子里的资产具有相关性,那么,不管资产配置是多么分散,它都不能起到分散风险的作用。如果一个市场整体处于下跌通道,且市场中的绝大多数资产具有相关性,你的资产配置越分散,即意味着越稳定的资产损失。这个时候,反而不如赌徒式的孤注一掷,把所有资金配置在一个与多数资产不具相关性或具反相关性的资产之上。
贴吧热议榜
使用签名档&&
保存至快速回贴数据的标准化与中心化以及R语言中的scale详解
数据的标准化与中心化以及R语言中的scale详解
数据的标准化与中心化以及R语言中的scale详解
摘要: 1.数据的中心化
所谓数据的中心化是指数据集中的各项数据减去数据集的均值。
例如有数据集1, 2, 3, 6, 3,其均值为3,那么中心化之后的数据集为1-3,2-3,3-3,6-3,3-3,即:-2,-1,0,3,0
2.数据的标准化
所谓数据的标准化是...1.数据的中心化
所谓数据的中心化是指数据集中的各项数据减去数据集的均值。
例如有数据集1, 2, 3, 6, 3,其均值为3,那么中心化之后的数据集为1-3,2-3,3-3,6-3,3-3,即:-2,-1,0,3,0
2.数据的标准化
所谓数据的标准化是指中心化之后的数据在除以数据集的标准差,即数据集中的各项数据减去数据集的均值再除以数据集的标准差。
例如有数据集1, 2, 3, 6, 3,其均值为3,其标准差为1.87,那么标准化之后的数据集为(1-3)/1.87,(2-3)/1.87,(3-3)/1.87,(6-3)/1.87,(3-3)/1.87,即:-1.069,-0.535,0,1.604,0
数据中心化和标准化的意义是一样的,为了消除量纲对数据结构的影响。
在R语言中可以使用scale方法来对数据进行中心化和标准化:
#限定输出小数点后数字的位数为3位
& options(digits=3)
& data &- c(1, 2, 3, 6, 3)
#数据中心化
& scale(data, center=T,scale=F)
attr(,"scaled:center")
#数据标准化
& scale(data, center=T,scale=T)
[1,] -1.06904
[2,] -0.53452
attr(,"scaled:center")
attr(,"scaled:scale")
[1] 1.8708
scale方法中的两个参数center和scale的解释:
1.center和scale默认为真,即T或者TRUE
2.center为真表示数据中心化
3.scale为真表示数据标准化
发表评论:
TA的最新馆藏[转]&[转]&本帖子已过去太久远了,不再提供回复功能。算法(15)
部分资料来自他人博客,基础上进行理解
LDA参考 http://blog.csdn.net/warmyellow/article/details/5454943
LDA算法入门
一.&LDA算法概述:
线性判别式分析(,&LDA),也叫做Fisher线性判别(Fisher&Linear&Discriminant&,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一种有效的特征抽取方法。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。就是说,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。
二.&LDA假设以及符号说明:
假设对于一个空间有m个样本分别为x1,x2,……xm&即&每个x是一个n行的矩阵,其中表示属于i类的样本个数,假设有一个有c个类,则。
…………………………………………………………………………&类间离散度矩阵
…………………………………………………………………………&类内离散度矩阵
…………………………………………………………………………&属于i类的样本个数
&……………………………………………………………………………&第i个样本
&……………………………………………………………………………&所有样本的均值
&……………………………………………………………………………&类i的样本均值
三.&公式推导,算法形式化描述
根据符号说明可得类i的样本均值为:
&……………………………………………………………………&(1)
同理我们也可以得到总体样本均值:
…………………………………………………………………………&(2)
根据类间离散度矩阵和类内离散度矩阵定义,可以得到如下式子:
&&………………………………………………&(3)
……………………………………&(4)
当然还有另一种类间类内的离散度矩阵表达方式:
其中是指i类样本
的先验概率,即样本中属于i类的概率(),把代入第二组式子中,我们可以发现第一组式子只是比第二组式子都少乘了1/m,我们将在稍后进行讨论,其实对于乘不乘该1/m,对于算法本身并没有影响,现在我们分析一下算法的思想,
我们可以知道矩阵的实际意义是一个,这个矩阵所刻画的是该类与样本总体之间的关系,其中该矩阵对角线上的函数所代表的是该类相对样本总体的方差(即分散度),(横线是自己开始的认知混乱,把LDA公式当成了PCA快速计算里面的一个步骤,造成错误理解)用各子类作为样本,表示d个特征向量之间的相关性(假设是d维空间,有d个特征向量),那么,非对角线上的元素所代表的是不同特征向量之间的相关性,对角线元素反映的是d维中某个特征向量内的各子类相关性,是该类样本总体均值的协方差(即该类和总体样本的相关联度或称冗余度),所以根据公式(3)可知(3)式即把所有样本中各个样本根据自己所属的类计算出样本与总体的协方差矩阵的总和,这从宏观上描述了所有类和总体之间的离散冗余程度。同理可以的得出(4)式中为分类内各个样本和所属类之间的协方差矩阵之和,它所刻画的是从总体来看类内各个样本与类之间(这里所刻画的类特性是由是类内各个样本的平均值矩阵构成)离散度,其实从中可以看出不管是类内的样本期望矩阵还是总体样本期望矩阵,它们都只是充当一个媒介作用,不管是类内还是类间离散度矩阵都是从宏观上刻画出类与类之间的样本的离散度和类内样本和样本之间的离散度。
LDA做为一个分类的算法,我们当然希望它所分的类之间耦合度低,类内的聚合度高,即类内离散度矩阵的中的数值要小,而类间离散度矩阵中的数值要大,这样的分类的效果才好。
这里我们引入Fisher鉴别准则表达式:
PCA参考 &//covariance/
思考总结:
一维向量, 均值:表示向量平均数 & 方差:向量取值离散度 & 标准差:向量取值距向量均值的距离,方差开根号
二维向量, 协方差:表示两个向量之间的相关性,有2中计算方式&
& & & & 1、套用一维向量的方差公式,表示两个向量之间的相关性 ,
cov(X,Y)=∑ni=1(Xi-X?)(Yi-Y?)n-1
或者直接通过相关性公式计算:cov(X,Y)指向量x与向量y的 相关性, 样本矩阵MySample 10个样本,每个样本3个向量组成,所以这个样本矩阵 是每一个样本里面包含了多个向量 ,cov(MySample),指的是MySample里面的3个向量之间的相关性
协方差也只能处理二维问题,也就是只能反映2个向量之间的相关性,那维数多了自然就需要计算多个协方差,就需要协方差矩阵了
因此上面的 &三维向量的样本矩阵MySample 向量x,y,z之间的相关性 通过如下协方差矩阵来表示,。
为了描述方便,我们先将三个维度的数据分别赋值:
dim1 = MySample(:,1);dim2 = MySample(:,2);dim3 = MySample(:,3);
计算dim1与dim2,dim1与dim3,dim2与dim3的协方差:
sum( (dim1-mean(dim1)) .* (dim2-mean(dim2)) ) / ( size(MySample,1)-1 ) sum( (dim1-mean(dim1)) .* (dim3-mean(dim3)) ) / ( size(MySample,1)-1 ) sum( (dim2-mean(dim2)) .* (dim3-mean(dim3)) ) / ( size(MySample,1)-1 )
搞清楚了这个后面就容易多了,协方差矩阵的对角线就是各个维度上的方差,下面我们依次计算:
std(dim1)^2 std(dim2)^2 std(dim3)^2
这样,我们就得到了计算协方差矩阵所需要的所有数据。
直接调用Matlab自带的cov函数进行验证:
cov(MySample)
把我们计算的数据对号入座,是一摸一样的
2、向量中心化,样本矩阵转置*矩阵,除以(n-1)
Update:今天突然发现,原来协方差矩阵还可以这样计算,先让样本矩阵中心化,即每一维度减去该维度的均值,使每一维度上的均值为0,然后直接用新的到的样本矩阵乘上它的转置,然后除以(N-1)即可。其实这种方法也是由前面的公式通道而来,只不过理解起来不是很直观,但在抽象的公式推导时还是很常用的!同样给出Matlab代码实现:
X = MySample - repmat(mean(MySample),10,1);&&& C = (X'*X)./(size(X,1)-1);
注意区分:
1、矩阵转置*矩阵【&(X'*X)&】&并不是等于&协方差矩阵,
&而是协方差矩阵可以通过样本矩阵转置相乘,再除以(n-1)的方式快速计算得到。
向量*向量的转置 = ?
2、LDA计算公式 既不是协方差的公式【差-积X*Y-和-均】,也不是 【矩阵转置*矩阵(X'*X)&】
而是【差-积(向量与自己转置的积(X*X'))-
形式上更类似于 方差的概念【差-积(自己与自己)-和-均】 ,只不过方差里面的自乘积元素是标量, LDA里面自乘积的元素是矢量
3、卷积 & 不要把卷积和相关性混了
matlab中,cov() 是相关系数计算函数 & &卷积函数 conv——一维卷积 & conv2——二维卷积
矩阵没有卷积,向量才有卷积
卷积:http://blog.csdn.net/anan1205/article/details/
没有矩阵卷积的,只有向量卷积。当然,如果你硬要把向量理解为一个1*n的矩阵,那也说的过去。 图像中是存在矩阵卷积操作的。
所谓两个向量卷积,说白了就是多项式乘法。比如:p=[1 2 3],q=[1 1]是两个向量,p和q的卷积如下:把p的元素作为一个多项式的系数,多项式按升幂(或降幂)排列,比如就按升幂吧,写出对应的多项式:1+2x+3x^2;同样的,把q的元素也作为多项式的系数按升幂排列,写出对应的多项式:1+x。卷积就是“两个多项式相乘取系数”。(1+2x+3x^2)×(1+x)=1+3x+5x^2+3x^3所以p和q卷积的结果就是[1
3 5 3]。记住,当确定是用升幂或是降幂排列后,下面也都要按这个方式排列,否则结果是不对的。你也可以用matlab试试p=[1 2 3]q=[1 1]conv(p,q)看看和计算的结果是否相同。
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:64313次
积分:2550
积分:2550
排名:第11183名
原创:166篇
转载:215篇
(2)(60)(43)(11)(22)(28)(1)(6)(1)(3)(22)(8)(2)(2)(1)(1)(12)(17)(46)(48)(23)(2)(7)(3)(1)(10)(1)

我要回帖

更多关于 怎样计算矩阵的特征值 的文章

 

随机推荐