第四章
矩阵和线性映射
4.1用矩阵表示线性图
命题3.13表明,给定两个向量空间e和f以及e的基(uj)j∈j,
基向量(f:e→f)的每一个线性映射f下的任意向量空间之间的同构由族(uj)j∈ej唯一确定。因此,特别是考虑到尺寸j和k(jf)。如果(ufj))=j j∈kj=图像的(j)1,我们得到,…,n,a
维度n的向量空间e与向量空间kn同构。
如果我们也有f的基(vi)i∈i,那么每个向量f(uj)都可以用一种独特的方式写成
F(UJ)=Xaijvi,
我爱我
式中j∈j,对于一个标量族(aij)i∈i,因此,对于e的两个基(uj)j∈j和f的(vi)i∈i,线性映射f完全由一个可能无限的“i×j-矩阵”m(f)=(aij)i∈i,j∈j确定。
注:注意,我们故意将索引集j赋给e的基(uj)j∈j,将索引集i赋给f的基(vi)i∈i,这样,与f:e→f相关的矩阵m(f)的行被i索引,矩阵m(f)的列被j索引。显然,这导致了令人不愉快的逆转。如果我们考虑e的基(ui)i∈i和f的基(vj)j∈j,我们将得到一个j×i矩阵m(f)=(aj i)j∈j,i∈i,不管我们做什么,都会有一个反转!我们决定坚持e的基(uj)j∈j和f的基(vi)i∈i,这样我们得到一个i×j矩阵m(f),知道我们可能偶尔会遇到这个决定!
当i和j是有限的,也就是说,当i_=m和j=n时,线性映射f由矩阵m(f)确定,其中j列中的条目是
八十三
基(v1,…,vm)上的向量f(uj),即矩阵
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 |
---|---|---|---|
第i行和第j列的条目为aij(1≤i≤m,1≤j≤n)。
现在我们将证明,当e和f有有限维时,线性映射可以很方便地用矩阵表示,并且线性映射的组合对应于矩阵乘法。由于埃米尔·阿汀的缘故,我们将非常密切地遵循一种优雅的呈现方法。
设e和f为两个向量空间,假设e有一个有限基(u1,…,un),f有一个有限基(v1,…,vm)。回想一下,我们已经证明,每个向量x∈e都可以用一种独特的方式写成
x =x1u1+·····+xnun,
同样地,每一个向量y∈f都可以用一种独特的方式写成
y =y1v1+·····+ymvm。
设f:e→f为e与f之间的线性映射,那么,对于e中的每一个x=x1u1+·····+xnun,通过线性,我们得到f(x)=x1f(u1)+·····+xnf(un)。
让
,
或者更简明扼要地说,
对于每个j,1≤j≤n。这可以通过将f(uj)的系数a1j,a2j,…,amj写在基(v1,…,vm)上,作为矩阵的jth列来表示,如下所示:
F(U1)F(U2)…F(UN)
v1 a11 a12…A1N V2 A21 A22…A2N_
……………__
虚拟机AM1 AM2…AMN
然后,将每个f(uj)的右边代入f(x)的表达式,我们得到
,
它通过重新组合项来获得vi的线性组合,从而得出
.
因此,假设f(x)=y=y1v1+····+ymvm,我们得到
(1)
对于所有i,1≤i≤m。
为了使事情更具体,让我们来处理n=3和m=2的情况。在这种情况下,
F(U1)=A11v1+A21v2 F(U2)=A12v1+A22v2 F(U3)=A13v1+A23v2,
以矩阵形式表示为
,
对于任何x=x1u1+x2u2+x3u3,我们有
f(x)=f(x1u1+x2u2+x3u3)
=x1f(u1)+x2f(u2)+x3f(u3)
=x1(a11v1+a21v2)+x2(a12v1+a2v2)+x3(a13v1+a23v2)=(a11x1+a12x2+a13x3)v1+(a21x1+a2x2+a23x3)v2。
因此,由于y=y1v1+y2v2,
我们有
y1=a11x1+a12x2+a13x3 y2=a21x1+a2x2+a23x3。
这与矩阵方程一致。
.
现在我们用矩阵形式化线性映射的表示。
定义4.1.设e和f为两个向量空间,设(u1,…,un)为e的基,(v1,…,vm)为f的基,每个向量x∈e在基(u1,…,un)中表示为x=x1u1+·····+xnun由列矩阵表示
同样地,对于基(v1,…,vm)中表示的每个向量y∈f。
每个线性映射f:e→f由矩阵m(f)=(aij)表示,其中aij是基(v1,…,vm)上向量f(uj)的第i个分量,即
,每j,1≤j≤n。
基础(v1,…,vm)上f(uj)的系数a1j,a2j,…,amj构成
网络错误 | ||||
---|---|---|---|---|
网络错误 | 网络错误 | 网络错误 | 网络错误 | |
网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 |
与线性映射f:e→f相关的矩阵m(f)称为f相对于基(u1,…,un)和(v1,…,vm)的矩阵。当e=f且基(v1,…,vm)与e的基(u1,…,un)相同时,与f:e→e(如上)相关联的矩阵m(f)称为f相对于基(u1,…,un)的矩阵。
备注:在定义3.10之后的备注中,没有理由假定基(u1,…,un)和(v1,…,vm)中的向量是以任何特定方式排序的。然而,假设自然顺序通常很方便。如果是这样,作者有时将矩阵m(f)称为关于有序基(u1,…,un)和(v1,…,vm)的f矩阵。
现在让我们考虑如何用基来表示线性映射的组成。
设e、f和g为三个向量空间,其中e的基(u1,…,up),f的基(v1,…,vn),g的基(w1,…,wm)。设g:e→f和f:f→g为线性映射。如前所述,G:E→F由基向量UJ的图像决定,F:F→G由基向量VK的图像决定。我们想了解f g:e→g是如何由基向量uj的图像确定的。
备注:请注意,我们正在考虑线性映射g:e→f和f:f→g,而不是f:e→f和g:f→g,这将生成f g:e→g而不是g f:e→g的组合。我们可能不寻常的选择是由以下事实驱动的:如果f由矩阵m(f)=(aik)和g表示用矩阵m(g)=(bkj)表示,则f g:e→g用矩阵a和b的乘积ab表示。如果我们采用了另一种选择,其中f:e→f和g:f→g,则g f:e→g用乘积ba表示。就个人而言,当两个矩阵的积是AB而不是BA写的时候,我们发现更容易记住这两个矩阵积的j行和j列中的条目公式。显然,这是一个品味问题!我们将不得不接受我们可能非正统的选择。
因此,让
,
对于每k,1≤k≤n,并让
,
对于每个j,1≤j≤p;在矩阵形式中,我们有
网络错误 | 网络错误 | 网络错误 | 网络错误 | |
---|---|---|---|---|
网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 |
网络错误 | 网络错误 | 网络错误 | 网络错误 | |
网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 |
网络错误 |
x =x1u1+·····+xpup,
假设g(x)=y=y1v1+····+ynvn,我们有
(2)
对于所有K,1≤K≤N,以及
y =y1v1+·····+ynvn,
假设f(y)=z=z1w1+····+zmwm,我们有
(3)
对于所有的i,1≤i≤m。那么,如果y=g(x)和z=f(y),我们有z=f(g(x)),鉴于(2)和(3),我们有
.
因此,将CIJ定义为
,
对于1≤i≤m和1≤j≤p,我们有
(4)
恒等式(4)表明,线性映射的合成对应于矩阵的乘积。
然后,给出用矩阵m(f)=(aij)w.r.t表示的线性映射f:e→f。用方程(1)表示基(u1,…,un)和(v1,…,vm),即
矩阵乘法的定义,方程y=f(x)对应于矩阵方程m(y)=m(f)m(x),也就是说,
.
网络错误 | |||||
---|---|---|---|---|---|
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 |
有时,需要将表示f的矩阵m(f)的符号中的基(u1,…,un)和(v1,…,vm)与这些基结合起来。结果这是一个混乱的企业!
我们建议采取以下行动:
定义4.2.对于e和f的基,写u=(u1,…,un)和v=(v1,…,v m),并用mu,v(f)表示f相对于u和v的矩阵。此外,对于x的坐标m(x)=(x1,…,xn)写xu,对于y的坐标m(y)=(y1,…,xn)写yv。T.基础V。然后,
y=f(x)
以矩阵形式表示为yv=mu,v(f)xu。
当u=v时,我们将mu,v(f)缩写为mu(f)。
上述表示法看似合理,但有一点缺点,即在表达式mu,v(f)xu中,输入到矩阵mu,v(f)的参数xu不出现在mu,v(f)的下标u旁边。我们可以使用符号mv,u(f),有些人会这样做。但是,我们发现有点混淆,当f从e空间映射到f空间时,v在u之前,所以我们更喜欢使用符号mu,v(f)。
请注意,其他作者(如Meyer[122]使用符号[f]u、v,其他作者(如Dummit和Foote[55])使用符号mv(f),而不是mu、v(f)。情况越来越糟!
U
您可以找到符号mvu(f)(如lang[106]所示),或u[f]v,或其他奇怪的符号。
让我们用一个矩阵来说明具体情况下线性图的表示。设e为次数最多为4的多项式的向量空间r[x]4,设f为次数最多为3的多项式的向量空间r[x]3,且线性映射为导数映射d:即,
d(p+q)=dp+dq d(λp)=λdp,
我们选择(1,x,x2,x3,x4)作为E和(1,x,x2,x3)的基础,作为f的基础,然后通过在1(x,x,x2,x3)的基础上,分别表示i=0,1,2,3,4的每个基向量Xi的导数DXI,得到与D相关的4×5矩阵D。我们发现
.
那么,如果p表示多项式
P=3x4−5x3+x2−7x+5,
我们有
dp=12x3−15x2+2x−7,
多项式p由矢量(5、−7,1、−5,3)表示,dp由矢量(−7,2、−15,12)表示,我们有
,
如预期的那样!D的核(空空间)由度0的多项式组成,即常数多项式。因此,dim(kerd)=1,从
dim(e)=dim(kerd)+dim(imd)
(见定理5.11),我们得到dim(imd)=4(因为dim(e)=5)。
有趣的是,让我们从向量空间r[x] 3中找出线性映射到向量空间r[x] 4,由i(i,0,1,2,3)的积分(求基元,或反导数)给出。代表R的5×4矩阵与之前相同的基是
0 0 0 0_
10 0 0_
S=0 1/2 0 0。
0 0 1/3 0_
0 0 0 1/4
我们证实ds=i4,
,
应该的!方程d s=i4表明s是内射的,d是左逆的。但是,sd=6 I5,而不是
,
因为常数多项式(度为0的多项式)属于D的核心。
将矩阵m(f)w.r.t.的基(u1,…,un)和(v1,…,vm)关联到线性映射f:e→f的函数具有矩阵乘法对应于线性映射组合的性质。这允许我们将线性映射的属性转移到矩阵中。下面是这种技术的一个例子:
提案4.1.(1)给定任意矩阵a∈mm,n(k),b∈mn,p(k),c∈mp,q(k),我们得到
(ab)c=a(bc);
也就是说,矩阵乘法是关联的。
(2)给定任意矩阵a,b∈mm,n(k)和c,d∈mn,p(k),对于所有的λ∈k,我们得到
(A+B)C=AC+BC
A(C+D)=AC+AD
(λa)c=λ(ac)
A(λc)=λ(ac)
使矩阵乘法·:mm,n(k)×mn,p(k)→mm,p(k)为双线性。证据。(1)每个m×n矩阵a=(aij)定义函数fa:kn→km,由
fa(x)=ax,
对于所有x∈kn。立即证明fa是线性的,用kn和km表示fa的矩阵m(fa)等于a,公式(4)证明
m(fa_fb)=m(fa)m(fb)=ab,
所以我们得到
m((fa fb)fc)=m(fa fb)m(fc)=(ab)c
和
m(fa(fb_fc))=m(fa)m(fb_fc)=a(bc)
由于函数的组合是关联的,所以我们有(fa fb)fc=fa(fb fc),这意味着
(ab)c=a(bc)。
(2)立即证实,如果f1,f2∈homk(e,f),a,b∈mm,n(k),(u1,…,un)是e的任何基,(v1,…,vm)是f的任何基,则
m(f1+f2)=m(f1)+m(f2)fa+b=fa+fb。
然后我们有了
(a+b)c=m(fa+b)m(fc)
=m(fa+b_fc)
=m((fa+fb)fc)
=m((fa_fc)+(fb_fc))。
=m(fa_fc)+m(fb_fc)
=m(fa)m(fc)+m(fb)m(fc)=ac+bc。
用相似的方法证明了方程A(c+d)=ac+ad,最后两个方程很容易得到验证。我们也可以通过矩阵计算来验证所有的恒等式。
注意,命题4.1意味着方阵的向量空间mn(k)是
(非交换)单位在的环。(它甚至表明mn(k)是一个结合代数。)
下面的命题说明了hom(e,f)与m m,n之间映射f→7 m(f)的主要性质,简而言之,它是向量空间的同构。
提案4.2.给定三个向量空间e,f,g及其各自的基(u1,…,up),(v1,…,vn)和(w1,…,wm),将矩阵m(g)关联到线性映射g:e→f的映射m:hom(e,f)→mn,p满足所有x∈e,all g,h:e→f和all f:f→g的以下性质:
m(g(x))=m(g)m(x)
m(g+h)=m(g)+m(h)m(λg)=λm(g)
m(f_g)=m(f)m(g)
4.2。基矩阵的变化
其中m(x)是与向量x相关联的列向量,m(g(x))是与g(x)相关联的列向量,如定义4.1所述。
因此,m:hom(e,f)→m n,p是向量空间的同构,当p=n且基(v1,…,vn)与基(u1,…,up)相同时,m:hom(e,e)→mn是环的同构。
证据。m(g(x))=m(g)m(x)是在陈述命题之前用同一性(1)表示的。等式m(g+h)=m(g)+m(h)和m(λg)=λm(g)是直接的,m(f_g)=m(f)m(g)遵循(4)和矩阵乘法的定义。映射m:hom(e,f)→mn,p显然是内射的,因为每个矩阵定义了一个线性映射(见命题4.1),它也是内射的,因此是双射的。鉴于上述恒等式,它是同构的(与m:hom(e,e)→mn相似,其中命题4.1用于表示mn是一个环)。
从命题4.2来看,将有限维向量空间中的向量表示为列向量而不是行向量似乎更可取。因此,从现在开始,我们将RN的向量(或者更一般地说,kn的向量)表示为columm向量。
4.2基矩阵的变化
重要的是要注意,命题4.2给出的同构m:hom(e,f)→mn,p取决于碱基(u1,…,up)和(v1,…,vn)的选择,同构m:hom(e,e)→mn也同样取决于碱基(u1,…,un)的选择。因此,了解基的变化如何影响线性映射f:e→f作为矩阵的表示是很有用的。需要以下简单的建议。
提案4.3.设e为向量空间,设(u1,…,un)为e的基础。对于每个族(v1,…,vn),设p=(aij)为定义的矩阵。矩阵p是可逆的,iff(v1,…,vn)是e的基础。
证据。注意,我们有p=m(f),与唯一线性映射相关的矩阵f:e→e,这样f(ui)=vi。根据命题3.13,f是双目标iff(v1,…,vn)是e的基础。此外,很明显,中的单位矩阵是与单位id相关的矩阵:e→e w.r.t.an。Y基。如果f是同构,那么f f−1=f−1 f=id,根据命题4.2,我们得到m(f)m(f−1)=m(f−1)m(f)=in,表明p是可逆的,m(f−1)=p−1。
提案4.3提出了以下定义。
定义4.3.给定一个维数为n的向量空间e,对于e的任意两个基(u1,…,un)和(v1,…,vn),设p=(aij)为可逆矩阵,定义如下:
,
也就是关于碱基(v1,…,vn)和(u1,…,un)的单位ID的矩阵:e→e。实际上,我们在基(u1,…,un)上表示每个id(vj)=vj。
VJ的系数a1j,a2j,…,aj在基(u1,…,un)上形成了
网络错误 | ||||
---|---|---|---|---|
网络错误 | 网络错误 | 网络错误 | 网络错误 | |
网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 |
矩阵p被称为基矩阵从(u1,…,un)到(v1,…,vn)的变化。
显然,基矩阵从(v1,…,vn)到(u1,…,un)的变化是p-1。因为p=(aij)是关于基(v1,…,vn)和
(u1,…
在第4.2号提案的基础上(v1,…,vn),我们有
,
表明X(过)(U1,…,Un)的旧坐标(XI)用新坐标表示((V1,…,VN))。
现在,我们面临着一个痛苦的任务,分配一个“好”的符号,把基u=(u1,…,un)和v=(v1,…,vn)合并到基矩阵从u变为v的符号中。因为基矩阵从u变为v是关于基v的标识映射ide的矩阵。按照这个顺序,我们可以用mv,u(id)来表示它(meyer[122]使用符号[i]v,u)。我们更喜欢使用mv,u(id)的缩写。
定义4.4.表示基矩阵从u到v的变化。
U.
注意
.
那么,如果我们写x u=(x1,…,xn),表示x相对于u的旧坐标,和)表示x相对于v的新坐标,我们得到
xu=pv,u xv,xv=pv−,1u xu。
上面可能回顾一下,但要记住,矩阵mu,v(f)接受以U为基础表示的输入,以V为基础表示的输出。因此,pv,u接受以V为基础表示的输入,以U为基础表示的输出,xu=pv,u xv符合这一观点!
4.2。基矩阵的变化
注意一些作者(如Artin[7])定义了基矩阵从u到的变化。在这个观点下,旧的基础u用新的基础v表示,我们发现这有点不自然。而且,在实践中,似乎新的基础经常用旧的基础来表达,而不是用另一种方式来表达。
由于矩阵P=PV,U在旧基(U1,…,Un)的基础上表达了新的基(V1,…,VN),我们观察到矢量X的坐标(XI)在基变化的相反方向上变化。由于这个原因,向量有时被认为是反变的。然而,这个表达没有意义!实际上,不依赖于特定基础的内在量的向量。有意义的是,矢量的坐标以一种反变的方式变化。
让我们考虑一些改变基础的具体例子。
例4.1.设e=f=r2,其中u1=(1,0),u2=(0,1),v1=(1,1)和v2=(-1,1)。基矩阵p从基u=(u1,u2)到基v=(v1,v2)的变化是
它的反方向是
.
-
相对于(u1,u2)的旧坐标(x1,x2)表示为相对于(v1,v2)的新坐标()。
,
关于(v1,v2)的新坐标()用关于(u1,u2)的旧坐标(x1,x2)表示为
.
例4.2.设e=f=r[x]3为次数最多为3的多项式集,并考虑基U=(1,x,x2,x3)和),其中
)是3阶的伯恩斯坦多项式,由
.
通过扩展伯恩斯坦多项式,我们发现基矩阵pv,u的变化由
.
我们还发现pv,u的倒数是
.
因此,基于v的多项式2x3−x+1的坐标为
.
我们的下一个例子是haar小波,它是信号处理的基本工具。
4.3 Haar基向量和小波的一瞥
我们首先考虑r4中的haar小波。小波在音频和视频信号处理中起着重要的作用,尤其是对于将长信号压缩成比保留足够信息小得多的信号,这样当它们被播放时,我们就看不到或听不到任何区别。
考虑四个向量w1,w2,w3,w4,由
.
请注意,这些向量是成对正交的,因此它们确实是线性无关的(我们将在后面的章节中看到这一点)。设w=w1,w2,w3,w4为haar基,设u=e1,e2,e3,e4为r4的规范基。基矩阵w=pw,u从
u到w由
,
−−
我们很容易发现w的倒数由
.
因此,u基上的向量v=(6,4,5,1)在haar基上变成c=(c1,c2,c3,c4)
W,带
.
给定一个信号v=(v1,v2,v3,v4),我们首先通过计算c=w−1v将v转换为其系数c=(c1,c2,c3,c4)。观察
是信号v的总平均值。系数c1对应于图像(或声音)的背景。然后,c2给出v的粗略细节,而c3给出v的第一部分的细节,c4给出v的下半部分的细节。
信号重建包括计算v=wc。好的压缩技巧是去掉C的一些系数(设置为零),获得一个压缩的信号C,并且仍然保留足够的关键信息,以便重建的信号V=wc b b b看起来几乎和原始信号V一样好。因此,步骤是:输入V−→系数c=w−1v−→压缩c−→压缩v=wc。B-B
这种压缩方案使现代视频会议成为可能。
事实证明,在不实际使用w-1的情况下,有一种更快的方法可以找到c=w-1v。这与Haar小波的多尺度性质有关。
给出图4.1所示的原始信号v=(6,4,5,1),我们计算平均值和半差,得到图4.2。我们得到系数c3=1和c4=2。然后,
网络错误 | |||
---|---|---|---|
网络错误 | 网络错误 | ||
网络错误 | |||
图4.1:原始信号V
我们再次计算平均值和半差,得到图4.3。我们得到系数c1=4和c2=1。请注意,原始信号V可以从图4.2中的两个信号重新连接,图4.2左侧的信号可以从图4.3中的两个信号重新构造。
网络错误 | 网络错误 | ||
---|---|---|---|
网络错误 | 网络错误 |
二
一
2
图4.2:第一个平均值和上半年的差异
网络错误 | 网络错误 | 网络错误 | 网络错误 |
---|---|---|---|
1 1
-1-1个
图4.3:第二个平均值和下半年差异
该方法可推广到任意长度2n的信号,前一种情况对应n=2。让我们考虑n=3的情况。HAAR基础(w1、w2、w3、w4、w5、w6、w7、w8)是
网络错误 | |||||||
---|---|---|---|---|---|---|---|
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 0 网络错误 1 网络错误 网络错误 |
这个矩阵的列是正交的,很容易看出
w−1=diag(1/8,1/8,1/4,1/4,1/2,1/2,1/2,1/2)w>。
一种模式开始出现。看起来第二个haar基向量w2是所有其他基向量的“母亲”,除了第一个,它的目的是执行平均。实际上,一般来说,
,
其他的haar基向量是通过“缩放和移动过程”获得的。从w2开始,缩放过程生成向量。
W3,W5,W9,…,W2J+1,…,W2N−1+1,
这样,W2J+1+1通过形成两个连续的块(1和−1是W2J+1中块大小的一半),并将所有其他条目设置为零,从W2J+1获得。观察W2J+1有2J块2N−J元素。移动过程包括通过从左侧插入一个(k−1)2n−j零块(0≤j≤n−1和1≤k≤2j)将w2j+1中的1和−1块向右移动。因此,我们得出w2j+k的以下公式:
当0≤j≤n−1和1≤k≤2j.当然
.
如果我们通过让k从0到2j−1变化,并使用索引j而不是2j来稍微改变我们的索引,上面的公式看起来会更好一些。
定义4.5.维2n的haar基向量表示为
,
哪里
0 1≤i≤k2n−j
__
j 1 k2n−j+1≤i≤k2n−j+2n−j−1 hk(i)=−k2n−j+2n−j−1+1≤i≤(k+1)2n−j
1_
0(k+1)2n−j+1≤i≤2n,
当0≤J≤N−1和0≤K≤2J−1时。列为向量的2n×2n矩阵
,
(按这个顺序),称为维2n的haar矩阵,用wn表示。
结果表明,如果我们将向量u=(u1,…,um)解释为区间[0,1]上的分段线性函数,有一种更好地理解这些公式的方法。
定义4.6.给定一个向量u=(u1,…,um),分段线性函数plf(u)被定义为plf(u)(x)=ui,
换句话说,函数plf(u)在间隔[0,1/m]上具有值u1,在[1/m,2/m]上具有值u2,在间隔[m−1/m,1]上具有值um。
图4.4:分段线性函数plf(u)
例如,与向量关联的分段线性函数
U=(2.4、2.2、2.15、2.05、6.8、2.8、−1.1、−1.3)
如图4.4所示。
然后,每个基向量对应于函数
.
特别是,对于所有n,haar基向量
h00=w2=(1,…,1,−1,…,−1)
|新西兰2
得出相同的分段线性函数ψ,由
网络错误 | |
---|---|
如图4.5所示。那么,很容易看出这是由简单表达式ψk j(x)=ψ(2jx−k),0≤j≤n−1,0≤k≤2j−1给出的。
J
上面的公式表明,ψk是由ψ通过缩放和移动得到的。
定义4.7.函数)是一个分段线性函数,在[0,1]上有一个常量值1,函数)与haar小波一起被称为haar小波。
我们可以使用更快的算法,使用平均和差分,而不是使用w−1在haar基础上将向量u转换为系数的向量c,并使用矩阵w从haar系数c重建向量u。
图4.5:Haar小波ψ
如果c是维2n的Haar系数的向量,我们计算向量u0,u1,…,un的序列如下:
U0= C
UJ+1=UJ
UJ+1(2I−1)=UJ(I)+UJ(2J+I)UJ+1(2I)=UJ(I)−UJ(2J+I)、
对于j=0,…,n−1和i=1,…,2j,重构向量(信号)为u=un。
如果u是维2n的向量,我们计算向量cn、cn-1、…、c0的序列如下:
CN= U
Cj=Cj+1
Cj(i)=(Cj+1(2i−1)+Cj+1(2i))/2 Cj(2j+i)=(Cj+1(2i−1)−Cj+1(2i))/2,
对于j=n−1,…,0和i=1,…,2j,Haar基上的向量是c=c0。
我们把它作为一个练习,用两个变量u和c在matlab中实现上述程序,并通过迭代构建2j,这里是一个将n=3的向量转换为其haar系数的例子。
给定序列U=(31,29,23,17、-6、-8、-2、-4),我们得到序列
c3=(31、29、23、17、-6、-8、-2、-4)c2=(30、20、-7、-3、1、3)c1=(25、-5、5、-2、1、3、1、1)c0=(10、15、5、-2、1、3、1、1)
所以c=(10,15,5,−2,1,3,1,1)。相反,给定c=(10,15,5、-2,1,3,1,1),我们得到序列
U0=(10,15,5、-2,1,3,1,1)U1=(25、-5,5、-2,1,3,1,1)U2=(30,20、-7、-3,1,3,1,1)U3=(31,29,23,17、-6、-8、-2、-4),
它返回u=(31、29、23、17、-6、-8、-2、-4)。
有另一种递归的方法来构造维数2n的haar矩阵wn,这使得wn的列为什么是成对正交的,以及为什么上述算法确实是正确的(似乎没有人证明!).如果我们将wn分解为两个2n×2n-1矩阵,那么包含wn最后2n-1列的第二个矩阵具有非常简单的结构:它由向量组成。
(1、−1,0,…,0)
|新西兰2
以及2n−1−1移位的副本,如下图所示,n=3:
10 0 0_
−10 0 0_
0 1 0 0_
γ
0−1 0 0
γ
0 0 1 0。
0 0−1 0_
0 0 1_
0 0 0 0−1
注意,在我们的例子中,这个矩阵可以从单位矩阵I2n-1中获得。
,
通过形成2n×2n−1矩阵,用列向量替换每个1得到矩阵
以及每一个零点的列向量
现在,wn的前半部分,即由wn的前2n-1列组成的矩阵,可以通过形成2n×2n-1矩阵从wn-1中获得,该矩阵通过用列向量替换每个1获得。
每个−1的列向量
,
以及每一个零点的列向量
对于n=3,w3的前半部分是矩阵
1 1 0_
1 1 0_
1 1−1 0_
1 1−1 0_
1−1 0 1
1−1 0 1_
1−1 0−1 1−1 0−1
这确实是从
使用我们刚才描述的过程。
这些矩阵操作可以通过对被称为Kronecker产品的矩阵进行产品操作来方便地描述。
定义4.8.给定m×n矩阵a=(aij)和p×q矩阵b=(bij),a和b的Kronecker积(或张量积)a b是mp×nq矩阵。
网络错误 | 网络错误 | ||
---|---|---|---|
A B=…····································
AM1B AM2B···AMNB
可以看出是关联的,并且
(a b)(c d)=ac bd
(a b)>=a>b>,
只要AC和BD定义良好。然后,立即通过以下简洁的递归方程验证Wn:
,
用w0=(1)。如果我们让
对于n≥1,
那么,不难得到方程的严格证明。
,对于所有n≥1。
上述方程清楚地证明了wn的柱是成对正交的。
观察右块(尺寸为2n×2n−1)清楚地显示了如何在n−1步后将向量c后半部分中的细节系数相加并减去到部分重建向量后半部分中的条目中。
HAAR基础的一个重要和有吸引力的特点是它提供了信号的多分辨率分析。事实上,给定信号u,如果c=(c1,…,c2n)是其haar系数的矢量,低指数的系数给出关于u的粗略信息,高指数的系数表示精细信息。例如,如果u是一个对应于管弦乐队演奏的莫扎特协奏曲的音频信号,c1对应于“背景噪声”,c2对应于低音,c3对应于第一大提琴,c4对应于第二大提琴,c5,c6,c7,c7对应于中提琴,那么小提琴等。小波的多分辨率特性可以被用来压缩信号,也就是说,用更少的系数来表示它。下面是一个例子。考虑信号
U=(2.4、2.2、2.15、2.05、6.8、2.8、−1.1、−1.3),
其haar变换为c=(2,0.2,0.1,3,0.1,0.05,2,0.1)。
与u和c对应的分段线性曲线如图4.6所示。由于c中的一些系数很小(小于或等于0.2),我们可以用0替换它们来压缩c。我们得到c2=(2,0,0,3,0,0,2,0),
重建信号是
U2=(2,2,2,2,7,3、−1、−1)。
图4.7显示了对应于u2和c2的分段线性曲线。
-20 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 00 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
图4.6:信号及其haar变换
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
图4.7:压缩信号及其压缩haar变换
HAAR小波的一个有趣的(有趣的)应用是音频信号的压缩。事实证明,如果您的类型在matlab中加载handel,音频文件将加载到y表示的向量中,如果您键入sound(y),计算机将播放这段音乐。你可以把y转换成haar系数c的向量,y的长度是
−0.80 1 2 3 4 5 6 7−0.80 1 2 3 4 5 6 7 x 104 x 104
图4.8:信号“handel”及其haar变换
73113,所以首先对y的尾部进行调整,得到长度为65536=216的向量。图4.8显示了与y和c对应的信号图。然后,运行一个程序,将绝对值小于0.05的C的所有系数设置为零。这将37272系数设置为0。结果向量c2被转换成信号y2。Y2和C2对应的信号图如图4.9所示。当你输入声音(Y2)时,你会发现音乐
0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 x 104 x 104
图4.9:压缩信号“handel”及其haar变换
虽然听起来不那么清脆,但与原作差别不大。你应该和其他大于或小于0.05的数字一起玩。你应该听到当你输入声音(c)时会发生什么。它播放与y的haar变换c相对应的音乐,非常有趣。
HAAR变换的另一个优点是它可以立即推广到矩阵(甚至矩形)而不需要任何额外的努力!这样可以压缩数字图像。但首先,我们讨论了HAAR系数的归一化问题。正如我们之前所观察到的,haar基向量的2n×2n矩阵wn具有正交列,但其列没有单位长度。因此,不是wn的倒数,而是矩阵
DN=诊断
20 21 22 2N−1
定义4.9.正交矩阵
其列是标准化的haar基向量,
=迪亚格
称为归一化Haar变换矩阵。给定一个向量(信号)u,我们称之为u的归一化haar系数。
因为hn是正交的。
然后,一个反射的时刻表明,我们必须稍微修改计算算法和hnc,如下所示:当计算ujs的序列时,使用
,
当计算cjs的序列时,使用
.
注意,现在情况更加对称,以√2除法为代价。然而,对于长向量,这些算法在数值上更稳定。
备注:部分作者(如Stollnitz、Derose和Salesin[163])将c重新缩放1/√2n
u乘以√2n,这是因为基函数ψkj的范数不等于1(内积下)。归一化基函数是函数
.
现在让我们解释一下HAAR转换的二维版本。我们使用矩阵wn来描述版本,使用hn的方法是相同的(除了,但这不适用于wn-1)。给定一个2 m×2n矩阵A,我们可以首先使用haar变换wn-1将a的行转换为其haar系数,获得矩阵b,然后使用矩阵wm-1将b的列转换为其haar系数。因为列和行是在第一步交换的,
B=A(wn-1)>,
在第二步c=wm−1b,因此,我们
.
在另一个方向上,给定一个haar系数的矩阵c,我们首先将wm应用于c的列,得到b,然后再应用于b的行,从而重建矩阵a(图像)。
.
当然,我们实际上不需要转换wm和wn,也不需要执行矩阵乘法。我们只需要使用平均和差分的算法。下面是一个例子。
如果数据矩阵(图像)是8×8矩阵
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 |
---|---|---|---|
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 |
如我们所见,C的条目数比A多0个;它是A的压缩版本。我们可以通过设置为0进一步压缩C,所有绝对值的条目数最多为0.5。然后,我们得到
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 |
---|---|---|
网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 网络错误 网络错误 网络错误 |
网络错误 |
结果表明,matlab有一个很好的命令image(x)(也就是imagesc(x),它通常做得更好),它显示矩阵x有一个图像,其中每个条目显示为一个小正方形,其灰度与该条目的数值成比例(如果值更高,则更轻,如果该值接近零,则变暗;负值被视为零)。A和C对应的图像如图4.10所示。这个
图4.10:图像及其haar变换
A2和C2对应的压缩图像如图4.11所示。压缩的
图4.11:压缩图像及其haar变换
版本似乎与原始版本不可区分!
如果我们使用归一化矩阵hm和hn,那么图像矩阵a及其归一化haar变换c的相关方程是
c=hm>ahn a=hmchn>。
HAAR转换还可以用于在互联网上逐步发送大图像。实际上,我们可以从最粗的系数(第一列自上而下,然后第二列等)开始发送矩阵c的haar系数,在接收端,我们可以在收到足够的数据后立即开始重建图像。
注意,我们可以执行部分编码(和解码),而不是对每一行和每一列执行所有轮的平均和差分。例如,我们可以对每一行和每一列执行一轮平均和差分。结果是一个包含四个子图像的图像,其中左上角的四分之一是原始图像的较粗版本,其余的(由三个部分组成)包含最精细的细节系数。我们还可以执行两轮平均和差分,或三轮等。该过程如图4.12所示。执行一轮、两轮、三轮和九轮平均的结果如图4.13所示。由于我们的图像大小为512×512,九轮平均将生成haar转换,显示为右下角的图像。原来的图像已经完全消失了!我们将它作为一个有趣的练习来修改涉及平均和差分的算法,以执行k轮平均/差分。重建算法有点复杂。
在Stollnitz、Derose和Salesin[163]中可以找到小波及其在图像处理和计算机图形中的用途的一个很好且容易访问的描述。非常详细的
图4.12:杜勒的原始图纸
在Strang and and Nguyen[167]中给出了说明,但本书在信号处理方面有相当多的背景。
我们可以很容易地找到线性映射的2n×2n=22n向量wij(2n×2n矩阵)的基础,该线性映射从其haar系数重建图像,在任何haar系数的矩阵c的意义上,图像矩阵a由下式给出:
2N 2N
A=XXCIJWIJ。
I=1 J=1
实际上,矩阵wij是由所谓的外积给出的。
wij=wi(wj)>。
同样,对于二维Haar变换,有一个2n×2n=22n向量hij(2n×2n矩阵)的基础,在任何矩阵a中,其Haar系数的矩阵c由
2N 2N
C=XXaijhij.
I=1 J=1
图4.13:1轮、2轮、3轮和9轮平均后的haar变换
4.4。基的变化对矩阵的影响
如果w-1的列是,那么
hij=wi0(wj0)>。
我们将它作为练习来计算n=2的基(wij)和(hij),并使用命令imagesc显示相应的图像。
4.4基的变化对矩阵的影响
下面的命题描述了基的变化对线性映射表示的影响。
提案4.4.设e和f为向量空间,设u=(u1,…,un)和
是e的两个基,让v=(v1,…,vm)是f的两个基。
p=p u0,u是基矩阵从u到u0的变化,Q=p v0,v是基矩阵从v到v0的变化。对于任何线性映射f:e→f,设m(f)=m u,v(f)为与f w.r.t相关联的矩阵。基U和v,设m0(f)=m u0,v0(f)为与f w.r.t相关联的矩阵。基U0和v0。我们有
m0(f)=q−1m(f)p,
或者更明确地说
.
证据。因为f:e→f可以写成f=idf f ide,因为p是ide的矩阵
w.r.t.基()和(u1,…,un)和q−1是idf w.r.t的矩阵。根据命题4.2,基(v1,…,vm)和(),我们得到m0(f)=q−1m(f)p。
作为推论,我们得到以下结果。
推论4.5。设e为向量空间,设e的两个基,设p=p u0,u为基矩阵从u到u0的变化。对于任何线性映射f:e→e,设m(f)=m u(f)为与f w.r.t.相关联的矩阵,以u为基础,并设
m0(f)=mu0(f)是与f w.r.t.相关的矩阵,即基U0。我们有
m0(f)=p−1m(f)p,
或者更明确地说,
.
例4.3.设e=r2,u=(e1,e2),其中e1=(1,0)和e2=(0,1)是规范基向量,设v=(v1,v2)=(e1,e1−e2),并设
.
基矩阵p=p v,u从u变为v的变化是
,
我们检查一下
P−1=P.
因此,在基V中,表示a定义的线性映射f的矩阵是
对角矩阵。在基础V中,很清楚f的作用是什么:它在v1方向上是一个系数为2的拉伸,它是在v2方向上的标识。观察v1和v2不是正交的。
我们对矩阵A进行了对角化,对角项2和1是a(和f)的特征值,v1和v2是对应的特征向量。稍后我们将回到特征值和特征向量。
上面的例子表明,同一个线性映射可以用不同的矩阵表示。这建议作出以下定义:
定义4.10.两个n×n矩阵a和b是相似的,如果有一些可逆矩阵p,那么
B=P−1安培。
很容易看出相似性是等价关系。根据我们之前的考虑,两个n×n矩阵a和b是相似的iff,它们代表两个不同基的相同线性映射。以下令人惊讶的事实可以证明:每个方阵A与其转置A>相似。证明需要先进的概念(约旦形式,或相似不变量)。
如果u=(u1,…,un)和v=(v1,…,vn)是e的两个基,则基矩阵的变化
网络错误 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 | 网络错误 网络错误 网络错误 |
---|---|---|---|
4.4。基的变化对矩阵的影响
从(u1,…,un)到(v1,…,vn)是一个矩阵,其jth列由基础上的vj坐标组成(u1,…,un),这意味着
.
扩展矩阵表示法并将向量表示为
矩阵的乘积乘以向量,即
,
但请注意,所涉及的矩阵不是p,而是它的转置p>。
这个观察结果如下:如果u=(u1,…,un)和v=(v1,…,vn)是e和if的两个基
,
也就是说,
对于任何向量w∈e,如果
然后
xn yn
如此
y1 x1
…=(a>)-1…。YN XN
很容易看出(a>)-1=(a-1)>。另外,如果u=(u1,…,un),v=(v1,…,vn),w=(w1,…,wn)是e的三个基,如果基矩阵从u变为v是
p=p v,u,基矩阵从v到w的变化是q=pw,v,那么
v1 U1
…=P>…,VN UN
所以
w1 v1
…=Q>_…,WN VN
W1 U1 U1
…=Q>P>…=(PQ)>…,WN UN联合国
也就是说,基矩阵pw,u从u到w的变化就是pq。这证明了pw,u=pv,upw,v。
尽管矩阵是必不可少的,因为它们是线性代数应用中的主要工具,但人们不应忘记以下事实:
线性映射更为基本,因为它们是不依赖于基的选择的内在对象。
因此,我们建议读者尝试用线性映射来思考,而不是把所有的东西都简化成矩阵。
根据我们的经验,这在证明线性映射和矩阵的结果时特别有效,其中涉及线性映射的证明通常更“概念性”。这些证明通常更通用,因为它们不依赖于维度是有限的事实。此外,不把矩阵分解看作纯粹的代数运算,而是把它看作几何分解。这就是SVD的情况,用几何术语来说,每个线性映射都可以作为一个旋转因子,然后沿着正交轴重新缩放,然后再进行另一个旋转。
毕竟,A
矩阵是线性映射的表示。
矩阵的大多数分解都反映了这样一个事实,即只要选择合适的基(或基),线性映射就是由具有特殊形状的矩阵表示的。问题是找到这样的基础。
然而,对于初学者来说,矩阵有着不可抗拒的吸引力,我们承认,要达到处理线性映射变得更加自然的程度,需要一定的实践。我们仍然推荐它!例如,尝试将用矩阵表示的结果转换成用线性映射表示的结果。每当我们尝试这个练习时,我们都学到了一些东西。
同时,要时刻记住
线性地图本质上是几何的;它们作用于空间。
4.5。总结
4.5总结
本章的主要概念和结果如下:
• 用矩阵表示线性映射。
• 线性映射的向量空间homk(e,f)。
• 同构(命题4.2)。矩阵表示映射m:hom(e,f)→mn,p和表示
• Haar基向量和Haar小波的一瞥。
• 矩阵的克罗内克积(或张量积)。
• 基矩阵和命题4.4的变化。