(*゚ー゚)其实22点就歇菜了,其实该早睡的。刷了好久手机,看了会儿9新剧情,回想一下就睡。
大概就是矩阵+向量=对向量做线性变换,将向量理解成基向量的个数集,矩阵每列代表一个基向量。
标准基是平面直角坐标系那个,基是基向量集,基向量线性无关且张成的空间……好像是啥的定义,忘了。
然后矩阵a×矩阵b可以理解成对b的每个向量进行a变换,ab一起是一个新矩阵、整体变换。矩阵乘法反向进行,类比最初向量为自变量、矩阵为因变量,等同于f(g(x))即可。
结合律是因为只是把两个变换合并了,就像合并向量一样。abc与(ab)c相同,前者是cab,后者是把ba连成一步,然后c代进去,没区别。
有区别的是左右换,虽然只给了直观图像演示没有说逻辑,但个人胡乱理解一下就是,因为变换本质就是改变基向量,但是矩阵最终数字都是基于标准基的,在经一个变换处理后向量在标准基的分量多半是变化了的,在下一个变换里用于叠加的基向量不同,结果也不同。
(*゚ー゚)或者是继续沿用函数的解释?
f(g(x))绝不等于g(f(x))
( ゚∀゚)还真是,忽然想起来第一节课就在说变换只是函数的另一种称呼,所以是可以类比的