时间:2021-05-20
如何计算矩阵乘法,这个大家都知道。通常情况下,我们都是用以下代码实现的:
复制代码 代码如下:
for(i=0;i<n;++i)
for(j=0;j<n;++j){
sum=0;
for(k=0;k<n;++k)
sum+=A[i][k]*B[k][j];
C[i][j]+=sum;
}
但是考虑了高速缓存的问题后,其实有一种更好的实现方式:
复制代码 代码如下:
for(i=0;i<n;++i)
for(k=0;k<n;++k){
r=A[i][k];
for(j=0;j<n;++j)
C[i][j]+=r*B[k][j];
}
细看一番就会发现这两种实现语义是等价的,但是后者的实际运行效率却比前者高。
那为什么会如此呢?
那是因为CPU读数据时,并不是直接访问内存,而是先查看缓存中是否有数据,有的话直接从缓存读取。而从缓存读取数据比从内存读数据快很多。
当数据不在缓存中时,CPU会将包含数据在内的一个数据块读到缓存,如果程序具有良好空间局部性,那么第一次cache miss后,之后的几次数据访问就可以直接在缓存中完成。除了空间局部性(程序倾向于引用与当前数据邻近的数据)之外,还有时间局部性(程序倾向于引用最近被引用过的数据)。
回到矩阵乘法。(我们只考虑内循环)
前者对矩阵A,有良好的空间局部性,假设一次能缓存四个元素,则每次迭代对于A只有0.25次miss,但是对于B,则不然,因此B是按列访问的,每次访问都会miss,因此每次迭代总的miss数是1.25。
后者对于矩阵C和矩阵B都有良好的局部性,每次迭代都只有0.25词miss,因此总的miss数是0.5。后者每次迭代多了一次存储(对C[i][j]写入),但是即便如此,后者的运行效率也比前者高。
总而言之,要想程序跑得快,就要在程序中多利用局部性,让缓存hold住你的数据,减少访存次数。要知道CPU可以在3个时钟周期内访问到L1 cache,10个时钟周期左右的时间访问到L2 cache。访问内存却要上百个时钟周期,孰快孰慢,很清楚了吧?
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
C++中实现矩阵的加法和乘法实例实现效果图:实例代码:#includeusingnamespacestd;classMatrix{introw;//矩阵的行in
本文实例讲述了C#实现矩阵乘法的方法。分享给大家供大家参考。具体如下:staticdouble[][]MatrixMultiplication(double[]
本文实例讲述了Java实现的矩阵乘法。分享给大家供大家参考,具体如下:思路:矩阵乘法的前提是:前一矩阵的行数==后一矩阵的列数(rows==cols)在满足前提
1.同线性代数中矩阵乘法的定义:np.dot()np.dot(A,B):对于二维矩阵,计算真正意义上的矩阵乘积,同线性代数中矩阵乘法的定义。对于一维矩阵,计算两
本文实例讲述了C#实现矩阵加法、取负、数乘、乘法的方法。分享给大家供大家参考。具体如下:1.几个基本函数1)判断一个二维数组是否为矩阵:如果每行的列数都相等则是