取两个 3x3 矩阵的乘积A*B=C
.天真地,这需要使用标准算法进行 27 次乘法。如果一个人很聪明,你可以只用23次乘法来做到这一点,这是Laderman在1973年发现的结果。该技术涉及保存中间步骤并以正确的方式组合它们。
现在让我们修复一种语言和一种类型,比如C++ double
元素。如果Laderman算法是硬编码的,而不是简单的双循环,我们是否可以期望现代编译器的性能能够消除算法的差异?
关于这个问题的注意事项:这是一个编程站点,这个问题是在时间关键型内部循环的最佳实践的上下文中提出的;过早优化这不是。 非常欢迎有关实施的提示作为评论。
关键是掌握平台上的指令集。这取决于您的平台。有几种技术,当您倾向于需要最大可能的性能时,您的编译器将附带分析工具,其中一些工具内置了优化提示。对于最细粒度的操作,请查看汇编程序输出,看看在该级别是否有任何改进。
同时指令多个数据命令并行对多个操作数执行相同的操作。这样你就可以采取
double a,b,c,d;
double w = d + a;
double x = a + b;
double y = b + c;
double z = c + d;
并将其替换为
double256 dabc = pack256(d, a, b, c);
double256 abcd = pack256(a, b, c, d);
double256 wxyz = dabc + abcd;
这样,当值加载到寄存器中时,它们被加载到具有 256 位宽寄存器的某个虚构平台的单个 256 位宽寄存器中。
浮点是一个重要的考虑因素,一些DSP在整数上的操作速度可以明显更快。GPU 在浮点数上往往很棒,尽管有些在单精度下快 2 倍。此问题的 3x3 情况可以放入单个 CUDA 线程中,因此您可以同时流式传输 256 个这些计算。
选择您的平台,阅读文档,实现几种不同的方法并对其进行分析。
计时测试:
我自己进行了计时测试,结果让我感到惊讶(因此我首先问这个问题)。简而言之,在标准编译下,laderman
快 ~ 225%,但使用 -03
优化标志,它慢了 50%!每次在-O3
标志期间,我都必须在矩阵中添加一个随机元素,或者编译器完全优化了简单的乘法,在时钟精度内花费零时间。由于laderman
算法检查/仔细检查很痛苦,我将在下面发布完整的代码供后代使用。
规格:Ubuntu 12.04,戴尔Prev T1600,gcc。时间差异百分比:
-
g++ [2.22, 2.23, 2.27]
-
g++ -O3 [-0.48, -0.49, -0.48]
-
g++ -funroll-loops -O3 [-0.48, -0.48, -0.47]
基准测试代码以及 Laderman 实现:
#include <iostream>
#include <ctime>
#include <cstdio>
#include <cstdlib>
using namespace std;
void simple_mul(const double a[3][3],
const double b[3][3],
double c[3][3]) {
int i,j,m,n;
for(i=0;i<3;i++) {
for(j=0;j<3;j++) {
c[i][j] = 0;
for(m=0;m<3;m++)
c[i][j] += a[i][m]*b[m][j];
}
}
}
void laderman_mul(const double a[3][3],
const double b[3][3],
double c[3][3]) {
double m[24]; // not off by one, just wanted to match the index from the paper
m[1 ]= (a[0][0]+a[0][1]+a[0][2]-a[1][0]-a[1][1]-a[2][1]-a[2][2])*b[1][1];
m[2 ]= (a[0][0]-a[1][0])*(-b[0][1]+b[1][1]);
m[3 ]= a[1][1]*(-b[0][0]+b[0][1]+b[1][0]-b[1][1]-b[1][2]-b[2][0]+b[2][2]);
m[4 ]= (-a[0][0]+a[1][0]+a[1][1])*(b[0][0]-b[0][1]+b[1][1]);
m[5 ]= (a[1][0]+a[1][1])*(-b[0][0]+b[0][1]);
m[6 ]= a[0][0]*b[0][0];
m[7 ]= (-a[0][0]+a[2][0]+a[2][1])*(b[0][0]-b[0][2]+b[1][2]);
m[8 ]= (-a[0][0]+a[2][0])*(b[0][2]-b[1][2]);
m[9 ]= (a[2][0]+a[2][1])*(-b[0][0]+b[0][2]);
m[10]= (a[0][0]+a[0][1]+a[0][2]-a[1][1]-a[1][2]-a[2][0]-a[2][1])*b[1][2];
m[11]= a[2][1]*(-b[0][0]+b[0][2]+b[1][0]-b[1][1]-b[1][2]-b[2][0]+b[2][1]);
m[12]= (-a[0][2]+a[2][1]+a[2][2])*(b[1][1]+b[2][0]-b[2][1]);
m[13]= (a[0][2]-a[2][2])*(b[1][1]-b[2][1]);
m[14]= a[0][2]*b[2][0];
m[15]= (a[2][1]+a[2][2])*(-b[2][0]+b[2][1]);
m[16]= (-a[0][2]+a[1][1]+a[1][2])*(b[1][2]+b[2][0]-b[2][2]);
m[17]= (a[0][2]-a[1][2])*(b[1][2]-b[2][2]);
m[18]= (a[1][1]+a[1][2])*(-b[2][0]+b[2][2]);
m[19]= a[0][1]*b[1][0];
m[20]= a[1][2]*b[2][1];
m[21]= a[1][0]*b[0][2];
m[22]= a[2][0]*b[0][1];
m[23]= a[2][2]*b[2][2];
c[0][0] = m[6]+m[14]+m[19];
c[0][1] = m[1]+m[4]+m[5]+m[6]+m[12]+m[14]+m[15];
c[0][2] = m[6]+m[7]+m[9]+m[10]+m[14]+m[16]+m[18];
c[1][0] = m[2]+m[3]+m[4]+m[6]+m[14]+m[16]+m[17];
c[1][1] = m[2]+m[4]+m[5]+m[6]+m[20];
c[1][2] = m[14]+m[16]+m[17]+m[18]+m[21];
c[2][0] = m[6]+m[7]+m[8]+m[11]+m[12]+m[13]+m[14];
c[2][1] = m[12]+m[13]+m[14]+m[15]+m[22];
c[2][2] = m[6]+m[7]+m[8]+m[9]+m[23];
}
int main() {
int N = 1000000000;
double A[3][3], C[3][3];
std::clock_t t0,t1;
timespec tm0, tm1;
A[0][0] = 3/5.; A[0][1] = 1/5.; A[0][2] = 2/5.;
A[1][0] = 3/7.; A[1][1] = 1/7.; A[1][2] = 3/7.;
A[2][0] = 1/3.; A[2][1] = 1/3.; A[2][2] = 1/3.;
t0 = std::clock();
for(int i=0;i<N;i++) {
// A[0][0] = double(rand())/RAND_MAX; // Keep this in for -O3
simple_mul(A,A,C);
}
t1 = std::clock();
double tdiff_simple = (t1-t0)/1000.;
cout << C[0][0] << ' ' << C[0][1] << ' ' << C[0][2] << endl;
cout << C[1][0] << ' ' << C[1][1] << ' ' << C[1][2] << endl;
cout << C[2][0] << ' ' << C[2][1] << ' ' << C[2][2] << endl;
cout << tdiff_simple << endl;
cout << endl;
t0 = std::clock();
for(int i=0;i<N;i++) {
// A[0][0] = double(rand())/RAND_MAX; // Keep this in for -O3
laderman_mul(A,A,C);
}
t1 = std::clock();
double tdiff_laderman = (t1-t0)/1000.;
cout << C[0][0] << ' ' << C[0][1] << ' ' << C[0][2] << endl;
cout << C[1][0] << ' ' << C[1][1] << ' ' << C[1][2] << endl;
cout << C[2][0] << ' ' << C[2][1] << ' ' << C[2][2] << endl;
cout << tdiff_laderman << endl;
cout << endl;
double speedup = (tdiff_simple-tdiff_laderman)/tdiff_laderman;
cout << "Approximate speedup: " << speedup << endl;
return 0;
}
尽管C++提到了这个问题,但我在 C# (.NET 4.5) 中实现了 3x3 矩阵乘法 C=A*B,并在我的 64 位 Windows 7 机器上运行了一些基本的计时测试并进行优化。 10,000,000 次乘法大约需要
- 0.556 秒,采用朴素的实现和
- 0.874 秒,来自另一个答案的拉德曼代码。
有趣的是,拉德曼密码比天真的方式慢。我没有使用探查器进行调查,但我想额外的分配比一些额外的乘法更昂贵。
看起来当前的编译器足够聪明,可以为我们进行这些优化,这很好。这是我使用的幼稚代码,供您使用:
public static Matrix3D operator *(Matrix3D a, Matrix3D b)
{
double c11 = a.M11 * b.M11 + a.M12 * b.M21 + a.M13 * b.M31;
double c12 = a.M11 * b.M12 + a.M12 * b.M22 + a.M13 * b.M32;
double c13 = a.M11 * b.M13 + a.M12 * b.M23 + a.M13 * b.M33;
double c21 = a.M21 * b.M11 + a.M22 * b.M21 + a.M23 * b.M31;
double c22 = a.M21 * b.M12 + a.M22 * b.M22 + a.M23 * b.M32;
double c23 = a.M21 * b.M13 + a.M22 * b.M23 + a.M23 * b.M33;
double c31 = a.M31 * b.M11 + a.M32 * b.M21 + a.M33 * b.M31;
double c32 = a.M31 * b.M12 + a.M32 * b.M22 + a.M33 * b.M32;
double c33 = a.M31 * b.M13 + a.M32 * b.M23 + a.M33 * b.M33;
return new Matrix3D(
c11, c12, c13,
c21, c22, c23,
c31, c32, c33);
}
其中 Matrix3D 是不可变的结构(只读双精度字段)。
棘手的事情是提出一个有效的基准,您可以在其中测量代码而不是编译器对您的代码做了什么(调试器包含大量额外内容,或者在没有实际代码的情况下进行优化,因为结果从未使用过)。我通常尝试"触摸"结果,以便编译器无法删除被测试的代码(例如,检查矩阵元素是否与 89038.8989384 相等,如果相等,则抛出)。但是,最后我什至不确定编译器是否破解了这种比较:)
我希望主要的性能问题是内存延迟。double[9]
通常为 72 字节。这已经是一个不小的数量,你正在使用其中的三个。