Я пытаюсь использовать Gemm для умножения матриц на графическом процессоре Alea, однако этот код дает неправильный результат.
Gpu gpu = Gpu.Default;
Blas blas = new Blas(gpu);
int m=2,n=3; //in dimension and out dimension (output will be mxn matrix)
int k=4;
//column major
float[,] A = new float[4,2] { {100,200},{2,6},{3,7},{4,8} }; //2x4 matrix
float[,] B = new float[3,4] { {1,4,7,10}, {2,5,8,11}, {3,6,9,12} }; //4x3 matrix
float[,] C = new float[3,2] { {-1,-1}, {-1,-1}, {-1,-1} }; //2x3 matrix
var dA = gpu.AllocateDevice<float>(A);
var dB = gpu.AllocateDevice<float>(B);
var dC = gpu.AllocateDevice<float>(C);
blas.Gemm(Operation.N,Operation.N,m,n,k,1f,dA.Ptr,m,dB.Ptr,k,0f,dC.Ptr,m);
var result = Gpu.Copy2DToHost(dC);
Это результат, который я получаю. Он просто копирует некоторое число из матрицы A. Некоторые числа в матрице C не меняются с момента инициализации.
100 -1 -1
200 -1 -1
Что-то не так с кодом? Пожалуйста помоги.
Я использую alea 3.0.3 с набором инструментов cuda 8.0.
ОБНОВЛЕНИЕ 1: я обнаружил, что это дает правильный результат, когда я сглаживаю матрицы A, B, C в одномерные массивы. Однако все же хочется узнать, что не так с 2D-массивами.