xhsh的个人博客分享 http://blog.sciencenet.cn/u/xhsh

博文

调用cublas和cula的另一个根本不同

已有 6540 次阅读 2013-12-22 22:06 |个人分类:cuda|系统分类:教学心得| cula, cublas

在MPI程序中调用cublas和cula是很经常的事情,然而很诡异的是,利用多块GPU卡做MPI并行计算,我却发现,多块卡并行时,比单块卡计算的时间要长得多。为了查清楚原因所在,写了如下简单的程序来做单GPU计算和双GPU计算(调用zgesv,用来做矩阵求逆):

PROGRAM cula_test

use cudafor

use cula_status

use cula_lapack

use cula_lapack_device_pgfortran

IMPLICIT NONE

include 'mpif.h'

INTEGER :: n

complex*16, allocatable::A(:,:),U(:,:)

integer,allocatable::ipiv(:)

integer I,J,info,MPIerror,node,Nnodes

real*8 c,d

real*4 t1,t2

external cula_initialize

external cula_shutdown

external cudasetdevice

call MPI_Init( MPIerror )

call MPI_Comm_Rank( MPI_Comm_World, Node, MPIerror )

call MPI_Comm_Size( MPI_Comm_World, Nnodes, MPIerror )

if(node.eq.0) info=cudasetdevice(0)

if(node.eq.1) info=cudasetdevice(1)

info = cula_initialize()

n = 3000

ALLOCATE(A(n,n),U(n,n), ipiv(n))

do I = 1,N

  do J = 1, N

     call random_number(c)

     call random_number(d)

     A(I,J)=dcmplx(c,d)

  enddo

enddo

U(:,:)=(0.d0,0.d0)

do I = 1, N

  U(I,I)=(1.d0,0.d0)

enddo

call cpu_time(t1)

info= cula_zgesv(n,n,A,n,ipiv,U,n)

call cpu_time(t2)

print *,'GPU: ', U(1,1),t2-t1

deallocate(A,U,ipiv)

call cula_shutdown()

call MPI_FINALIZE(MPIerror)

END

当用一个进程,一块K20c卡时,输出结果是:

GPU:   (-8.6050432536450713E-002,-0.1393513431401034)   0.7435620

当用两个进程,两块K20c卡时,输出结果是:

GPU:   (-8.6050432536450713E-002,-0.1393513431401034)    7.932089

GPU:   (-8.6050432536450713E-002,-0.1393513431401034)    8.396360

很明显的,当用两个进程时,我只是让两块卡做了完全相同的事情(对3000×3000的矩阵求逆),调用了同一个cula的子程序,两个进程之间不存在任何直接的数据通讯,彼此完全独立,但所需的时间却是只用一块卡时的十倍。我也曾经做测试过2000×2000的矩阵,所需的时间相差20倍。实在感觉匪夷所思。


接下来我测试了cublas中的zgemm程序。源代码如下:

PROGRAM cublas_test

use cudafor

use cublas_pgfortran

IMPLICIT NONE

include 'mpif.h'

INTEGER :: n

complex*16, allocatable::A(:,:),B(:,:),C(:,:)

integer info, I,J,MPIerror,node,Nnodes

real*8 e,f

real*4 t1,t2

character*1 TRANSA, TRANSB

complex*16 ALPHA, BETA

external cudasetdevice

ALPHA=(1.D0,0.D0)

BETA=(0.D0,0.D0)

TRANSA='N'

TRANSB='N'

call MPI_Init( MPIerror )

call MPI_Comm_Rank( MPI_Comm_World, Node, MPIerror )

call MPI_Comm_Size( MPI_Comm_World, Nnodes, MPIerror )

if(node.eq.0) info=cudasetdevice(0)

if(node.eq.1) info=cudasetdevice(1)

N = 8000  !matrix size

ALLOCATE(A(n,n),B(n,n), C(n,n))

do I = 1,N

  do J = 1, N

     call random_number(e)

     call random_number(f)

     A(I,J)=dcmplx(e,f)

  enddo

enddo

B = A

C = A

call cpu_time(t1)

call  cublas_zgemm(TRANSA,TRANSB,n,n,n,ALPHA,A,n,n,B,n,n,BETA,C,n,n)

call cpu_time(t2)

print *,'GPU: ', C(1,1),t2-t1

deallocate(A,B,C)

call MPI_FINALIZE(MPIerror)

END

当用一个进程,一块K20c卡时,输出结果是:

GPU:   (-2.032549874426836,4008.562512905637)    5.963408

当用两个进程,两块K20c卡时,输出结果是:

GPU:   (-2.032549874426836,4008.562512905637)    5.928651

GPU:   (-2.032549874426836,4008.562512905637)    5.944520

我们看到,调用cublas中的函数时,不论是用一块卡,还是并行两块卡时,用的时间基本是一样的。

我只是测试了zgesv(cula)和zgemm(cublas)两个子程序,得到的结论是,调用cublas时,多块显卡并行时是没有问题的,而调用cula时,多块卡并行(不管进程间有没有数据通讯)时会使得时间变得不可思议的长。我也曾经试过,让一块卡运行完毕,再让另一块开始运行,则各自所花时间又变得正常。





https://blog.sciencenet.cn/blog-47991-752029.html

上一篇:调用cula和cublas的一个根本的不同
收藏 IP: 114.96.31.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-12-24 02:50

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部