所以我在CUDA教授速成班,教学生如何编写好的GPU代码(本例中为CUDA 7.5 )。它们将运行的内核将在2048x2048浮点矩阵上进行矩阵乘,有些内核涉及多个块和共享内存。
学生们将进入具有GPU的服务器,在那里他们将编译和运行他们的程序。
我不知道这有多可行,我所能想象的防止经济放缓的唯一步骤就是通过告诉学生传递cudaSetDevice()的值,将一组学生分配给不同的GPU。
为后人而编辑:我最后没有采取任何预防措施,实验室运行得很顺利。不过,测试并不多,因为只有一半左右的学生同时做实验,我们只需要介绍一些非常简单的“你好世界内核”。第二次编辑:有两台服务器,每台服务器有两台GeForce GTX 650 Tis
发布于 2018-07-22 10:31:14
你需要nvidia-码头。如果ssh服务器位于Docker实例中,则可以将每个服务器分配给不同的GPU。然后,只需设置一些东西,以便只有一个团队进入每个Docker实例。您不需要对cudaSetDevice()做任何花哨的事情,也不需要冒险让学生使用错误的设备并为其他人搞砸,因为每个实例看起来都只有一个GPU。
https://computergraphics.stackexchange.com/questions/7830
复制相似问题