发布时间:2023-04-18 09:30
在单机多gpu可以满足的情况下, 绝对不建议使用多机多gpu进行训练, 多台机器之间传输数据的时间非常慢, 如果机器只是千兆网卡, 再加上别的一些损耗, 网络的传输速度跟不上, 会导致训练速度实际很慢。
初始化操作一般在程序刚开始的时候进行。
在进行多机多gpu运行训练的时候,需要先使用 torch.distributed.init_process_group()进行初始化。 torch.distributed.init_process_group()包含四个常用的参数
backend:后端,实际上是多个机器之间交换数据的协议
init_method:机器之间交换数据,需要指定一个主节点,而这个参数就是指定主节点的
world_size:介绍都是说是进程,实际就是机器的个数,例如两台机器一起训练的话,设置数值为2
rank:区分主节点和从节点,主节点为0,剩余的为了1-(N-1),N为要使用的机器的数量,即 world_size。
pytorch的官方教程提供的后端有:gloo、mpi、nccl,详细可参考PyTorch多GPU并行训练方法及问题
根据官网的介绍, 如果是使用cpu的分布式计算, 建议使用gloo
, 因为表中可以看到 gloo
对cpu的支持是最好的, 然后如果使用gpu进行分布式计算, 建议使用nccl
, 实际测试中我也感觉到, 当使用gpu的时候, nccl
的效率是高于gloo
的。 根据博客和官网的态度, 好像都不怎么推荐在多gpu的时候使用mpi。
对于后端选择好了之后,我们需要设置一下网络接口,因为多个主机之间肯定是使用网络进行交换,那肯定就涉及到ip之类的,对于 nccl 和 gloo 一般会自己寻找网络接口,但是某些时候,可能会需要自己手动设置。设置的方法也比较简单,在Python的代码中,使用了下面的代码进行设置就行:
import os
#以下二选一,第一个是使用gloo后端需要设置的,第二个是使用nccl需要设置的
os.environ['GLOO_SOCKET_IFNAME'] = 'eth0'
os.environ['NCCL_SOCKET_IFNAME'] = 'eth0'
我们如何知道自己的网络接口,打开命令行,然后输入 ifconfig ,然后找到那个带自己ip地址的就是了,一般就是 em0 , eth0 , esp2s0 之类的,具体的根据自己的填写。如果没有装 ipconfig ,输入命令会报错,根据报错提示安装一个就行了。
初始化init_method
的方法有两种, 一种是使用TCP进行初始化, 另外一种是使用共享文件系统进行初始化
代码如下:
import torch.distributed as dist
dist.init_process_group(backend,init_method='tcp://10.1.1.20:23456',
rank = rank,world_size = world_size)
注意这里的使用格式为tcp://ip:端口号,首先 ip 地址是你的主节点的 ip 地址,也就是 rank 参数为0的那个主机的 ip 地址,然后再选择一个空闲的端口号,这样就可以初始化 init_method 了。
有些人并不推荐这种方法, 因为这个方法好像比TCP初始化要没法, 搞不好和你硬盘的格式还有关系, 特别是window的硬盘格式和Ubuntu的还不一样, 代码如下:
import torch.distributed as dist
dist.init_process_group(backend,init_method = 'file:///mnt/nfs/sharedfile',
rank=rank,world_size=world_size)
根据官网介绍, 要注意提供的共享文件一开始应该是不存在的, 但是这个方法又不会在自己执行结束删除文件, 所以下次再进行初始化的时候, 需要手动删除上次的文件, 所以比较麻烦, 而且官网给了一堆警告, 再次说明了这个方法不如TCP初始化的简单。
需要确保不同机器的 rank 值不同,但主机的 rank 必须为0,而且使用 init_method 的 ip 一定是 rank 为 0 的主机,其次world_size
是你的主机数量, 你不能随便设置这个数值, 你的参与训练的主机数量达不到world_size
的设置值时, 代码是不会执行的。
首先是代码的统一性,所有的节点上面的代码,建议完全一样,不然有可能会出现一些问题,其次,这些初始化的参数强烈建议通过 argparse 模块(命令行参数的形式)输入,不建议写死在代码中,也不建议使用pycharm 之类的 IDE 进行代码的运行,强烈建议使用命令行直接运行。
其次是运行代码的命令方面的问题,例如使用下面的命令运行代码 distributed.py:
python distributed.py -bk nccl -im tcp://10.10.10.1:12345 -rn 1 -ws 2
一定要注意的是,只能修改 rank 的值,其他的值一律不能修改,否则程序就卡死了,初始化到这里也就结束了。
其实数据的处理和正常的代码的数据处理非常类似,但是因为多机多卡涉及到了效率问题,所以这里才会使用 torch.utils.data.distributed.DistributedSampler来规避数据传输的问题,首先看下面的代码:
print("Initialize Dataloaders...")
# Define the transform for the data.Notice,we must resize to 224x224 with this dataset and # model
transform = transforms.Compose(
[transforms.Resize(224),
transforms.ToTensor(),
transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))])
# Initialize Datasets. STL10 will automatically download if not present
trainset = datasets.STL10(root='./data', split='train', download=True, transform=transform)
valset = datasets.STL10(root='./data', split='test', download=True, transform=transform)
#Create DistributedSampler to handle distributing the dataset across nodes when training
#This can only be called after torch.distributed.init_process_group is called
#这一句就是和平时使用有点不一样的地方
train_sampler = torch.utils.data.distributed.DistributedSampler(trainset)
# Create the Dataloaders to feed data to the training and validation steps
train_loader = torch.utils.data.DataLoader(trainset, batch_size=batch_size, shuffle=(train_sampler is None), num_workers=workers, pin_memory=False, sampler=train_sampler)
val_loader = torch.utils.data.DataLoader(valset, batch_size=batch_size, shuffle=False, num_workers=workers, pin_memory=False)
单独看这段代码,和平时写的类似,唯一不一样的其实就是这里先将 trainset 送到了 DistributedSampler 中创造了一个 train_sampler ,然后在构造 train_loader 的时候,参数传入了一个 sampler = train_sampler 。使用这些的意图是,让不同节点的机器加载自己本地的数据进行训练,也就是说进行多机多卡训练的时候,不再是从主节点分发数据到各个从节点,而是各个从节点自己从自己的硬盘上读取数据。
当然了,如果直接让各个节点自己读取自己的数据,特别是在训练的时候,经常是要打乱数据集进行训练的,这样就会导致不同的节点加载的数据混乱,所以这个时候使用 DistributedSampler 来创造一个 sampler 提供给 DataLoader,sampler的作用自定义一个数据的编号,然后让 DataLoader 按照这个编号来提取数据放入到模型中训练,其中 sampler 参数和 shuffle 参数不能同时指定,如果这个时候还想要可以随机的输入数据,我们可以在 DistributedSampler 中指定 shuffle 参数,具体的可以参考官网的 api,拉到最后就是 DistributedSampler。
注意要提前把模型加载到gpu ,然后才可以加载到 DistributedDataParallel
model = model.cuda()
model = nn.parallel.DistributedDataParallel(model)
这里引用pytorch官方教程的一段代码:
def demo_checkpoint(rank,world_size):
setup(rank,world_size)
#setup devices for this process,rank 1 uses GPUs [0,1,2,3] and
#rank 2 uses GPUs [4,5,6,7]
n = torch.cuda.device_count() // world_size
device_ids = list(range(rank*n,(rank+1)*n))
model = ToyModel().to(device_ids[0])
# output_device defaults to device_ids[0]
ddp_model = DDP(model, device_ids=device_ids)
loss_fn = nn.MSELoss()
optimizer = optim.SGD(ddp_model.parameters(), lr=0.001)
CHECKPOINT_PATH = tempfile.gettempdir() + "/model.checkpoint"
if rank == 0:
# All processes should see same parameters as they all start from same
# random parameters and gradients are synchronized in backward passes.
# Therefore, saving it in one process is sufficient.
torch.save(ddp_model.state_dict(), CHECKPOINT_PATH)
# Use a barrier() to make sure that process 1 loads the model after process
# 0 saves it.
dist.barrier()
# configure map_location properly
rank0_devices = [x - rank * len(device_ids) for x in device_ids]
device_pairs = zip(rank0_devices, device_ids)
map_location = {'cuda:%d' % x: 'cuda:%d' % y for x, y in device_pairs}
ddp_model.load_state_dict(
torch.load(CHECKPOINT_PATH, map_location=map_location))
optimizer.zero_grad()
outputs = ddp_model(torch.randn(20, 10))
labels = torch.randn(20, 5).to(device_ids[0])
loss_fn = nn.MSELoss()
loss_fn(outputs, labels).backward()
optimizer.step()
# Use a barrier() to make sure that all processes have finished reading the
# checkpoint
dist.barrier()
if rank == 0:
os.remove(CHECKPOINT_PATH)
cleanup()
看上面的代码,最重要的实际是这句 dist.barrier(), 这个是来自 torch.distributed.barrier(),根据pytorch的官网介绍,这个函数的功能是同步所有的进程,直到整组(也就是所有节点的所有GPU)到达这个函数的时候,才会执行后面的代码,看上面的代码,可以看到,在保存模型的时候,是只找 rank 为0的点保存模型,然后再加载模型的时候,首先得让所有的节点同步一下,然后给所有的节点加载上模型,然后在进行下一步的时候,还要同步一下,保证所有的节点都读完了模型,官网说不这样做会导致一些问题。
保存模型的时候,是保存哪些节点上面的模型,pytorch推荐的是 rank = 0 的节点,然后也有人会保存所有节点的模型,然后进行计算。
tensorflow2.X和pytorch实现polyloss
神经网络与深度学习理论教程二,tensorflow2.0教程,rnn
【live2D看板娘】为你的网站添加萌萌的二次元板娘,这都拿不下你?
人脸识别之表情识别(三)--基于几何与Gabor小波的多层感知
论文阅读-目标检测(2019)-CenterNet:目标检测转化为关键点检测及其属性回归
深度学习的训练、预测过程详解【以LeNet模型和CIFAR10数据集为例】
动手学习深度学习2.0-线性回归的从零开始实现&pytorch框架实现