Skip to content

Latest commit

 

History

History
157 lines (108 loc) · 5.71 KB

train.md

File metadata and controls

157 lines (108 loc) · 5.71 KB

PaddleRec 启动训练

启动方法

1. 启动内置模型的默认配置训练

在安装好paddlepaddlepaddlerec后,可以直接使用一行命令快速启动内置模型的默认配置训练,命令如下;

python -m paddlerec.run -m paddlerec.models.xxx.yyy

注意事项:

  1. 请确保调用的是安装了paddlerec的python环境
  2. xxx为paddlerec.models下有多个大类,如:recall/rank/rerank
  3. yyy为每个类别下又有多个模型,如recall下有:gnn/grup4rec/ncf

例如启动recall下的word2vec模型的默认配置;

python -m paddlerec.run -m paddlerec.models.recall.word2vec

2. 启动内置模型的个性化配置训练

如果我们修改了默认模型的config.yaml文件,怎么运行修改后的模型呢?

  • 没有改动模型组网

    假如你将paddlerec代码库克隆在了/home/PaddleRec,并修改了/home/PaddleRec/models/rank/dnn/config.yaml,则如下启动训练

    python -m paddlerec.run -m /home/PaddleRec/models/rank/dnn/config.yaml

    paddlerec 运行的是在paddlerec库安装目录下的组网文件(model.py),但个性化配置config.yaml是用的是指定路径下的yaml文件。

  • 改动了模型组网

    假如你将paddlerec代码库克隆在了/home/PaddleRec,并修改了/home/PaddleRec/models/rank/dnn/model.py, 以及/home/PaddleRec/models/rank/dnn/config.yaml,则首先需要更改yaml中的workspace的设置:

    workspace: /home/PaddleRec/models/rank/dnn/

    再执行:

    python -m paddlerec.run -m /home/PaddleRec/models/rank/dnn/config.yaml

    paddlerec 运行的是绝对路径下的组网文件(model.py)以及个性化配置文件(config.yaml)

yaml训练配置

yaml中训练相关的概念

config.yaml中训练流程相关有两个重要的逻辑概念,runnerphase

  • runner : runner是训练的引擎,亦可称之为运行器,在runner中定义执行设备(cpu、gpu),执行的模式(训练、预测、单机、多机等),以及运行的超参,例如训练轮数,模型保存地址等。
  • phase : phase是训练中的阶段的概念,是引擎具体执行的内容,该内容是指:具体运行哪个模型文件,使用哪个reader。

PaddleRec每次运行时,会执行一个或多个运行器,通过mode指定runner的名字。每个运行器可以执行一个或多个phase,所以PaddleRec支持一键启动多阶段的训练。

单机CPU训练

下面我们开始定义一个单机CPU训练的runner:

mode: single_cpu_train # 执行名为 single_cpu_train 的运行器
# mode 也支持多个runner的执行,此处可以改为 mode: [single_cpu_train, single_cpu_infer]

runner:
- name: single_cpu_train # 定义 runner 名为 single_cpu_train
  class: train # 执行单机训练,亦可为 single_train
  device: cpu # 执行在 cpu 上
  epochs: 10 # 训练轮数

  save_checkpoint_interval: 2 # 每隔2轮保存一次checkpoint
  save_inference_interval: 4 # 每个4轮保存依次inference model
  save_checkpoint_path: "increment" # checkpoint 的保存地址
  save_inference_path: "inference" # inference model 的保存地址
  save_inference_feed_varnames: [] # inference model 的feed参数的名字
  save_inference_fetch_varnames: [] # inference model 的fetch参数的名字
  init_model_path: "" # 如果是加载模型热启,则可以指定初始化模型的地址
  print_interval: 10 # 训练信息的打印间隔,以batch为单位
  phases: [phase_train] # 若没有指定phases,则会默认运行所有phase
  # phase 也支持自定多个phase的执行,此处可以改为 phases: [phase_train, phase_infer]

再定义具体的执行内容:

phase:
- name: phase_train # 该阶段名为 phase1 
  model: "{workspace}/model.py" # 模型文件为workspace下的model.py
  dataset_name: dataset_train # reader的名字

dataset:
- name: dataset_train
  type: DataLoader # 使用DataLoader的数据读取方式
  batch_size: 2
  data_path: "{workspace}/train_data" # 数据地址
  sparse_slots: "click 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26" # sparse 输入的位置定义
  dense_slots: "dense_var:13"  # dense参数的维度定义

单机单卡GPU训练

具体执行内容与reader与前述相同,下面介绍需要改动的地方

mode: single_gpu_train # 执行名为 single_gpu_train 的运行器

runner:
- name: single_gpu_train # 定义 runner 名为 single_gpu_train
  class: train # 执行单机训练,亦可为 single_train
  device: gpu # 执行在 gpu 上
  selected_gpus: "0" # 默认选择在id=0的卡上执行训练
  epochs: 10 # 训练轮数

单机多卡GPU训练

具体执行内容与reader与前述相同,下面介绍需要改动的地方

mode: single_multi_gpu_train # 执行名为 single_multi_gpu_train 的运行器

runner:
- name: single_multi_gpu_train # 定义 runner 名为 single_multi_gpu_train
  class: train # 执行单机训练,亦可为 single_train
  device: gpu # 执行在 gpu 上
  selected_gpus: "0,1,2,3" # 选择多卡执行训练
  epochs: 10 # 训练轮数

本地模拟参数服务器训练

具体执行内容与reader与前述相同,下面介绍需要改动的地方

mode: local_cluster_cpu_train # 执行名为 local_cluster_cpu_train 的运行器

runner:
- name: local_cluster_cpu_train # 定义 runner 名为 runner_train
  class: local_cluster # 执行本地模拟分布式——参数服务器训练
  device: cpu # 执行在 cpu 上(paddle后续版本会支持PS-GPU)
  worker_num: 1 # (可选)worker进程数量,默认1
  server_num: 1 # (可选)server进程数量,默认1
  epochs: 10 # 训练轮数