Fork批量服务

用户可在「批量服务」列表或部署详情页面对在线服务信息进行Fork。

操作步骤

1. Fork服务进入

1.1 点击左侧列表中「云端 Serving 」-「批量服务」按钮,进入「批量服务」列表页面进行Fork。

图 1.1 Fork批量服务入口
图 1.1 Fork批量服务入口

1.2. 点击 「批量服务」列表页 服务名称 进入「部署详情」页面选择「Fork」按钮,弹出表单进行按需Fork。

图 1.2 Fork批量服务入口
图 1.2 Fork批量服务入口
note

可Fork状态:

「运行完成」状态的 任务 ,可进行「Fork」操作。

不可Fork状态:

「部署中」状态的 任务 ,不可进行「Fork」操作。

「运行中」状态的 任务 ,不可进行「Fork」操作。

「已停止」状态的 任务 ,不可进行「Fork」操作。

「运行失败」状态的 任务 ,不可进行「Fork」操作。

「未知」状态的 任务 ,不可进行「Fork」操作。

2. Fork批量服务

用户可根据自需进行对表单 Fork 操作,点击「提交」返回批量服务列表页面且该条Fork任务状态变为部署中。

图 2 Fork批量服务
图 2 Fork批量服务
note
  1. 用户可自定义在线服务名称,仅支持字母、数字、汉字、英文横杠和下划线、字符长度不能超出 32,在线服务名称不可重复( ID 为自动递增)。
  2. 描述(可选),字符长度不能超出 200。
  3. 模型类型,可选[我的模型]或[预训练模式]模型。
  4. 模型,此下拉框的内容会根据选用的模型类型变化。
  5. 上传预测图片,图片数量不得超出 5000 张。
  6. 节点类型,可选[CPU]或[GPU]类型。
  7. 节点规格,此下拉框的内容会根据选用的节点类型变化。
  8. 节点数,默认为 1,多版本可根据适用场景调配节点数,整体配置最大值不超出 10 节点即可。
  9. signature_name (可选),默认为 serving_default,填写错误可能会导致运行失败。
  10. reshape_size (可选),图片预处理形状 [H, W],默认为 imageNet 图片大小,填写错误可能会导致运行失败。
  11. prepare_mode (可选),keras/Tensoflow 模型预处理模式,可选 tfhub、caffe、tf、torch,默认为 tfhub,填写错误可能会导致运行失败。
  12. model_structure (可选),pytorch 模型保存网络名称,默认为 model,填写错误可能会导致运行失败。
  13. job_name (可选),oneflow 模型推理 job 名称,默认为 inference,填写错误可能会导致运行失败。
Last updated on