Fork批量服务
用户可在「批量服务」列表或部署详情页面对在线服务信息进行Fork。
操作步骤
1. Fork服务进入
1.1 点击左侧列表中「云端 Serving 」-「批量服务」按钮,进入「批量服务」列表页面进行Fork。

图 1.1 Fork批量服务入口
1.2. 点击 「批量服务」列表页 服务名称 进入「部署详情」页面选择「Fork」按钮,弹出表单进行按需Fork。

图 1.2 Fork批量服务入口
note
可Fork状态:
「运行完成」状态的 任务 ,可进行「Fork」操作。
不可Fork状态:
「部署中」状态的 任务 ,不可进行「Fork」操作。
「运行中」状态的 任务 ,不可进行「Fork」操作。
「已停止」状态的 任务 ,不可进行「Fork」操作。
「运行失败」状态的 任务 ,不可进行「Fork」操作。
「未知」状态的 任务 ,不可进行「Fork」操作。
2. Fork批量服务
用户可根据自需进行对表单 Fork 操作,点击「提交」返回批量服务列表页面且该条Fork任务状态变为部署中。

图 2 Fork批量服务
note
- 用户可自定义在线服务名称,仅支持字母、数字、汉字、英文横杠和下划线、字符长度不能超出 32,在线服务名称不可重复( ID 为自动递增)。
- 描述(可选),字符长度不能超出 200。
- 模型类型,可选[我的模型]或[预训练模式]模型。
- 模型,此下拉框的内容会根据选用的模型类型变化。
- 上传预测图片,图片数量不得超出 5000 张。
- 节点类型,可选[CPU]或[GPU]类型。
- 节点规格,此下拉框的内容会根据选用的节点类型变化。
- 节点数,默认为 1,多版本可根据适用场景调配节点数,整体配置最大值不超出 10 节点即可。
- signature_name (可选),默认为 serving_default,填写错误可能会导致运行失败。
- reshape_size (可选),图片预处理形状 [H, W],默认为 imageNet 图片大小,填写错误可能会导致运行失败。
- prepare_mode (可选),keras/Tensoflow 模型预处理模式,可选 tfhub、caffe、tf、torch,默认为 tfhub,填写错误可能会导致运行失败。
- model_structure (可选),pytorch 模型保存网络名称,默认为 model,填写错误可能会导致运行失败。
- job_name (可选),oneflow 模型推理 job 名称,默认为 inference,填写错误可能会导致运行失败。