在Azure机器学习端点中将数据预处理到预测和批处理/在线端点的成本差异


  1. 我创建了ML模型,我想在Azure上部署。在步骤中,我首先预处理数据,如OHE的类别和标准化的数字数据使用StandardScaler(),然后我训练模型。之后,我注册它并进行部署。我想使用非标准化的数据来使用这个模型,我希望标准化作为azure请求的一部分发生。是否有可能,或者我必须在将数据发送到azure预测之前标准化数据?我能以某种方式部署StandardScaler.fit()训练数据在同一端点,我的模型是?如果没有,你能告诉我如何处理这种情况吗?
  2. 你能告诉我哪个端点对我来说是足够的吗?我会有一个应用程序,在那里我设置模型参数,然后我想发送一个请求到azure预测,然后显示在同一应用程序。其他人应该有能力做同样的事情。请求可以包含2k到40k条记录。我可以对这样的任务使用批量部署吗,或者我应该使用像ACI这样的实时端点吗?此外,如果是实时的,只有当有人发送请求时,我才会被收取费用,或者当没有请求api时,我会被收取费用?
  1. 说到第一点,建议在之前执行标准化发送数据。一旦数据发送到端点,建议仅将其用于预测,而不是额外的预处理工作。在将数据发送到端点之前,完成预处理步骤。

  2. 在线端点是实现完整操作预测的有效途径。由于有预测的数据和请求,每次我们都需要与模型进行通信。所以,当有需求时,我们需要沟通。这就是在线端点可能是当前预测模型实现方法的原因。

最新更新