运行推理
|
使用模型进行本地和远程推理。RunInference
转换使用机器学习 (ML) 模型对 PCollection
中的示例进行推理。该转换输出一个包含输入示例和输出预测的 PCollection
。在 Apache Beam 2.40.0 及更高版本中可用。
有关 Beam RunInference API 的更多信息,请参见 关于 Beam ML 页面和 RunInference API 管道 示例。
示例
以下示例演示如何创建使用 Beam RunInference API 基于模型进行预测的管道。
框架 | 示例 |
---|---|
PyTorch | PyTorch 无键模型 |
PyTorch | PyTorch 有键模型 |
Sklearn | Sklearn 无键模型 |
Sklearn | Sklearn 有键模型 |
相关转换
不适用。
Pydoc |
上次更新于 2024/10/31
您找到您要找的所有内容了吗?
它们是否有用且清晰?您想更改什么吗?请告诉我们!