运行推理
|
使用模型进行本地和远程推理。RunInference 转换使用机器学习 (ML) 模型对 PCollection 中的示例进行推理。该转换输出一个包含输入示例和输出预测的 PCollection。在 Apache Beam 2.40.0 及更高版本中可用。
有关 Beam RunInference API 的更多信息,请参见 关于 Beam ML 页面和 RunInference API 管道 示例。
示例
以下示例演示如何创建使用 Beam RunInference API 基于模型进行预测的管道。
| 框架 | 示例 |
|---|---|
| PyTorch | PyTorch 无键模型 |
| PyTorch | PyTorch 有键模型 |
| Sklearn | Sklearn 无键模型 |
| Sklearn | Sklearn 有键模型 |
相关转换
不适用。
Pydoc |
上次更新于 2024/10/31
您找到您要找的所有内容了吗?
它们是否有用且清晰?您想更改什么吗?请告诉我们!


Pydoc