预测和推理
Beam 提供了不同的方法来实现推理作为您管道的一部分。您可以在您的管道中直接运行您的 ML 模型,并在批量和流管道中将其应用于大规模数据集。
使用 RunInference API
| ![]() |
RunInference API 可用于 Beam Python SDK 2.40.0 及更高版本。您可以将 Apache Beam 与 RunInference API 一起使用,使用机器学习 (ML) 模型在批处理和流管道中进行本地和远程推理。从 Apache Beam 2.40.0 开始,支持 PyTorch 和 Scikit-learn 框架。Tensorflow 模型通过 tfx-bsl
支持。有关使用 RunInference 与 Python 的更多信息,请参阅 关于 Beam ML。
RunInference API 可用于 Beam Java SDK 2.41.0 及更高版本,通过 Apache Beam 的 多语言管道框架。有关 Java 包装器转换的信息,请参阅 RunInference.java。要试用它,请参阅 Java Sklearn Mnist 分类示例。
您可以使用 RunInference API 创建多种类型的转换:该 API 从模型处理程序接收多种类型的设置参数,参数类型决定模型的实现。
任务 | 示例 |
---|---|
我想使用 RunInference 转换 | 修改 Python 管道以使用 ML 模型 |
我想使用 RunInference 与 PyTorch | 使用 RunInference 与 PyTorch |
我想使用 RunInference 与 Sklearn | 使用 RunInference 与 Sklearn |
我想使用预训练模型(PyTorch、Scikit-learn 或 TensorFlow) | 使用预训练模型 |
用例
任务 | 示例 |
---|---|
我想构建具有多个模型的管道 | 多模型管道 |
我想使用 TensorRT 构建自定义模型处理程序 | 将 TensorRT 与 RunInference 一起使用 |
我想使用 LLM 推理 | 大型语言模型推理 |
上次更新时间:2024/10/31
您是否找到了您要找的所有内容?
它是否有用且清晰?您想更改任何内容吗?请告诉我们!