Paddle-Inference
latest

产品介绍

  • 飞桨推理产品简介
  • Paddle Inference 简介

快速开始

  • 预测流程
  • 预测示例 (C++)
  • 预测示例 (Python)
  • 预测示例 (C)
  • 预测示例 (GO)

使用方法

  • 源码编译
  • 飞腾/鲲鹏下从源码编译
  • 申威下从源码编译
  • 兆芯下从源码编译
  • 龙芯下从源码编译
  • 下载安装Linux预测库
  • 下载安装Windows预测库
  • 下载安装Mac预测库

性能调优

  • X86 CPU 上部署量化模型
  • X86 CPU 上部署BF16预测

工具

  • 模型可视化
  • 模型转换工具 X2Paddle

硬件部署示例

  • X86 Linux上预测部署示例
  • X86 Windows上预测部署示例
  • 使用昆仑预测
  • Linux上GPU预测部署示例
  • NV Jetson上预测部署示例
  • Windows上GPU预测部署示例

Benchmark

  • 性能数据

API 文档

  • C++ API 文档
  • Python API 文档
  • C API 文档
  • GO API 文档

FAQ

  • Paddle Inference FAQ
  • 训练推理示例说明
Paddle-Inference
  • »
  • Welcome to Paddle Inference’s documentation!
  • Edit on GitHub

Welcome to Paddle Inference’s documentation!¶

产品介绍¶

  • 飞桨推理产品简介
  • Paddle Inference 简介

快速开始¶

  • 预测流程
  • 预测示例 (C++)
  • 预测示例 (Python)
  • 预测示例 (C)
  • 预测示例 (GO)

使用方法¶

  • 源码编译
  • 飞腾/鲲鹏下从源码编译
  • 申威下从源码编译
  • 兆芯下从源码编译
  • 龙芯下从源码编译
  • 下载安装Linux预测库
  • 下载安装Windows预测库
  • 下载安装Mac预测库

性能调优¶

  • X86 CPU 上部署量化模型
  • X86 CPU 上部署BF16预测

工具¶

  • 模型可视化
  • 模型转换工具 X2Paddle

硬件部署示例¶

  • X86 Linux上预测部署示例
  • X86 Windows上预测部署示例
  • 使用昆仑预测
  • Linux上GPU预测部署示例
  • NV Jetson上预测部署示例
  • Windows上GPU预测部署示例

Benchmark¶

  • 性能数据

API 文档¶

  • C++ API 文档
  • Python API 文档
  • C API 文档
  • GO API 文档

FAQ

  • Paddle Inference FAQ
  • 训练推理示例说明
Next

© Copyright 2020, Paddle-Inference Developer. Revision 72c22d72.

Built with Sphinx using a theme provided by Read the Docs.
Read the Docs v: latest
Versions
master
latest
Downloads
html
epub
On Read the Docs
Project Home
Builds