我的编程空间,编程开发者的网络收藏夹
学习永远不晚

tensorflow-model-ser

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

tensorflow-model-ser

1、环境说明

①、操作系统:ubuntu
②、网络要求:需要能够科学上网

2、安装依赖

apt-get install -y python3 build-essential curl libcurl3-dev git libfreetype6-dev libzmq3-dev pkg-config python3-dev python3-numpy python3-pip software-properties-common swig zip zlib1g-dev

3、配置python环境

ln -s /usr/bin/python3 /usr/bin/python
ln -s /usr/bin/pip3 /usr/bin/pip

4、安装tensorflow-serving-api

pip install tensorflow-serving-api

5、配置tensorflow-model-server仓库


echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | tee /etc/apt/sources.list.d/tensorflow-serving.list
curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | apt-key add -

6、安装tensorflow-model-server

apt-get remove tensorflow-model-server
apt-get install tensorflow-model-server

7、直接执行tensorflow_model_server命令测试是否安装成功


tensorflow_model_server

Flags:
    --port=8500                         int32   Port to listen on for gRPC API
    --rest_api_port=0                   int32   Port to listen on for HTTP/REST API. If set to zero HTTP/REST API will not be exported. This port must be different than the one specified in --port.
    --rest_api_num_threads=32           int32   Number of threads for HTTP/REST API processing. If not set, will be auto set based on number of CPUs.
    --rest_api_timeout_in_ms=30000      int32   Timeout for HTTP/REST API calls.
    --enable_batching=false             bool    enable batching
    --batching_parameters_file=""       string  If non-empty, read an ascii BatchingParameters protobuf from the supplied file name and use the contained values instead of the defaults.
    --model_config_file=""              string  If non-empty, read an ascii ModelServerConfig protobuf from the supplied file name, and serve the models in that file. This config file can be used to specify multiple models to serve and other advanced parameters including non-default version policy. (If used, --model_name, --model_base_path are ignored.)
    --model_name="default"              string  name of model (ignored if --model_config_file flag is set
    --model_base_path=""                string  path to export (ignored if --model_config_file flag is set, otherwise required)
    --file_system_poll_wait_seconds=1   int32   interval in seconds between each poll of the file system for new model version
    --flush_filesystem_caches=true      bool    If true (the default), filesystem caches will be flushed after the initial load of all servables, and after each subsequent individual servable reload (if the number of load threads is 1). This reduces memory consumption of the model server, at the potential cost of cache misses if model files are accessed after servables are loaded.
    --tensorflow_session_parallelism=0  int64   Number of threads to use for running a Tensorflow session. Auto-configured by default.Note that this option is ignored if --platform_config_file is non-empty.
    --ssl_config_file=""                string  If non-empty, read an ascii SSLConfig protobuf from the supplied file name and set up a secure gRPC channel
    --platform_config_file=""           string  If non-empty, read an ascii PlatformConfigMap protobuf from the supplied file name, and use that platform config instead of the Tensorflow platform. (If used, --enable_batching is ignored.)
    --per_process_gpu_memory_fraction=0.000000  float   Fraction that each process occupies of the GPU memory space the value is between 0.0 and 1.0 (with 0.0 as the default) If 1.0, the server will allocate all the memory when the server starts, If 0.0, Tensorflow will automatically select a value.
    --saved_model_tags="serve"          string  Comma-separated set of tags corresponding to the meta graph def to load from SavedModel.
    --grpc_channel_arguments=""         string  A comma separated list of arguments to be passed to the grpc server. (e.g. grpc.max_connection_age_ms=2000)
    --enable_model_warmup=true          bool    Enables model warmup, which triggers lazy initializations (such as TF optimizations) at load time, to reduce first request latency.

1、安装JDK8

apt-get install openjdk-8-jdk

2、安装bazel编译工具

在包资源中增加Bazel的发布源

echo "deb [arch=amd64] http://storage.googleapis.com/bazel-apt stable jdk1.8" | tee /etc/apt/sources.list.d/bazel.list
curl https://bazel.build/bazel-release.pub.gpg | apt-key add -

安装和更新Bazel

sudo apt-get update && sudo apt-get install bazel
sudo apt-get upgrade bazel

3、clone 代码

git clone https://github.com/tensorflow/serving.git
cd serving

4、安装依赖环境

apt-get install -y \
        build-essential \
        curl \
        libcurl3-dev \
        git \
        libfreetype6-dev \
        libpng12-dev \
        libzmq3-dev \
        pkg-config \
        python-dev \
        python-numpy \
        python-pip \
        software-properties-common \
        swig \
        zip \
        zlib1g-dev

5、 编译安装

bazel build -c opt tensorflow_serving/...

6、 编译完成

二进制文件放在bazel-bin目录下,可以使用如下命令运行:

bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server

7、 测试编译

bazel test -c opt tensorflow_serving/...

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

tensorflow-model-ser

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

tensorflow-model-ser

1、环境说明①、操作系统:ubuntu②、网络要求:需要能够科学上网2、安装依赖apt-get install -y python3 build-essential curl libcurl3-dev git libfreetype6-de
2023-01-31

使用Python写Windows Ser

1.背景如果你想用Python开发Windows程序,并让其开机启动等,就必须写成windows的服务程序Windows Service,用Python来做这个事情必须要借助第三方模块pywin32,自己去下载然后安装(注意下载符合自己OS
2023-01-31

SER+FreeRADIUS实现3A

文档说明部分内容转自VOIPFC,原文使用的SER版本不是最新的了,我在自己实践的基础上将对文档进行一下完善。----------------------------------------- 版本历史2008.11.24 --初始版本,转
2023-01-31

python 搭建简单的http ser

server:#coding=utf-8from BaseHTTPServer import BaseHTTPRequestHandlerimport cgiclass PostHandler(BaseHTTPRequestHandle
2023-01-31

Python3实现简单的http ser

前端的开发的html给我们的时候,由于内部有一些ajax请求的.json的数据,需要在一个web server中查看,每次放到http服务器太麻烦。还是直接用python造一个最方便。最简单的,直接用python3 -m http.serv
2023-01-31

opencv3.3+TensorFlow

1、安装Python环境,推荐使用Anaconda,过程不再赘述。2、下载opencv_python3.3.0cp35cp35mwin_amd64.whl或...win32.whl,opencv_python下载地址,下载好后把文件复制到A
2023-01-31

【TensorFlow】01 Tenso

2018.9.10一、概述TF使用数据数据流图进行数值计算,亮点是支持异构设备分布式计算机常用的ML库有MXNet Torch/Pytorch Theano CNTK Caffe等0阶张量(纯量),1阶张量(向量),2阶张量(矩阵)tens
2023-01-31

TensorFlow Lite(七)在Android上构建 TensorFlow Lite

下载源代码git clone https://github.com/tensorflow/tensorflow 运行相关的TFLite android例子程序 https://github.com/tensorflow/tensorflow
2022-06-06

TensorFlow安装

···受不了学习的苦,就要受生活的苦···包的安装:pip + install + 需要安装的包。我安装的是 anaconda 环境,所以直接打开 anaconda prompt 工具, pip install tensorflow 直接安
2023-01-30

Centos7安装Tensorflow

本文记录了安装过程,为后续重复工作节省时间。有问题请联系zhangtiey@gmail.com一开始基于python2安装的TensorFlow,后来发现要基于python3,又折腾了一遍。好的地方是基于virtualenv,以前的安装不影
2023-01-31

windows 安装TensorFlow

我的windows版本是8.1,装了python3.6之后,用pip安装TensorFlow,总是失败:网上有各种说法,其中一种是更新pip,试了没用。还有一种是查看python版本:如下图,命令行进入python,可以看到是32位的,pi
2023-01-30

从 Python到Tensorflow

最近毕业设计题目是研究对抗样本,要用tensorflow来搭建神经网络,因此python必不可少,这个不是一个传统的Python学习教程只是把学习Python过程中遇到的问题和经验记录下来(基于Python2.7),如果想要一步一步学习Py
2023-01-31

ADF Model: DBSequence(讨论一)

Go to My Oracle Blog刚开始使用ADF的同学基本都会问这样一个问题:以HR schema为例:如果列EMPLOYEE_ID的值由数据库端的Sequence负责产生,并且Sequence由Insert触发器调用,那么在中间层
2023-06-03

php中model怎么用

这篇文章主要介绍php中model怎么用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!php中model的用法:1、创建一个PHP示例文件;2、引入配置文件;3、创建Model类;4、初始化连接数据库操作;5、执行并
2023-06-21

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录