Deploy 本节重点介绍部署现实世界的模型。它包含以下文件: 分布式TensorFlow,它解释了如何创建一个TensorFlow服务器集群。
服务如何工作 要在DockerEngine处于群集模式时部署应用程序映像,请创建一个服务。在某些更大的应用程序中,服务通常会成为微服务的图像。
使用DockerCLI创建群集,将应用程序服务部署到群集,并管理群体行为。 如果您之前使用的是Docker版本1.12.0,则可以使用独立群集,但我们建议您进行更新。
如果您发现默认的Inceptionv3模型对于您的应用程序太大或太慢,请查看下面的“其他模型架构”部分,以了解如何加速和缩小您的网络。
具有张量流的大规模线性模型 tf.estimatorAPI为TensorFlow中的线性模型提供了一套丰富的工具(除其他外)。本文档提供了这些工具的概述。它说明: 线性模型是什么。
开始,第3部分:服务 1:概况介绍 2:集装箱 3:服务 4:成群 5:堆叠 6:部署应用程序 先决条件 安装Docker版本1.13或更高版本... 获取Docker撰写。
Google内部和外部的研究人员发表了描述所有这些模型的论文,但结果仍然难以重现。我们现在正在通过发布我们最新型号Inception-v3上运行图像识别的代码来进行下一步。
一个群是Docker引擎或集群节点,在这里部署服务。DockerEngineCLI和API包括管理群集节点(例如,添加或移除节点)以及在群集中部署和编排服务的命令。
您可以在您的计算机本地运行此类服务,或者在云中对其进行可扩展部署。 要准备一个用于服务的训练完好的估算器,您必须以标准SavedModel格式导出它。
现在,我们实际上有很多模型被部署在商业应用程序中。培训的计算需求随着研究人员数量的增加而增加,但推断所需的周期与用户成比例地增加。这意味着纯粹的推理效率已经成为许多团队的热门话题。
local3具有整流线性激活的完全连接层。LOCAL4具有整流线性激活的完全连接层。softmax_linear线性转换来产生logits。
现代网页需要许多请求(十几个或更多)来提供所需的信息量,证明这种早期模型效率低下。 HTTP/1.1中创建了两个较新的模型。持久连接模型保持连续请求之间的连接打开,减少打开新连接所需的时间。
例如,dense_shape=[3,6]指定二维3x6张量,dense_shape=[2,3,4]指定三维2x3x4张量,并dense_shape=[9]指定具有9个元素的一维张量。
Deployaservicetotheswarm 创建完群后,您可以将服务部署到群中。在本教程中,您还添加了工作节点,但这不是部署服务的必要条件。 打开终端并将ssh放入运行管理器节点的机器中。
开始,第5部分:堆栈 1:概况介绍 2:集装箱 3:服务 4:成群 5:堆叠 6:部署应用程序 先决条件 安装Docker版本1.13或更高版本。 弄到码头组成如上文所述第三部分先决条件...
例如,您可能需要分析模型,或者在TensorFlow和其他格式之间来回转换。本指南试图解释一些关于如何使用保存模型数据的主要文件的细节,以便更容易地开发这些类型的工具。
估算器的优点 估算人员提供以下好处: 您可以在本地主机上或分布式多服务器环境中运行基于估算器的模型,而无需更改模型。此外,您可以在CPU,GPU或TPU上运行基于估算器的模型,而无需重新编码模型。
开始,第6部分:部署您的应用程序 1:概况介绍 2:集装箱 3:服务 4:成群 5:堆叠 6:部署应用程序 先决条件 安装Docker版本1.13或更高版本。

扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2026 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059
粤公网安备44030502008569号
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号
