Transformer 模型部署实战
前言
我们已经学习了如何从零开始训练和使用 Transformer 模型,还掌握了如何针对多种任务进行微调。但我们尚未学习如何在实际生产环境中部署这些模型。本节将介绍如何在生产环境中部署基于 Transformer 的自然语言处理 (Natural Language Processing, NLP) 解决方案。我们将介绍 TensorFlow Extended (TFX) 作为机器学习部署的解决方案。此外,还会讲解如何通过 FastAPI 等工具将 Transformer 模型作为 API 提供服务。还将了解 Docker 的基础知识,并学习如何将服务 Docker 化以便于部署。最后,将学习如何使用 Locust 对基于 Transformer 的解决方案进行速度和负载测试。
使用 FastAPI 部署 Transformer 模型
我们可以使用多种 Web 框架


