我们很高兴地宣布 ModelZ 进入 Beta 公测,ModelZ 是一个无服务器的 GPU 推理平台。用户不需要关心底层的基础设施,就可以获得高性能且低成本的 GPU 推理服务。
特性
ModelZ 是一个托管的服务,为用户提供了简单的 API 和易用的 UI 来部署他们的机器学习模型。由 ModelZ 负责所有底层基础设施,包括服务器、存储和网络。用户可以专注于开发模型和将它们部署在平台上,而无需担心底层基础设施。
ModelZ 提供以下功能:
- 无服务器: 无服务器的架构使我们能够根据您的需求轻松地扩展或缩小规模,为您提供可靠和可扩展的解决方案,以在任何规模上部署和原型化机器学习应用程序。
- 降低成本: 仅支付您消耗的资源,不收取任何闲置服务器或冷启动的额外费用。加入我们即可获得 30 分钟免费使用L4 GPU。连接支付方式并获得额外的 90 分钟免费使用。
- OpenAI 兼容的 API: 我们的平台支持 OpenAI 兼容的 API,这意味着您可以轻松地将新的开源 LLM 集成到现有应用程序中,只需几行代码即可完成。
- 支持 Gradio 与 Streamlit 等 demo 框架: 我们提供一个强大的原型环境,支持 Gradio 和 Streamlit。通过我们与 HuggingFace Space 的集成,访问预训练模型和启动演示变得更加容易。这样,您可以快速测试和迭代您的模型,在开发过程中节省时间和精力。
快速入门
使用 ModelZ 很容易上手,只需要三个步骤就可以体验到 ModelZ 的功能:
这是一个使用 Modelz Beta 平台和 bloomz 560M 模板创建推理部署的完整工作流程示例。创建模型服务后,可以在用户界面中获得详细信息:
我们会在 UI 中显示日志、事件(例如部署的自动扩缩容事件),以及指标(例如总请求数、正在处理中的请求数等)。除此之外,您还可以获得模型的文档和使用指南。
模板中的 Bloomz 560M 由 modelz-llm 支持,为模型提供了 OpenAI 兼容的 API。因此,您可以使用 OpenAI Python package 或者 langchain 直接使用该模型。首先,您需要从仪表板中获取 endpoint 和 API 密钥。
import openai
openai.api_base="https://bloomz-webhiq5i9dagphhu.modelz.io"
# Use your API Key in modelz.
openai.api_key="mzi-xxx"
# create a chat completion
chat_completion = openai.ChatCompletion.create(
model="any", messages=[{"role": "user", "content": "Hello world"}])
Serverless
模型服务将在闲置一段时间后(可以在创建页面中进行配置)缩减为 0。在 UI 中可以获得自动缩放的事件和指标:
社区
ModelZ 构建在 envd
, mosec, modelz-llm 等许多开源项目之上。如果您有兴趣加入 Modelz 社区,可以通过这些方式参与!
- 加入 Modelz discord community:我们有一个 Discord 社区,您可以与其他开发人员联系,提问,分享您的知识和专业知识。
- 贡献开源项目:Modelz 是建立在
envd
, mosec, modelz-llm 等许多开源项目之上的。如果您有兴趣为这些项目做出贡献,可以查看它们的 GitHub 存储库并开始贡献。 - 分享您的模型和项目:如果您使用 Modelz 构建了一个机器学习模型或项目,我们很乐意听到您的分享!您可以在我们的 Discord 社区或 Twitter 上使用 #ModelZ 标签分享您的项目,或提及 @TensorChord。
如果你对 ModelZ 有任何的疑问或需求,也可以通过邮件联系我们:modelz@tensorchord.ai
License
- This article is licensed under CC BY-NC-SA 3.0.
- Please contact me for commercial use.