本地部署开源大模型工具

Xinference

一个集成和部署各种语言、语音识别及多模态模型的开源平台。

标签:

综合介绍

Xinference是一个强大且多功能的库,专为提供语言、语音识别和多模态模型而设计。它使得你能够方便地在云端、本地或甚至笔记本电脑上使用任何开源语言模型。Xinference支持快速部署并提供各种模型,具有高度的硬件利用率和灵活的API接口,还支持分布式部署和第三方库集成,如LangChain, LlamaIndex, Dify, 和 Chatbox。

 

 

功能列表

支持语言模型、语音识别和多模态模型
与多种开源LLM集成
提供OpenAI兼容的RESTful API
支持硬件资源的异构利用,包括GPU和CPU
灵活的API和界面支持
支持分布式部署

 

 

使用帮助

安装使用pip命令:`pip install “xinference[all]”`
启动本地实例命令:`xinference-local`
通过WEB UI, cURL, 命令行或Xinference的python客户端使用
访问官方文档了解更多信息和指南

相关导航