如何用API-for-Open-LLM构建企业级AI应用:完整实战教程

张开发
2026/4/21 17:00:47 15 分钟阅读

分享文章

如何用API-for-Open-LLM构建企业级AI应用:完整实战教程
如何用API-for-Open-LLM构建企业级AI应用完整实战教程【免费下载链接】api-for-open-llmOpenai style api for open large language models, using LLMs just as chatgpt! Support for LLaMA, LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, Xverse, SqlCoder, CodeLLaMA, ChatGLM, ChatGLM2, ChatGLM3 etc. 开源大模型的统一后端接口项目地址: https://gitcode.com/gh_mirrors/ap/api-for-open-llmAPI-for-Open-LLM是一款强大的开源工具它为各类开源大语言模型提供了统一的OpenAI风格API接口让企业能够轻松构建自己的AI应用。本文将为你提供一个完整的实战教程帮助你快速上手并构建企业级AI应用。为什么选择API-for-Open-LLM在当今AI快速发展的时代企业对AI应用的需求日益增长。然而不同的开源大语言模型往往有各自不同的接口和调用方式这给企业开发带来了不小的挑战。API-for-Open-LLM的出现正是为了解决这一问题。这款工具具有以下核心优势✨ 以OpenAI ChatGPT API的方式调用各类开源大模型降低学习成本️ 支持流式响应实现打印机效果提升用户体验 实现文本嵌入模型为文档知识问答提供支持️ 支持大规模语言模型开发工具langchain的各类功能 只需要简单的修改环境变量即可将开源模型作为chatgpt的替代模型 支持加载经过自行训练过的lora模型⚡ 支持vLLM推理加速和处理并发请求支持的模型种类API-for-Open-LLM支持多种主流的开源大语言模型包括但不限于语言模型Baichuan (7B/13B)ChatGLM (6B)DeepSeek (7B/16B/67B/236B)InternLM (7B/20B)LLaMA (7B/13B/33B/65B)LLaMA-2 (7B/13B/70B)LLaMA-3 (8B/70B)Qwen (1.8B/7B/14B/72B)Qwen1.5 (0.5B/1.8B/4B/7B/14B/32B/72B/110B)Qwen2 (0.5B/1.5B/7B/57B/72B)Yi (1/1.5) (6B/9B/34B)嵌入模型bge-large-zh (1024维度)m3e-large (1024维度)text2vec-large-chinese (1024维度)bce-embedding-base_v1推荐(768维度)快速开始环境搭建1. 克隆仓库首先克隆项目仓库到本地git clone https://gitcode.com/gh_mirrors/ap/api-for-open-llm cd api-for-open-llm2. 安装依赖安装项目所需的依赖pip install -r requirements.txt3. 启动服务根据需求选择合适的启动方式标准启动方式vLLM启动方式推荐支持更高性能构建企业级AI应用的实战步骤步骤一配置环境变量设置必要的环境变量export OPENAI_API_KEYyour_api_key # 此处可随意填一个字符串 export OPENAI_API_BASEhttp://localhost:80/v1 # 后端启动的接口地址步骤二使用聊天界面项目提供了一个直观的聊天界面方便快速测试和演示cd streamlit-demo pip install -r requirements.txt streamlit run streamlit_app.py启动后你将看到如下界面步骤三API调用方式API-for-Open-LLM提供了与OpenAI API兼容的接口方便你集成到自己的应用中。Chat Completionsfrom openai import OpenAI client OpenAI( api_keyEMPTY, base_urlhttp://localhost:7891/v1/, ) # Chat completion API chat_completion client.chat.completions.create( messages[ { role: user, content: 你好, } ], modelgpt-3.5-turbo, ) print(chat_completion)Completionsfrom openai import OpenAI client OpenAI( api_keyEMPTY, base_urlhttp://localhost:7891/v1/, ) # Completion API completion client.completions.create( modelgpt-3.5-turbo, prompt你好, ) print(completion)Embeddingsfrom openai import OpenAI client OpenAI( api_keyEMPTY, base_urlhttp://localhost:7891/v1/, ) # Embedding API embedding client.embeddings.create( input你好, modeltext-embedding-ada-002 ) print(embedding)步骤四集成到企业应用API-for-Open-LLM可以无缝集成到各种企业应用中只需修改环境变量即可。集成到ChatGPT-Next-Webdocker run -d -p 3000:3000 \ -e OPENAI_API_KEYsk-xxxx \ -e BASE_URLhttp://localhost:80 \ yidadaa/chatgpt-next-web集成到Dify在docker-compose.yml中的api和worker服务中添加以下环境变量OPENAI_API_BASE: http://localhost:80/v1 DISABLE_PROVIDER_CONFIG_VALIDATION: true高级应用构建自定义AI助手利用API-for-Open-LLM你可以构建各种自定义AI助手如文档问答系统结合嵌入模型和RAG技术构建企业知识库代码助手利用CodeLlama等模型提供代码生成和解释功能多模态助手集成GLM-4V等多模态模型支持图片理解详细的实现方法可以参考项目中的示例代码和文档。常见问题与解决方案在使用过程中如果你遇到任何问题可以参考常见问题文档。如果问题仍然无法解决可以提交issue寻求帮助。总结API-for-Open-LLM为企业构建AI应用提供了一个强大而灵活的平台。通过统一的API接口企业可以轻松集成各种开源大语言模型快速开发出满足自身需求的AI应用。无论是客服聊天机器人、智能文档分析还是代码辅助工具API-for-Open-LLM都能为你提供有力的支持。现在就开始你的AI应用开发之旅吧如有任何疑问或建议欢迎参与项目的讨论和贡献。【免费下载链接】api-for-open-llmOpenai style api for open large language models, using LLMs just as chatgpt! Support for LLaMA, LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, Xverse, SqlCoder, CodeLLaMA, ChatGLM, ChatGLM2, ChatGLM3 etc. 开源大模型的统一后端接口项目地址: https://gitcode.com/gh_mirrors/ap/api-for-open-llm创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

更多文章