LIBRARY 非OpenAI模型使用Agents SDK OpenAI Agents SDK使用了OpenAI的新的Responses API,有别于广泛得到支持的旧的OpenAI兼容API接口,因此非OpenAI模型无法直接利用OpenAI Agents SDK。
LIBRARY 用Dolphin MCP实现LLM路由 我正在构建一个内容分析工具,需要处理大量文本。OpenAI的模型功能强大但用于高容量处理时非常昂贵;而通过本地Ollama运行所有内容导致复杂推理任务的瓶颈。
APPLICATION 基于Redis的LLM语义缓存 LLM非常强大,但它们可能会非常缓慢。如果你曾经等待超过10秒来回答一个你几乎之前问过的问题,你就知道这种挫败感了。这就是语义缓存发挥作用的地方。
APPLICATION 集成Llama模型与MCP服务器 在这篇博客文章中,我们将学习如何使用任何开源LLM、OpenAI或Google Gemini的MCP服务器。我们将构建一个简单的CLI代理,该代理可以控制和与SQLite数据库交互。
APPLICATION 从零构建医学多智能体AI 本文介绍使用Streamlit作为前端,并利用Ollama平台上的Llama-3.2:3b模型,实现用于总结医学文本、撰写研究文章以及屏蔽受保护健康信息(PHI)的多智能体系统。
MODEL-ZOO 在CPU上运行DeepSeek-R1 在 CPU 上运行 LLM 提供了一种扩大可访问性的替代方案,允许更多用户在现有硬件上利用 AI。本指南探讨了在 CPU 上有效使用 DeepSeek R1 的方法。
APPLICATION 在.Net应用中集成DeepSeek-R1 本文将引导你了解如何在 GitHub Models 上将 Microsoft.Extensions.AI (MEAI) 库与 DeepSeek R1 结合使用,以便你今天就可以开始尝试使用 R1 模型。
APPLICATION VS Code集成DeepSeek-R1 在使用 Cursor 等付费AI助手等工具无数小时后,我发现了一个改变游戏规则的功能:将DeepSeek-R1与 Visual Studio Code 无缝、免费的集成,增强了我的工作流程。