LIBRARY 用Dolphin MCP实现LLM路由 我正在构建一个内容分析工具,需要处理大量文本。OpenAI的模型功能强大但用于高容量处理时非常昂贵;而通过本地Ollama运行所有内容导致复杂推理任务的瓶颈。
MODEL-ZOO Gemma 3:多语言多模态长上下文 Gemma 3是 Gemma 系列模型的新一代。这些模型的参数范围从 1B 到 27B,具有高达 128k 个标记的上下文窗口,可以处理图像和文本,并支持 140 多种语言。
APPLICATION 用LangGraph开发RAG研究多代理 在本文中,我们展示了一个使用LangGraph开发的RAG研究多代理工具。该工具旨在解决需要多个来源和迭代步骤才能得出最终答案的复杂问题。
TOOL 构建知识图谱驱动的AI代理 在这篇文章中,我们展示了如何构建可以轻松集成基于数据库的工具的自主应用程序。虽然我们专注于Neo4j知识图谱的GraphRAG用例,但可以在同一个自主应用程序中结合不同的数据源和类型的数据库。
APPLICATION 基于Redis的LLM语义缓存 LLM非常强大,但它们可能会非常缓慢。如果你曾经等待超过10秒来回答一个你几乎之前问过的问题,你就知道这种挫败感了。这就是语义缓存发挥作用的地方。