MODEL-ZOO 从零实现2B参数LLM 我们将使用 Pile 数据集从头开始训练一个 20 亿参数的 LLM。结果,我们得到了一个 LLM,它在响应中输出完美的语法和标点符号,较短的上下文有意义,但不是整个响应。
MODEL-ZOO 微调PaliGemma优化目标检测 虽然 PaliGemma 具有零样本能力(这意味着模型无需微调即可识别物体),但这种能力是有限的。Google 强烈建议对模型进行微调,以在特定领域获得最佳性能。
MODEL-ZOO Llama Guard保障LLM对话安全 LLM对话安全在这里指的是保护整个客户体验—不允许他们查看个人信息,防范有毒内容、有害内容,以及基本上任何他们不应该看到但不会影响他们整体体验的内容。
MODEL-ZOO PaliGemma2微调优化图像理解 通过使用自定义数据集(例如知名的 VQA)对 PalliGema2 进行微调,可以在高度特定的任务上实现最先进的性能,以连续且可扩展的方式弥合文本和视觉理解之间的差距。
MODEL-ZOO StyleTTS 2和Tortoise-TTS 本项目指南深入探讨了这场革命前沿的两个突出模型:StyleTTS 2 和 Tortoise-TTS。这两种模型都代表了语音克隆和语音合成的创新方法,每种方法都利用不同的技术来实现令人印象深刻的结果。
MODEL-ZOO 10个最流行的FLUX LoRA模型 如果想为你的项目增添光彩,尝试新的艺术风格,或者只是更深入地研究人工智能生成的艺术,那么这 10 个顶级 Flux LoRA 模型将让你大饱眼福。
MODEL-ZOO 34个编程大模型综合比较 本文对通过公共 API 提供的顶级 LLM 进行了深入分析。我专注于它们在编码任务中的表现,以 HumanEval 等基准为衡量标准,以及它们在各自的 Elo 分数中反映的实际表现。
MODEL-ZOO Llama3微调优化关系提取 在 Llama3–70B 的帮助下,我们构建了一个旨在进行关系提取的监督微调数据集。然后,我们使用该数据集对 Llama3–8B 进行微调,以增强其关系提取能力。