A collection of 2 posts
LLM 和其他 AI/ML 技术的日益普及,引发了有关安全性和保障的重大而多方面的担忧。这篇文章介绍了一些可集成到你的策略中的最佳 LLM 安全工具
Garak 是一种用于扫描语言学习模型 (LLM) 中的漏洞的工具。其主要功能是发现使用语言模型技术的系统中的潜在弱点和不良行为。