在自然语言处理领域,语言模型的评估对于开发人员推动语言理解和生成的边界至关重要。LLM AutoEval是一款旨在简化和加速语言模型(LLMs)评估过程的工具,专为寻求快速高效评估LLM性能的开发者定制。
LLM AutoEval具有以下关键特点:
1. **自动化设置和执行:** LLM AutoEval通过使用RunPod简化设置和执行过程,提供方便的Colab笔记本,实现无缝部署。
2. **可定制的评估参数:** 开发者可以通过选择两个基准套件 - nous或openllm,微调他们的评估。这提供了对LLM性能的灵活评估。
3. **摘要生成和GitHub Gist上传:** LLM AutoEval生成评估结果的摘要,快速展示模型的性能。该摘要随后方便地上传至GitHub Gist,以便轻松分享和参考。
LLM AutoEval提供了用户友好的界面,可定制的评估参数,满足开发者在评估语言模型性能时的多样化需求。两个基准套件,nous和openllm,提供了不同的任务列表进行评估。nous套件包括诸如AGIEval、GPT4ALL、TruthfulQA和Bigbench等任务,推荐用于全面评估。
另一方面,openllm套件包含任务,如ARC、HellaSwag、MMLU、Winogrande、GSM8K和TruthfulQA,利用vllm实现增强速度。开发者可以从Hugging Face中选择特定的模型ID,选择首选GPU,指定GPU数量,设置容器磁盘大小,选择在RunPod上使用社区或安全云,并切换对于像Phi这样的模型的信任远程代码标志。此外,开发者还可以激活调试模式,尽管不建议在评估后保持Pod处于活动状态。
为了在LLM AutoEval中实现无缝的令牌集成,用户必须使用Colab的Secrets选项卡,在那里创建两个名为runpod和github的秘密,分别包含RunPod和GitHub所需的令牌。
两个基准套件,nous和openllm,满足不同的评估需求:
1. Nous套件:*开发者可以将其LLM结果与OpenHermes-2.5-Mistral-7B、Nous-Hermes-2-SOLAR-10.7B或Nous-Hermes-2-Yi-34B等模型进行比较。Teknium的LLM-Benchmark-Logs可作为评估比较的有价值参考。
2. Open LLM套件:该套件允许开发者将其模型与列在Open LLM排行榜上的模型进行基准测试,促进社区内更广泛的比较。
在LLM AutoEval中进行故障排除得到了对常见问题的明确指导。例如,“Error: File does not exist”情景提示用户激活调试模式并重新运行评估,便于检查日志以识别和纠正与缺少的JSON文件相关的问题。在“700Killed”错误的情况下,警告用户硬件可能不足,特别是在尝试在像RTX3070这样的GPU上运行Open LLM基准套件时。最后,对于过时的CUDA驱动程序的不幸情况,建议用户启动新的pod以确保LLM AutoEval工具的兼容性和平稳运行。
LM AutoEval是一款为开发者在复杂的LLM评估领域中航行提供帮助的有前途的工具。作为一个为个人使用而设计的不断发展的项目,鼓励开发者谨慎使用,并为其发展做出贡献,确保在自然语言处理社区中持续增长和实用性。
项目网址:https://github.com/mlabonne/llm-autoeval?tab=readme-ov-file