一个全面的中文基础模型评估套件
C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2023年5月份联合推出,包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别,用以评测大模型中文理解能力。
中文通用大模型综合性测评基准
开源框架,用于在真实设备上大规模测试和评估AI模型
AI大模型评测社区
大规模多任务语言理解基准
实时监测ChatGPT对话质量与用户体验的智能分析工具
全方位的多模态大模型能力评测体系
要发表评论,您必须先登录。
中文通用大模型综合性测评基准