Mistral-NeMo-12B-Instruct 是由 NVIDIA 与 Mistral AI 联合训练的大型语言模型(LLM),包含 120 亿参数。其在同等或更小规模的现有模型中表现显著领先。
核心特性
Mistral-NeMo-12B-Instruct 是针对英语场景优化的对话模型。
该指令模型可通过 NeMo 框架工具集进一步定制,包括使用参数高效微调技术(P-tuning、适配器、LoRA 等)以及通过 NeMo-Aligner 实现模型对齐(SFT、SteerLM、RLHF 等)。
训练周期: 模型于 2024 年 6 月至 2024 年 7 月期间完成训练
数据时效性: 预训练数据截止至 2024 年 4 月
Transformers 格式: https://huggingface.co/mistralai/Mistral-Nemo-Instruct-2407
Mistral-NeMo-12B-Instruct 采用 Transformer 架构,具有以下特性:
架构类型: Transformer 解码器(自回归语言模型)
该模型基于从互联网爬取的数据进行训练,这些数据可能包含有害言论、不安全内容和社会偏见。因此,模型可能会放大这些偏见,并在接收到有害提示时返回具有毒性的回应。即使提示本身不包含任何明显冒犯性内容,该模型仍可能生成不准确的答案、遗漏关键信息,或包含无关冗余文本,产生社会不可接受或不良的回应。
英伟达认为可信赖的人工智能是共同责任,我们已制定相关政策和实践,以支持广泛AI应用的发展。开发者根据我们的服务条款下载或使用本模型时,应与其内部模型团队协作,确保该模型符合相关行业和应用场景的要求,并应对不可预见的产品误用情况。请通过此链接报告安全漏洞或英伟达AI相关问题。