llama 3提供两种参数大小的模型——8b和70b,上下文长度为8k,能够支持广泛的用例。llama 3使用了仅含解码器的transformer架构,以及高达128k规模的新型分词器,极大提升了模型的性能。此外,meta改进的训练后处理程序大幅降低了误拒率,提高了模型响应的一致性和多样性。
amazon sagemaker jumpstart提供预训练的模型、内置算法和预构建的凯发在线的解决方案,帮助客户快速开始机器学习项目。amazon sagemaker jumpstart能够帮助客户从广泛的公开可用基础模型中进行选择,并将基础模型部署到专用的sagemaker实例中,这些实例置于网络隔离的环境,并可以使用sagemaker进行模型训练和部署。
客户现在可以在amazon sagemaker studio中通过几次点击或通过sagemaker python sdk编程方式发现并部署llama 3模型,还可以利用sagemaker pipelines、sagemaker debugger或容器日志等功能,提升模型性能并实施mlops控制。此外,该方式部署的模型始终处在亚马逊云科技的安全环境下,由客户的vpc控制,以确保数据安全。
meta llama 3基础模型现已在amazon sagemaker studio的美东(北弗吉尼亚州)、美东(俄亥俄州)、美西(俄勒冈州)、欧洲(爱尔兰)和亚太(东京)区域提供部署和推理服务。