这款超轻量级AI模型适合您的手机,并且可以击败ChatGPT
2024 年 4 月 25 日

微软今天宣称已发布“市场上最有能力和具成本效益的小型语言模型(SLMs)”,称第三代Phi家族的Phi-3在性能上胜过同等规模和一些更大的模型。

小语言模型(SLM)是一种旨在执行特定语言相关任务的AI模型。与适用于各种通用任务的大语言模型(LLMs)不同,SLMs建立在较小的数据集上,使它们更有效和具成本效益,适用于特定的用例。

Phi-3有不同的版本,微软解释说,其中最小的是Phi-3 Mini,一个训练于3.3万亿令牌上的38亿参数模型。尽管其尺寸相对较小—Llama-3的语料库超过了15万亿个令牌—Phi-3 Mini仍然能处理128K令牌的上下文。这使其与GPT-4相媲美,并在令牌容量方面超过Llama-3和Mistral Large。

换句话说,像Meta.ai上的Llama-3和Mistral Large这样的AI巨头在长时间对话或提示之后可能会崩溃,而这款轻量级模型则开始挣扎之前。

Phi-3 Mini最显著的优势之一是它可以适配并在一部普通智能手机上运行。微软在iPhone 14上测试了该模型,运行正常,每秒生成14个令牌。运行Phi-3 Mini仅需要1.8GB的VRAM,使其成为对于具有更专注需求的用户而言是一种轻便高效的选择。

虽然Phi-3 Mini可能不适合高端编程人员或具有广泛需求的人,但对于具有特定需求的用户来说,它可以是一种有效的选择。例如,需要聊天机器人的初创企业或利用LLMs进行数据分析的人可以使用Phi-3 Mini来进行数据组织、提取信息、进行数学推理和构建代理等任务。如果给予模型互联网访问,它可以变得非常强大,通过实时信息弥补其缺乏功能。

Phi-3 Mini之所以能取得高测试分数,是因为微软专注于用最有用的信息筛选其数据集。实际上,Phi家族并不适用于需要事实知识的任务,但其高推理能力使其胜过主要竞争对手。Phi-3 Medium(一个拥有140亿参数的模型)在合成基准测试中一直胜过强大的LLMs如GPT-3.5—驱动ChatGPT免费版本的LLM—而Mini版本则在大多数合成基准测试中胜过强大的模型如Mixtral-8x7B。

然而,值得注意的是,Phi-3并不像其前身Phi-2那样开源。相反,它是一个_开放模型_,意味着它是可访问和可用的,但它没有像Phi-2那样的开源许可,允许更广泛的使用和商业应用。

在未来几周,微软表示将发布更多Phi-3家族的模型,包括Phi-3 Small(70亿参数)和前面提到的Phi-3 Medium。

微软已在Azure AI Studio、Hugging Face和Ollama上提供Phi-3 Mini。该模型经过指令调优,并针对ONNX Runtime进行了优化,支持Windows DirectML,并跨不同GPU、CPU甚至移动硬件平台提供跨平台支持。

了解加密货币新闻,每日获取更新。 #