美东时间周二,微软推出了一款轻量级AI模型Phi-3-mini。
微软声称,这款轻量级AI模型的性能与GPT-3.5等模型相当,同时适合在手机上本地使用。而更重要的是,该款模型的成本要低廉许多,这意味着它可以通过成本优势吸引更广泛的客户群。
微软发布小语言模型
Phi-3-mini是微软计划发布的三款小型语言模型(SLM)中的第一款。
Phi-3 mini的可测量参数为38亿个,其前一版本是微软研究院于2023年底发布的Phi-2模型,该模型具备27亿个可测量参数。微软表示,Phi-3的性能比前一版本更好,其响应速度接近比它大10倍的模型。
微软表示,根据学术基准和内部测试对Phi-3 mini的性能进行评估后发现,该模型有能力与“Mixtral 8x7B和GPT-3.5”等模型竞争。
该公司表示,Phi-3 mini在大规模多任务语言理解(MMLU)测试中获得了69%的评分,在Multi-turn(MT)基准测试中获得了8.38的评分。
不过微软也承认,尽管具有与LLM相媲美的能力,但Phi-3 mini“在执行某些任务时,从根本上受到容量的限制”。“该模型不具备存储太多事实知识的能力”,不过微软断言“这种弱点可以通过搜索引擎的增强来解决”。
“不只是便宜一点”
微软负责生成式AI研究的副总裁Sassabastien Bubeck强调:“Phi-3不只是稍微便宜一点,而是便宜得多。与具有类似功能的其他模型相比,他们的成本相差10倍。”
小语言模型旨在执行更简单的任务,这意味着它更适配于那些资源有限的公司。
该公司表示,Phi-3-mini将即刻在微软云服务平台Azure的人工智能模型目录、机器学习模型平台hugs Face和用于在本地机器上运行模型的框架Ollama上提供。
Phi-3-mini还将可以在英伟达的软件工具Nvidia Inference Microservices (NIM)上使用,并且还针对其图形处理单元(GPU)进行了优化。
(文章来源:财联社)