挑战OpenAI,微软自研5000亿参数大模型曝光
2024-05-07 14:35

挑战OpenAI,微软自研5000亿参数大模型曝光

本文来自微信公众号:新智元 (ID:AI_era),作者:桃子、好困,原文标题:《挑战OpenAI,微软自研5000亿参数绝密武器曝光!前谷歌DeepMind高管带队》,题图来自:视觉中国

文章摘要
微软正在研发自家首款5000亿参数的大模型MAI-1,旨在与OpenAI、谷歌等顶尖模型竞争。

• 💡 微软首席技术官Kevin Scott确认MAI-1大模型正在研发中,将会成为微软AI领头羊

• 🔥 前谷歌DeepMind高管Mustafa Suleyman带领团队监督MAI-1项目,注重前沿大模型经验

• 💪 微软积极发展大小模型,Phi-3 mini性能优秀,MAI-1参数规模远超以往训练模型

不需要OpenAI,微软或许也会成为AI领头羊!


外媒Information爆料称,微软内部正在开发自家首款5000亿参数的大模型MAl-1。


这恰好是,纳德拉带领团队证明自己的时候到了。


在向OpenAI投资100多亿美元之后,微软才获得了GPT-3.5/GPT-4先进模型的使用权,但终究不是长久之计。


甚至,此前有传言称,微软已经沦落为OpenAI的一个IT部门。


在过去的一年,每个人熟知的,微软在LLM方面的研究,主要集中在小体量Phi的更新,比如Phi-3的开源。


而在大模型的专攻上,除了图灵系列,微软内部还未透露半点风声。


就在今天,微软首席技术官Kevin Scott证实,MAI大模型确实正在开发中。



显然,微软秘密筹备大模型的计划,是为了能够开发出一款全新LLM,能够与OpenAI、谷歌、Anthropic顶尖模型竞争。


毕竟,纳德拉曾说过,“如果OpenAI明天消失了,也无关紧要”


“我们有的是人才、有的是算力、有的是数据,我们什么都不缺。我们在他们之下,在他们之上,在他们周围”。



看来,微软的底气,就是自己。


自研5000亿MAI-1大模型


据介绍,MAI-1大模型由前谷歌DeepMind负责人Mustafa Suleyman,负责监督。


值得一提的是,Suleyman在加入微软之前,还是AI初创Inflection AI创始人兼CEO。


该公司创办于2022年,一年的时间,他带领团队推出了大模型Inflection(目前已更新到了2.5版本),以及日活破百万的高情商AI助手Pi。


不过因为无法找到正确的商业模式,Suleyman和另一位联创,以及大部分员工,在3月份离职了,共同加入微软。


也就是说,Suleyman和团队负责这个新项目MAI-1,会为此带来更多的前沿大模型的经验。


还是要提一句,MAI-1模型是微软自研发的,并非从Inflection模型继承而来。


据两位微软员工称,“MAI-1与Inflection之前发布的模型不同”。不过,训练过程可能会用到其训练数据和技术。


拥有5000亿参数,MAI-1的参数规模将远远超出微软以往训练的任何小规模开源模型。


这也意味着,它将需要更多的算力、数据,训练成本也是高昂的。


为了训练这款新模型,微软已经预留了一大批配备英伟达GPU的服务器,并一直在编制训练数据以优化模型。


其中,包括来自GPT-4生成的文本,以及外部来源(互联网公共数据)的各种数据集。


大小模型,我都要


相比之下,GPT-4曾被曝出有1.8万亿参数,Meta、Mistral等AI公司发布较小开源模型,则有700亿参数。


当然,微软采取的是多管齐下的策略,即大小模型一起研发。


其中,最经典的便是Phi-3了——一个能够塞进手机的小模型,而且最小尺寸3.8B性能碾压GPT-3.5。



Phi-3 mini在量化到4bit的情况下,仅占用大约1.8GB的内存,用iPhone 14每秒可生成12个token。



在网友抛出“应该用更低成本训练AI,不是更好吗”的问题后,Kevin Scott回复:


这并不是一个非此即彼的关系。在许多AI应用中,我们结合使用大型前沿模型和更小、更有针对性的模型。我们做了大量工作,确保SLM在设备上和云中都能很好地运作。我们在训练SLM方面积累了大量经验,甚至还将其中一些工作开源,供他人研究和使用。我认为,在可预见的未来,这种大与小的结合还将继续下去。



这表明,微软既要开发成本低廉、可集成到应用中,并能在移动设备上运行的SLM,也要开发更大、更先进的AI模型。


目前,微软自称是一家“Copilot公司”。得到AI加持的Copilot聊天机器人,可以完成撰写电子邮件、快速总结文件等任务。


而未来,下一步的机会在哪?


大小模型兼顾,正体现了充满创新活力的微软,更愿意探索AI的新路径。


不给OpenAI当“IT”了?


话又说回来,自研MAI-1,并不意味着微软将会抛弃OpenAI。


首席技术官Kevin Scott在今早的帖子中,首先肯定了微软与OpenAI合作五年的坚固“友谊”。


我们一直在为合作伙伴OpenAI建造大型超算,来训练前沿的AI模型。然后,两家都会将模型,应用到自家的产品和服务中,让更多的人受益。


而且,每一代新的超算都将比上一代,更加强大,因此OpenAI训练出的每个前沿模型,都要比上一个更加先进。


我们将继续沿着这条路走下去——不断构建更强大的超算,让OpenAI能够训练出引领整个行业的模型。我们的合作将会产生越来越大的影响力。


前段时间,外媒曝出了,微软和OpenAI联手打造AI超算“星际之门”,将斥资高达1150亿美元。


据称,最快将在2028年推出超算,并在2030年之前进一步扩展。


包括此前,微软工程师向创业者Kyle Corbitt爆料称,微软正在紧锣密鼓地增加10万个H100,以供OpenAI训练GPT-6。



种种迹象表明,微软与OpenAI之间的合作,只会更加牢固。


此外,Scott还表示,“除了与OpenAI的合作,微软多年来一直都在让MSR和各产品团队开发AI模型”。


AI模型几乎深入到了,微软的所有产品、服务和运营过程中。团队们有时也需要进行定制化工作,不论是从零开始训练模型,还是对现有模型进行微调。


未来,还会有更多类似的这样的情况。


这些模型中,一些被命名为Turing、MAI等,还有的命名为Phi,我们并将其开源。


虽然我的表达可能没有那么引人注目,但这是现实。对于我们这些极客来说,鉴于这一切在实践中的复杂性,这是一个非常令人兴奋的现实。


解密“图灵”模型


除了MAI、Phi系列模型,代号“Turing”是微软在2017年在内部开启的计划,旨在打造一款大模型,并应用到所有产品线中。


经过3年研发,他们在2020年首次发布170亿参数的T-NLG模型,创当时有史以来最大参数规模的LLM记录。



到了2021年,微软联手英伟达发布了5300亿参数的Megatron-Turing(MT-NLP),在一系列广泛的自然语言任务中表现出了“无与伦比”的准确性。



同年,视觉语言模型Turing Bletchley首次面世。


去年8月,该多模态模型已经迭代到了V3版本,而且已经整合进Bing等相关产品中,以提供更出色的图像搜索体验。



此外,微软还在2021年和2022年发布了“图灵通用语言表示模型”——T-ULRv5和T-ULRv6两个版本。


目前,“图灵”模型已经用在了Word中的智能查询(SmartFind)、Xbox中的问题匹配(Question Matching)上。


还有团队研发的图像超分辨率模型Turing Image Super-Resolution(T-ISR),已在必应地图中得到应用,可以为全球用户提高航空图像的质量。



目前,MAI-1新模型具体会在哪得到应用,还未确定,这主要取决于其性能表现。


顺便提一句,关于MAI-1更多的信息,可能会在5月21日-23日微软Build开发者大会上首次展示。


接下来,就是坐等MAI-1发布了。


参考资料:

https://www.theinformation.com/articles/meet-mai-1-microsoft-readies-new-ai-model-to-compete-with-google-openai?rc=epv9gi

https://www.businessinsider.com/microsoft-training-ai-model-rivals-openais-gpt-4-2024-5

https://www.linkedin.com/feed/update/urn:li:activity:7193273937273712643/


本文来自微信公众号:新智元 (ID:AI_era),作者:桃子、好困

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定