微软正在训练足够大的新AI模型以竞争主要大语言模型

微软正在训练足够大的新AI模型以竞争主要大语言模型

阅读时间: 1 分钟

  • Shipra Sanganeria

    作者:Shipra Sanganeria Cybersecurity & Tech Writer

  • 郑小丹是

    翻译: 郑小丹是 名技术翻译和编辑

微软正在开发一个新的大语言模型(LLM),代号为MAI-1,它有潜力与Google和OpenAI开发的AI大语言模型竞争。

微软为OpenAI投资了数十亿美元,以为其生产力软件套件获取OpenAI技术的使用权。这还是自那之后微软首次开发如此大规模的大语言模型。

根据The Information的报告,MAI-1的开发由Google DeepMind和Inflection的联合创始人Mustafa Suleyman监督。2024年3月,微软以6.5亿美元的交易收购了Inflection的部分员工

根据5月6日发布的报告,MAI-1将有大约5000亿参数,这使其处于OpenAI的GPT-4报告的1万亿参数和Meta的Llama 3 AI模型的700亿参数之间。它还预计将比微软以前任何小型开源AI(Phi-3和WizardLM-2)”大得多”且更昂贵,因为它需要更多的计算能力和训练数据。

虽然MAI-1可能会利用Inflection的技术和训练数据,但它与OpenAI或Inflection生产的任何模型或技术仍然不同。根据熟悉该项目的微软员工的说法,MAI-1是一个由微软内部开发的全新大语言模型。

微软尚未宣布MAI-1的确切用途,其确切使用将取决于其性能。同时,公司已分配大量配备Nvidia GPU的服务器集群,并使用来自各种来源的大量数据来改进该模型。

根据报告,视其进展情况,公司可能会在本月晚些时候的Build开发者大会上预览MAI-1,但这尚未得到确认。

你喜欢这篇文章吗?为它打分!
我非常不喜欢 我不怎么喜欢 一般 挺好! 非常喜欢!
00 用户投票
标题
评论
谢谢你的反馈
Please wait 5 minutes before posting another comment.
Comment sent for approval.

留下评论

显示更多…