微软正在训练足够大的新AI模型以竞争主要大语言模型
微软正在开发一个新的大语言模型(LLM),代号为MAI-1,它有潜力与Google和OpenAI开发的AI大语言模型竞争。
微软为OpenAI投资了数十亿美元,以为其生产力软件套件获取OpenAI技术的使用权。这还是自那之后微软首次开发如此大规模的大语言模型。
根据The Information的报告,MAI-1的开发由Google DeepMind和Inflection的联合创始人Mustafa Suleyman监督。2024年3月,微软以6.5亿美元的交易收购了Inflection的部分员工。
根据5月6日发布的报告,MAI-1将有大约5000亿参数,这使其处于OpenAI的GPT-4报告的1万亿参数和Meta的Llama 3 AI模型的700亿参数之间。它还预计将比微软以前任何小型开源AI(Phi-3和WizardLM-2)”大得多”且更昂贵,因为它需要更多的计算能力和训练数据。
虽然MAI-1可能会利用Inflection的技术和训练数据,但它与OpenAI或Inflection生产的任何模型或技术仍然不同。根据熟悉该项目的微软员工的说法,MAI-1是一个由微软内部开发的全新大语言模型。
微软尚未宣布MAI-1的确切用途,其确切使用将取决于其性能。同时,公司已分配大量配备Nvidia GPU的服务器集群,并使用来自各种来源的大量数据来改进该模型。
根据报告,视其进展情况,公司可能会在本月晚些时候的Build开发者大会上预览MAI-1,但这尚未得到确认。
留下评论
取消