还记得我们在 欧洲公司用GPT4的思路打败了GPT3.5! 提到的Mixtral-8*7B MOE模型吗? 目前,这个8专家模型已经在开源社区杀疯了。 而且,更加炸裂的是,它直接打开了开源模型应用的天花板。 今天,我们给大家介绍的是能够在本地当服务器,把Mixtral-8*7B MOE模型跑 ...