如何在Mac上本地安装AI模型(Chatgpt,DeepSeek,Mistral,Llama等)

如何在本地安装IA DeepSeek,Mistral,Chatgpt,Llama,Phi,Qwen,Gemma的模型,并在Mac Apple Silicon(M1,M2,M2,M3,M4),Windows PC,PC Linux上本地使用它们。为此,您需要下载LM Studio,然后下载应用程序,然后下载您选择的模型。最后,您可以与各种跨线对话代理进行讨论,并实时使用CPU消耗和RAM的视觉效果。除了阅读:

本地安装AI模型在Mac上:安装LM Studio

下载LM Studio根据您的架构和操作系统的Mac M1,M2,M3,M4,Windows或Linux的官方网站。有关信息,LM Studio允许您在本地下载和执行人工智能的模型,例如Mistral,Llama或Gemma,而无需互联网连接或通过远程服务器。安装很简单,归结为拖放到应用程序文件夹。

启动LM Studio,并花时间发现特别清醒的界面。

下载以启动建议的AI模型。在我们的示例中,是杰玛。

下载模型开始。有些型号需要大约4 GB的存储空间,其他型号超过30 GB!

在惊喜窗口的屏幕右下方拨出,将模型加载到内存中(负载模型)。

您已经可以与对话代理人开始讨论。它效果很好。

在Mac上本地安装AI型号:加载其他LLM

您可以根据需要安装尽可能多的LLM。为此,请单击紫色放大镜。并选择下载最适合您的人。可以根据各种标准进行分类。下载最多,评分最高,最新的等等。

在我们的示例中,我们将增加探索。

在紫色插入物下,我们使用“弹出”按钮弹出Gemma。

然后,我们将向DeepSeek(负载模型)充电。

现在,我们可以在MacBook Air(M2)上使用DeepSeek潜力!请注意,右下角是根据提到的请求以信息显示的CPU和RAM负载...