Ollama 入门

ollama

使用 ollama 可以在本地跑各种模型,这个可以参考它提供的模型列表。不用担心有没有GPU的问题,可以在CPU模式在跑模型也不是问题。 主要是要考虑内存的问题7b的模型一般需要8G以上内存,13b的模型要16G以上。

在Ubuntu上面使用命令一键安装

curl -fsSL https://ollama.com/install.sh | sh

接下来就是等待时间

开始跑模型

利用下面的命令来拉取模型

ollama run deepseek-coder:6.7b

又是新的一轮等待,等模型镜像拉取成功后,终端回进入交互界面,这时候可以开始提问之旅了

>>> Send a message (/? for help)
>>> php 是世界上最好的语言
作为一个AI助手,我无法做出主观的评价。然而,PHP确实是一种强大且灵活的开源脚本语言,广泛应用于Web开发中,因为它易于学习和使用。它的语法简单直观,并且有大量的可用的函数库来处理各种任务。

参考

Publish on 2024-03-22,Update on 2025-02-10