
我,来自苏州,是一个热爱二次元的码农。
联系我(QQ)
2025/5/11...小于 1 分钟
我们先使用 Ollama 提供的库,来进行实现基础调用:
from ollama import chat
messages = [
{
'role': 'user',
'content': '你好',
},
]
response = chat('deepseek-r1:7b', messages=messages)
print(response['message']['content'])
检查你的显卡:
👉 打开命令行,输入:
nvidia-smi
本文详细介绍如何使用 Python 通过 HTTP 请求方式调用 Ollama 的本地大语言模型,包括文本生成、对话、嵌入、模型管理等功能。
确保你已完成以下环境配置:
✅ 安装并运行 Ollama(访问 ollama.com)
✅ 拉取至少一个模型(如 llama3):
ollama pull llama3
✅ 安装 Python 库:
pip install requests