
我,来自苏州,是一个热爱二次元的码农。
新博客,新起点
我只不过是一只普普通通的初中牲罢了
那么,让我来介绍一下这个博(垃)客(圾)
硬件配置:
托管于雨云
--------只要雨云一天不倒,我的博客就一天不倒!
软件配置:
博客平台 | 基于 | 域名 |
---|---|---|
VuePress | NodeJs+Pnpm+VSCode+CMD | 阿里云,两年只要70元 |
2024/12/15...小于 1 分钟
我,来自苏州,是一个热爱二次元的码农。
我只不过是一只普普通通的初中牲罢了
硬件配置:
托管于雨云
--------只要雨云一天不倒,我的博客就一天不倒!
软件配置:
博客平台 | 基于 | 域名 |
---|---|---|
VuePress | NodeJs+Pnpm+VSCode+CMD | 阿里云,两年只要70元 |
检查你的显卡:
👉 打开命令行,输入:
nvidia-smi
基础的 Python 调用 Ollama 对话代码
拥有基础的短时记忆能力;
对话数据持久化存储「本地化存储 and 云存储」
/data/
session_2025_05_25_14_30.json
Ollama 对用户历史对话数据进行总结记忆;
对话数据过长,可以考虑分块(分批次)总结并存储——实现数据压缩,防止超出 token 长度;
Gemini 在线大模型选用——封装一个函数,在程序运行过程中,让用户选择所需要使用的大模型「Local or Server」;
注意点⚠️:Ollama 与 Gemini 的对话结构不同,需要做出适配;
本文详细介绍如何使用 Python 通过 HTTP 请求方式调用 Ollama 的本地大语言模型,包括文本生成、对话、嵌入、模型管理等功能。
确保你已完成以下环境配置:
✅ 安装并运行 Ollama(访问 ollama.com)
✅ 拉取至少一个模型(如 llama3):
ollama pull llama3
✅ 安装 Python 库:
pip install requests