news 2026/5/1 7:11:12

轻松入门SpringAI-SpringAI调用Ollama

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
轻松入门SpringAI-SpringAI调用Ollama

轻松入门 Spring AI 调用 Ollama
(2025-2026 最新最实用写法)

目前使用 Spring AI + Ollama 最推荐的几种组合方式(按推荐顺序):

排名方式优点缺点/限制适合场景推荐度
1Spring AI Ollama ChatClient配置最少、写法最自然、生态最好需要 Ollama 已经在运行绝大多数日常开发★★★★★
2使用 OllamaChatModel 手动创建更灵活,可精细控制参数代码稍微多一点需要特殊参数或实验★★★★
3AiServices + Ollama适合做工具调用/结构化输出/Agent学习曲线稍高中高级用法★★★★
4直接用 Ollama Java 官方客户端不依赖 Spring AI,完全独立失去 Spring AI 所有高级抽象极致轻量/非 Spring 项目★★

最推荐写法(99% 场景都够用)

1. 依赖(使用最新稳定版)
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId><version>1.0.0-M6 或 1.0.0.RELEASE(看你用的 spring boot 版本)</version></dependency><!-- 如果你用的是快照版或 milestone,可能需要添加仓库 -->
2. application.yml 最简配置
spring:ai:ollama:base-url:http://localhost:11434# 默认就是这个,几乎不用改chat:options:model:qwen2.5:7b-instruct# ← 改这里就切换模型# 常用推荐模型(2026年初):# qwen2.5:7b-instruct# deepseek-r1:7b# llama3.2:3b# phi4:14b# gemma2:9btemperature:0.75top-p:0.9max-tokens:4096
3. 最常用代码模板(ChatClient 方式)
@RestController@RequestMapping("/ollama")@RequiredArgsConstructorpublicclassOllamaSimpleController{privatefinalChatClientchatClient;// Spring AI 自动注入// 1. 普通调用@GetMapping("/chat")publicStringsimpleChat(@RequestParamStringmsg){returnchatClient.prompt().user(msg).call().content();}// 2. 流式输出(前端打字机效果)@GetMapping(value="/stream",produces=MediaType.TEXT_EVENT_STREAM_VALUE)publicFlux<String>streamChat(@RequestParamStringmsg){returnchatClient.prompt().user(msg).stream().content();}// 3. 带系统提示 + 记忆(最实用组合)privatefinalChatMemorychatMemory=newMessageWindowChatMemory(10);@GetMapping("/memory")publicStringchatWithMemory(@RequestParamStringsessionId,@RequestParamStringmessage){returnchatClient.prompt().system(""" 你是一位说话很幽默、接地气、喜欢用表情的资深程序员 用中文回答,尽量使用 markdown 格式 """).user(message).advisors(MessageChatMemoryAdvisor.builder().chatMemory(chatMemory).sessionId(sessionId).build()).call().content();}}

快速上手检查清单(按顺序做)

步骤命令/操作预期结果
  1. 安装并启动 Ollama |ollama serve| 看到 http://localhost:11434
  2. 拉取一个常用模型 |ollama pull qwen2.5:7b-instruct| 模型下载完成
  3. 命令行简单测试 |ollama run qwen2.5:7b-instruct| 可以正常对话
  4. 启动 Spring Boot 项目 | 正常启动 | 无报错
  5. 浏览器访问 |/ollama/chat?msg=你好啊| 得到中文回答
  6. 测试流式 |/ollama/stream?msg=讲个程序员笑话| 看到逐字出现效果

常见问题速查表(2026年初常见坑)

问题原因解决方案
连接超时/拒绝连接Ollama 没启动先运行ollama serve
模型找不到模型名写错了ollama list查看已下载模型名
中文回答很差/乱码用了不擅长中文的模型换 qwen2.5 / deepseek-r1 / glm4 等
流式输出不工作模型本身不支持 streaming部分小模型不支持,换大一点的模型
显存爆了/启动很慢模型太大,显卡不够换 3b/7b 量级模型,或加--num-gpu 0只用 CPU

一句话总结目前(2026年1月)最舒服的本地组合:

Spring Boot 3.3.x + Spring AI 1.0.x + Ollama + qwen2.5:7b-instruct 或 deepseek-r1:7b + ChatClient 流式 + 记忆 + 系统提示

祝你本地玩得开心,早日做出自己的小 AI 玩具~ 🚀

需要我帮你把某个特定模型(比如 deepseek-r1 / phi4 / gemma2)的配置和表现做更详细对比吗?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 6:51:26

2024最新大数据架构趋势:云原生与湖仓一体实战指南

2024大数据架构趋势深度解析&#xff1a;云原生与湖仓一体实战指南 一、引言&#xff1a;为什么说“云原生湖仓一体”是2024大数据的“必选项”&#xff1f; 1.1 一个真实的痛点&#xff1a;企业数据架构的“两难困境” 某零售企业的技术负责人最近很头疼&#xff1a; 数据分散…

作者头像 李华
网站建设 2026/5/1 6:08:25

大数据领域中 RabbitMQ 的消息压缩技术

大数据场景下RabbitMQ消息压缩实战:从原理到落地的全攻略 摘要/引言 在大数据时代,高吞吐量、大体积消息已成为RabbitMQ的常见挑战:比如电商系统的交易日志(每条10KB+)、物联网的传感器数据(每秒10万条)、数据同步中的全量备份(单条100KB+)。这些场景下,未压缩的消…

作者头像 李华
网站建设 2026/5/1 8:35:06

2. 训练 vs 推理:真正烧钱的是哪一步

作者&#xff1a;HOS(安全风信子) 日期&#xff1a;2026-01-17 来源平台&#xff1a;GitHub 摘要&#xff1a; 2026年&#xff0c;AI行业的成本结构已经发生根本性转变。本文通过云厂商真实数据揭示&#xff0c;推理的累计成本已超过训练10倍以上&#xff0c;成为真正烧钱的环节…

作者头像 李华
网站建设 2026/5/1 6:07:12

5. vLLM 出现前的推理地狱

作者&#xff1a;HOS(安全风信子) 日期&#xff1a;2026-01-17 来源平台&#xff1a;GitHub 摘要&#xff1a; 2023年vLLM出现之前&#xff0c;大模型推理面临着显存碎片化、低效调度和高延迟等诸多挑战&#xff0c;被称为"推理地狱"。本文通过回顾pre-vLLM时代的痛点…

作者头像 李华
网站建设 2026/5/1 6:02:05

7. 为什么云厂商集体选择 vLLM

作者&#xff1a;HOS(安全风信子) 日期&#xff1a;2026-01-17 来源平台&#xff1a;GitHub 摘要&#xff1a; 2026年&#xff0c;AWS、阿里云、字节跳动等全球顶级云厂商纷纷选择vLLM作为其大模型推理的核心框架。本文深入分析了云厂商集体选择vLLM的原因&#xff0c;包括高吞…

作者头像 李华