欢迎光临,我们是一家专注中小型企业营销推广服务的公司!

咨询热线:400 9868 577
淮南兰乔电子商务有限公司
新闻中心News
淮南兰乔电子商务有限公司

Solon AI 开发学习 - 2chat - Hello World

作者:聖光之護 | 点击: | 来源:聖光之護
1911
2025
1、本地大语言模型(LLM)部署使用ollama来运行llama3.2模型(体积较小,约1GB)ollamarunllama3.2#也可替换为deepseek-r1:7b详细步骤可查阅:如何通过ollama搭建本地AI环境2、创建新项目(结合solon-ai调用LLM)可通过SolonInitializr快速生成基础工程。项目建立后,引入以下依赖:org.n...

1、本地大语言模型(llm)部署

使用 ollama 来运行 llama3.2 模型(体积较小,约 1gb)

ollama run llama3.2 <em># 也可替换为 deepseek-r1:7b </em>

详细步骤可查阅:如何通过 ollama 搭建本地 AI 环境

2、创建新项目(结合 solon-ai 调用 LLM)

可通过 Solon Initializr 快速生成基础工程。项目建立后,引入以下依赖:

<dependency><groupid>org.noear</groupid><artifactid>solon-ai</artifactid></dependency>

3、配置应用参数

app.yml 配置文件中添加如下信息:

solon.a

i.chat: demo: apiUrl: "http://127.0.0.1:11434/api/chat" <em># 使用完整 API 地址(非 api_base)</em> provider: "ollama" <em># 若使用 ollama 服务,需明确指定 provider</em> model: "llama3.2" <em># 或选择 deepseek-r1:7b 模型 </em>

4、编写配置类与测试逻辑

新建一个名为 DemoConfig 的类,用于构建 ChatModel 并进行初步测试。

import org.noear.solon.ai.chat.ChatConfig;import org.noear.solon.ai.chat.ChatModel;import org.noear.solon.ai.chat.ChatResponse;import org.noear.solon.annotation.Bean;import org.noear.solon.annotation.Configuration;import org.noear.solon.annotation.Inject;import java.io.IOException;@Configurationpublic class DemoConfig { @Bean public ChatModel build(@Inject("${solon.ai.chat.demo}") ChatConfig config) { return ChatModel.of(config).build(); } @Bean public void test(ChatModel chatModel) throws IOException { <em>// 发起请求并获取结果</em> ChatResponse resp = chatModel.prompt("hello").call(); <em>// 输出返回内容</em> System.out.println(resp.getMessage()); }}

5、启动项目查看效果

示例源码下载地址:点击获取

相关推荐
我要咨询做网站
成功案例
建站流程
  • 网站需
    求分析
  • 网站策
    划方案
  • 页面风
    格设计
  • 程序设
    计研发
  • 资料录
    入优化
  • 确认交
    付使用
  • 后续跟
    踪服务
  • 400 9868 577
    info#ilanqiao.cn
Hi,Are you ready?
准备好开始了吗?
那就与我们取得联系吧

咨询送礼现在提交,将获得兰乔电子商务策划专家免费为您制作
价值5880元《全网营销方案+优化视频教程》一份!
下单送礼感恩七周年,新老用户下单即送创业型空间+域名等大礼
24小时免费咨询热线400 9868 577
合作意向表
您需要的服务
您最关注的地方
预算

直接咨询