基于 LangGraph 和 CNB 知识库的智能问答系统,支持多轮对话、实时流式输出和引用溯源。
场景 1:基于当前的 Demo 仓库增强对话功能
✅ 支持前端页面切换不同的知识库 ✅ 引用来源通过角标进行展示,点击后可跳转到对应文档 ✅ 前端页面亮暗风格切换
# 设置 LangSmith API Key(必需)
export LANGSMITH_API_KEY=your_api_key
# 设置 CNB Token(用于访问 CNB 知识库)
export CNB_TOKEN=your_cnb_token
# 设置要查询的知识库仓库(可选,默认为 cnb/docs)
export CNB_REPO_SLUG=cnb/docs
# 启动所有服务
docker compose up
# 或在后台运行
docker compose up -d
./start.sh
在启动云原生开发环境的时候已准备好:
$:
vscode:
- docker:
# 指定开发环境镜像,可以是任意可访问的镜像。
# 如果 image 指定的镜像中已安装 code-server 代码服务,将使用单容器模式启动开发环境
# 如果 image 指定的镜像中未安装 code-server 代码服务,将使用双容器模式启动开发环境
# 如下镜像为 CNB 默认开发环境镜像,已安装代码服务,将使用单容器模式启动开发环境
# 可按需替换为其他镜像
image: docker.cnb.cool/smk2h/sumu/dev-env/ollama-llm-env
runner:
tags: cnb:arch:amd64:gpu
imports:
- https://cnb.cool/sumu.k/secret-key/-/blob/main/llm.yml
services:
- vscode
- docker
stages:
- name: start ollama
script: nohup ollama serve >/dev/null 2>&1 &
- name: install frontend dependencies
script: cd frontend && npm install
- name: install backend dependencies
script: |
cd backend
python -m venv .venv
. .venv/bin/activate
pip install -e .
本系统采用前后端分离架构,基于 LangGraph 工作流引擎和 CNB 知识库 API 构建智能问答系统。
应用提供简洁直观的对话界面,支持深色/浅色主题切换。


项目提供了完整的演示视频,展示系统的各项功能:
视频内容包括: