共 7 篇文章
OpenClaw 的 QMD 记忆引擎:从尝鲜到放弃
OpenClaw 有一套内置的 Memory 系统,基于 SQLite 实现,开箱即用。但对于需要更高搜索质量、更广索引范围的场景,OpenClaw 提供了一个更强大的选项——QMD Memory Engine。
本文梳理 QMD 的核心概念、架构原理、配置方法,以及它在 OpenClaw 记忆体系中的实际角色,最后与 OpenViking 方案做对比。
2026后端工程师破局:从微服务拆解到AI智能体编排
2026年的互联网圈,弥漫着一种"结构性焦虑"。
“AI会不会取代程序员?““后端CRUD还有价值吗?"——这些问题的讨论已经进入深水区。答案已经明朗:不是后端消亡,而是后端的战场从"指令式编程"转移到了"意图驱动架构(Intent-Driven Architecture)"。 当大厂完成模型私有化,当RAG(检索增强生成)成为基建,当多智能体(Multi-Agent)协同从实验室走向生产线——那些深谙高并发、分布式、领域驱动设计(DDD)的后端工程师,反而成了最稀缺的AI治理官。
从代码到知识:Graph RAG 如何打通「知识孤岛」
你是否有过这样的困惑?
明明记得某个知识点在某篇文章里,可当你需要它的时候,搜索引擎只能给你一堆关键词匹配的碎片。传统RAG(检索增强生成)就像一个"记性不好"的助手——你问什么,它从海量文档中找最相似的段落,但它不懂知识之间的关系。
而这恰恰是Graph RAG要解决的问题。
⚠️ 特别说明:本文是对 Graph RAG 概念的解读,源自对 AST-ASG-Graph-RAG 项目 README 的研究。该项目主要在探讨概念本身,而非一个完整的产品解决方案。
深度解析 OpenViking —— 字节跳动开源的 AI 上下文数据库
在 LLM(大语言模型)应用开发中,如何处理海量的、碎片化的上下文数据是开发者面临的最大挑战。字节跳动火山引擎团队开源了 OpenViking,这是一个专门为 AI Agent 和 RAG 场景设计的上下文数据库。它不仅继承了字节内部支撑抖音、豆包等产品的自研向量检索技术,更针对 AI 原生应用的需求进行了深度优化。
腾讯云 RAG 实践:原子引擎与 OpenViking 协同
当企业知识库遇上 AI Agent 记忆系统,一个管"知识",一个管"记忆",这可能是当前最务实的 AI 应用架构。
RAG 核心:Embedding、向量检索与 Rerank
什么是 RAG?
RAG(Retrieval-Augmented Generation,检索增强生成)是大模型应用的核心架构。它通过"检索+生成"的两阶段模式,让 AI 能够利用私有知识库回答问题,而不是仅依赖模型内部的训练数据。
向量数据库检索原理:从 Embedding 到最近邻搜索
在 AI 时代,向量数据库是 RAG(检索增强生成)系统的核心基础设施。但它究竟是如何工作的?为什么能实现"语义搜索"而非传统的关键词匹配?本文用通俗的方式解释其背后的原理。