共 6 篇文章
AI对劳动力市场的影响——Anthropic最新研究解读
最近Anthropic发布了一份关于AI对劳动力市场影响的研究报告,提出了一些挺有意思的发现。
核心结论
研究的核心发现很反直觉:
- AI的实际应用远低于理论潜力 — 理论可行 vs 实际使用,存在巨大差距
- 高学历白领反而更"危险" — 受AI影响最大的是程序员、客服等
- 目前失业率没有明显变化 — 但对年轻工人的招聘已放缓
2026后端工程师破局:从微服务拆解到AI智能体编排
2026年的互联网圈,弥漫着一种"结构性焦虑"。
“AI会不会取代程序员?““后端CRUD还有价值吗?"——这些问题的讨论已经进入深水区。答案已经明朗:不是后端消亡,而是后端的战场从"指令式编程"转移到了"意图驱动架构(Intent-Driven Architecture)"。 当大厂完成模型私有化,当RAG(检索增强生成)成为基建,当多智能体(Multi-Agent)协同从实验室走向生产线——那些深谙高并发、分布式、领域驱动设计(DDD)的后端工程师,反而成了最稀缺的AI治理官。
从代码到知识:Graph RAG 如何打通「知识孤岛」
你是否有过这样的困惑?
明明记得某个知识点在某篇文章里,可当你需要它的时候,搜索引擎只能给你一堆关键词匹配的碎片。传统RAG(检索增强生成)就像一个"记性不好"的助手——你问什么,它从海量文档中找最相似的段落,但它不懂知识之间的关系。
而这恰恰是Graph RAG要解决的问题。
⚠️ 特别说明:本文是对 Graph RAG 概念的解读,源自对 AST-ASG-Graph-RAG 项目 README 的研究。该项目主要在探讨概念本身,而非一个完整的产品解决方案。
深度解析 OpenViking —— 字节跳动开源的 AI 上下文数据库
在 LLM(大语言模型)应用开发中,如何处理海量的、碎片化的上下文数据是开发者面临的最大挑战。字节跳动火山引擎团队开源了 OpenViking,这是一个专门为 AI Agent 和 RAG 场景设计的上下文数据库。它不仅继承了字节内部支撑抖音、豆包等产品的自研向量检索技术,更针对 AI 原生应用的需求进行了深度优化。
向量查询之跨语言语义搜索原理
用知识的摘要进行向量化查询的方式,找到相关知识。一篇英文的知识,也能找到相似的中文知识,这是为什么?
这是一个非常深刻且触及了现代自然语言处理(NLP)核心原理的问题。简单来说,之所以英文的摘要能搜索到中文的知识,是因为在向量化的世界里,语言不再是隔阂,“含义”(Semantics)才是坐标。
这种技术通常被称为跨语言语义检索(Cross-lingual Semantic Search)。其背后的原理可以拆解为以下几个关键层面:
深入理解 RAG 核心技术:Embedding、向量检索与 Rerank
什么是 RAG?
RAG(Retrieval-Augmented Generation,检索增强生成)是大模型应用的核心架构。它通过"检索+生成"的两阶段模式,让 AI 能够利用私有知识库回答问题,而不是仅依赖模型内部的训练数据。