通过搜索和向量搜索功能,为自管理应用加速赋能
MongoDB 欣然宣布,搜索和向量搜索功能现已进入公测阶段,可用于 MongoDB Community Edition 和 MongoDB Enterprise Server。这些新功能使开发者能够在具备强大搜索功能的自管理环境中,直接对复杂的 AI 驱动型应用进行原型设计、迭代和构建。 多样性是开发者青睐 MongoDB 的重要原因之一。MongoDB 可以在任何地方运行。 1 这包括从许多开发者开启 MongoDB 之旅的本地环境部署,到企业规模化时所需的超大型数据中心,以及 MongoDB 的全托管云服务: MongoDB Atlas 。无论开发在何处进行,MongoDB 都能轻松地与任何开发者的工作流集成。 MongoDB Community Edition 是 MongoDB 的免费、源代码可用版本,全球数百万开发者借助它来学习、测试并提升技能。 MongoDB Enterprise Server 是 MongoDB 核心数据库的商业版本。该版本为企业级用户提供了更多增强功能,适用于那些倾向于在本地、或公有云、私有云及混合云环境中自主管理部署的客户。 随着原生搜索和向量搜索功能现已支持 Community Edition 及 Enterprise Server,MongoDB 致力于为开发者提供更简洁统一的体验,助力他们在任意部署环境中构建卓越应用。 什么是搜索和向量搜索? 与 MongoDB Atlas 中的产品类似,MongoDB Community Edition 和 MongoDB Enterprise Server 现在支持两种不同但互补的搜索功能: 全文搜索 是一项内置功能,可为构建基于相关性的应用功能提供无缝且可扩展的体验。 向量搜索 使开发者能够利用原生、功能完备的向量数据库功能,构建由语义搜索和生成式人工智能驱动的智能应用程序。 在此公开预览版
MongoDB 欣然宣布,搜索和向量搜索功能现已进入公测阶段,可用于 MongoDB Community Edition 和 MongoDB Enterprise Server。这些新功能使开发者能够在具备强大搜索功能的自管理环境中,直接对复杂的 AI 驱动型应用进行原型设计、迭代和构建。
多样性是开发者青睐 MongoDB 的重要原因之一。MongoDB 可以在任何地方运行。1这包括从许多开发者开启 MongoDB 之旅的本地环境部署,到企业规模化时所需的超大型数据中心,以及 MongoDB 的全托管云服务:MongoDB Atlas。无论开发在何处进行,MongoDB 都能轻松地与任何开发者的工作流集成。
MongoDB Community Edition 是 MongoDB 的免费、源代码可用版本,全球数百万开发者借助它来学习、测试并提升技能。MongoDB Enterprise Server 是 MongoDB 核心数据库的商业版本。该版本为企业级用户提供了更多增强功能,适用于那些倾向于在本地、或公有云、私有云及混合云环境中自主管理部署的客户。
随着原生搜索和向量搜索功能现已支持 Community Edition 及 Enterprise Server,MongoDB 致力于为开发者提供更简洁统一的体验,助力他们在任意部署环境中构建卓越应用。
什么是搜索和向量搜索?
与 MongoDB Atlas 中的产品类似,MongoDB Community Edition 和 MongoDB Enterprise Server 现在支持两种不同但互补的搜索功能:
-
全文搜索是一项内置功能,可为构建基于相关性的应用功能提供无缝且可扩展的体验。
-
向量搜索使开发者能够利用原生、功能完备的向量数据库功能,构建由语义搜索和生成式人工智能驱动的智能应用程序。
在此公开预览版中,核心搜索聚合阶段没有功能限制。因此,$search、$searchMeta 和 $vectorSearch 都得到了支持,其功能与 Atlas 中提供的保持一致,但不包括仍处于预览状态的功能。有关更多信息,请查看搜索和向量搜索的文档页面。
通过集成搜索解决开发者面临的挑战
从历史上看,将高级搜索功能集成到自管理应用程序中通常需要将外部搜索引擎或矢量数据库连接到 MongoDB。这种模式给开发者和企业带来了重重阻碍,导致:
-
架构复杂性:在多个不同系统之间管理和同步数据增加了复杂层次,要求额外的技能,并使开发工作流程变得更加复杂。
-
运维负担:为每个系统单独处理配置、安全、升级和监控,给 DevOps 团队带来了沉重的工作负担。
-
降低开发者的工作效率:开发者不得不为数据库和搜索引擎学习和使用不同的查询 API 和语言。这导致了频繁的上下文切换、更陡峭的学习曲线和更慢的发布周期。
-
一致性挑战:将主数据库与独立的搜索索引或向量索引对齐存在产生不同步结果的风险。尽管有事务保证和数据一致性的承诺,这些索引实际上仅能实现最终一致性。在快速变化的环境中,这导致了检索结果不完整的问题。
随着搜索和向量搜索现已集成到 MongoDB Community Edition 和 MongoDB Enterprise Server 中,这些需要权衡取舍的问题不复存在。开发者现在可以利用 MongoDB 熟悉的查询框架创建强大的搜索功能,从而摆脱同步负担以及管理多个单一用途系统的需求。这一版本简化了数据架构,降低了运营开销,并加速了应用程序开发。
借助这些功能,开发者可以利用复杂的开箱即用功能来构建各种功能强大的应用程序。潜在的使用案例包括:
MongoDB 提供与 LangChain、LangGraph 和 LlamaIndex 等框架的原生集成。这简化了工作流程,加快了开发速度,并将 RAG 或智能体功能直接嵌入到应用程序中。要了解更多 MongoDB 支持的其他人工智能框架,请查阅此文档。
MongoDB 的合作伙伴和拥护者们已经在更广泛的环境中使用搜索和向量搜索,并从中受益
“我们非常高兴 MongoDB 的搜索和向量搜索功能如今已经可以在广受欢迎的 MongoDB Community Edition 中使用。现在,我们的客户可以在任意部署模式和其首选环境中结合使用 MongoDB 和 LangChain,来构建最前沿的 LLM 应用程序。”—LangChain 的 CEO Harrison Chase
“MongoDB 帮助 Clarifresh 构建了出色的软件,其坚如磐石的基础一直令我印象深刻。如今,搜索和向量搜索功能已在 MongoDB Community Edition 中提供,这使我们获得了可访问源代码的信心、随处部署的灵活性以及社区驱动扩展性的承诺。这是一个令人振奋的里程碑,它再次印证了 MongoDB 对开发者的承诺。”—Clarifresh 公司 MongoDB 大使 Luke Thompson
“我们对 MongoDB Community Edition 中下一代搜索体验感到非常兴奋。我们的客户希望拥有最高的灵活性,以便运行他们的搜索和生成式 AI 应用程序,而将这一功能引入 Community 版本则解锁了一种全新的方式,可以在任意环境中进行构建和测试。”—LlamaIndex CEO Jerry Liu。
“参与 MongoDB Community 版全文搜索和向量搜索的私有预览版是一段令人兴奋的经历。将 $search、$searchMeta 和 $vectorSearch 直接引入 Community Edition,为我们带来了在 Atlas 中使用的同样强大的功能,而无需额外的系统或集成。即使在早期预览阶段,它已经在简化工作流程,并带来更快、更相关的结果。”—akazia Consulting 的 MongoDB 大使 Michael Höller
访问公共预览版
公共预览版免费提供,仅用于测试、评估和反馈目的。
使用 MongoDB Community Editionmmunity Edition 进行搜索和向量搜索。这些新功能兼容 MongoDB 8.2 及以上版本,并在一个独立的二进制文件 mongot 上运行,该文件与标准的 mongodb 数据库二进制文件进行交互。
若要开始,请确保:
-
MongoDB Community Server 集群通过以下三种方法之一运行:
-
从 MongoDB 下载页面下载 MongoDB Community Server 版本 8.2。从公共预览版开始,该功能已可用于支持的 Linux 发行版和架构上自管理部署的 MongoDB Community Edition 8.2 及以上版本。
-
从 MongoDB 下载页面下载 mongot 二进制文件。
-
从公共 Docker Hub 存储库拉取 Community Server 8.2 的容器镜像。
-
即将推出:使用适用于 Kubernetes Operator 的 MongoDB 控制器进行部署(Community Server 的搜索支持功能计划在 1.5 及以上版本提供)。
搜索和向量搜索可用于 MongoDB Enterprise Server。这些新功能被部署为自管理搜索节点,位于客户的 Kubernetes 环境中。这将无缝连接到任何 MongoDB Enterprise Server 集群,无论是在 Kubernetes 内部还是外部。
若要开始,请确保:
-
MongoDB Enterprise Server 集群正在运行。
-
版本 8.0.10+(适用于 Kubernetes operator 1.4 的 MongoDB 控制器)。
-
版本 8.2+(适用于 Kubernetes operator 1.5+ 的 MongoDB 控制器)。
-
Kubernetes 环境。
-
适用于 Kubernetes Operator 的 MongoDB 控制器安装在 Kubernetes 集群中。请在此处查找安装说明。
MongoDB Community Edition 和 MongoDB Enterprise Server 的完整安装文档也可供参考。
接下来的步骤
在公测期间,MongoDB 将根据客户反馈提供额外的更新和路线图功能。在公测结束后,这些搜索和向量搜索功能预计将普遍用于本地部署。对于 Community Edition,这些功能将作为服务器端公共许可证 (SSPL) 的一部分免费提供。
对于 MongoDB Enterprise Server,这些功能将包含在未来推出的新付费订阅服务中。订阅的定价和包装详细信息将在临近发布时提供。对于寻求在云中获得完全托管体验的开发者,MongoDB Atlas 目前提供了这些功能的生产就绪版本。
MongoDB 非常乐意倾听您的反馈!欢迎在 feedback.mongodb.com 提出新功能建议或为现有想法投票。您的反馈对于塑造该产品的未来至关重要。用户可以联系 MongoDB 客户团队以提供更全面的反馈。
1 MongoDB 可以作为全托管的多云服务部署,支持所有主要公有云提供商,也可在私有云、本地、本地数据中心以及混合环境中部署。
Sign in to highlight and annotate this article

Conversation starters
Daily AI Digest
Get the top 5 AI stories delivered to your inbox every morning.
More about
llamalangchainllamaindex
Running a local LLM on Android with Termux and llama.cpp
What I used Samsung S21 Ultra Termux llama-cpp-cli llama-cpp-server Qwen3.5-0.8B with Q5_K_M quantization from huggingface (I also tried Bonsai-8B-GGUF-1bit from huggingface. Although this is a newer model and required a different setup, which I might write about at a later time, it produced 2-3 TPS and I did not find that to be usable) Installation I downloaded the "Termux" app from the Google Play store and installed the needed tools in Termux: pkg update pkg upgrade -y pkg install llama-cpp -y Downloading a model I downloaded Qwen3.5-0.8B-Q5_K_M.gguf in my phone browser and saved it to my device. Then I opened the download folder shortcut in the browser, selected the GGUF file -> open with: Termux Now the file is accessible in Termux. Running it in the terminal After that, I loaded the

A technical, 100% local writeup on how I replicated and then surpassed the Secret Detection model from Wiz (and the challenges along the way) - including labeling an entire dataset with local AI
Hey everybody, I have a strong interest in offloading work to small, specialized models that I can parallelize - this lets me scale work significantly (plus, I am less dependent on proprietary APIs) Some time ago, I saw a blog post from Wiz about fine-tuning Llama 3.2-1B for secret detection in code. They got 86% Precision and 82% Recall. I wanted to see if I can replicate (or beat) those numbers using purely local AI and produce a local specialized model. After a couple of weekends of trying it out I managed to get a Llama 3.2-1B hitting 88% Precision and 84.4% Recall simultaneously! I also benchmarked Qwen 3.5-2B and 4B - expectedly, they outperformed Llama 1B at the cost of more VRAM and longer inference time. I’ve put together a full write-up with the training stats, examples, and a st

Why APEX Matters for MoE Coding Models and why it's NOT the same as K quants
I posted about my APEX quantization of QWEN Coder 80B Next yesterday and got a ton of great questions. Some people loved it, some people were skeptical, and one person asked "what exactly is the point of this when K quants already do mixed precision?" It's a great question. I've been deep in this for the last few days running APEX on my own hardware and I want to break down what I've learned because I think most people are missing the bigger picture here. So yes K quants like Q4_K_M already apply different precision to different layers. Attention gets higher precision, feed-forward gets lower. That's been in llama.cpp for a while and it works. But here's the thing nobody is talking about. MoE models have a coherence problem. I was reading this article last night and it clicked for me. When
Knowledge Map
Connected Articles — Knowledge Graph
This article is connected to other articles through shared AI topics and tags.
More in Models

Empirical Evaluation of Structured Synthetic Data Privacy Metrics: Novel experimental framework
arXiv:2512.16284v2 Announce Type: replace Abstract: Synthetic data generation is gaining traction as a privacy enhancing technology (PET). When properly generated, synthetic data preserve the analytic utility of real data while avoiding the retention of information that would allow the identification of specific individuals. However, the concept of data privacy remains elusive, making it challenging for practitioners to evaluate and benchmark the degree of privacy protection offered by synthetic data. In this paper, we propose a framework to empirically assess the efficacy of tabular synthetic data privacy quantification methods through controlled, deliberate risk insertion. To demonstrate this framework, we survey existing approaches to synthetic data privacy quantification and the relate

A technical, 100% local writeup on how I replicated and then surpassed the Secret Detection model from Wiz (and the challenges along the way) - including labeling an entire dataset with local AI
Hey everybody, I have a strong interest in offloading work to small, specialized models that I can parallelize - this lets me scale work significantly (plus, I am less dependent on proprietary APIs) Some time ago, I saw a blog post from Wiz about fine-tuning Llama 3.2-1B for secret detection in code. They got 86% Precision and 82% Recall. I wanted to see if I can replicate (or beat) those numbers using purely local AI and produce a local specialized model. After a couple of weekends of trying it out I managed to get a Llama 3.2-1B hitting 88% Precision and 84.4% Recall simultaneously! I also benchmarked Qwen 3.5-2B and 4B - expectedly, they outperformed Llama 1B at the cost of more VRAM and longer inference time. I’ve put together a full write-up with the training stats, examples, and a st

-ymg95y67um.png)


Discussion
Sign in to join the discussion
No comments yet — be the first to share your thoughts!