博客
关于我
MongoDB插入数据的3种方法
阅读量:797 次
发布时间:2023-02-09

本文共 666 字,大约阅读时间需要 2 分钟。

MongoDB插入数据的三种方法

insert()方法

MongoDB的insert()方法是插入单条记录的直接方式。它接受一个或多个文档对象,作为插入的数据。示例代码如下:

db.inventory.insert( { _id: 10, type: "misc", item: "card", qty: 15 } )

这种方法简单易用,适用于需要插入单个文档的场景。

update()方法

update()方法用于更新现有文档。它需要指定匹配条件和更新操作。示例代码如下:

db.inventory.update(                         { type: "book", item : "journal" },                         { $set :     { qty: 10 } },                         { upsert :true     }                )

在这个例子中,$set选项用于指定要更新的字段,而upsert选项允许在不存在匹配文档时创建新文档。

save()方法

save()方法可以用来插入或更新文档。它会根据提供的文档对象进行判断,如果文档已存在,则执行更新操作;否则,插入新文档。示例代码如下:

db.inventory.save( { type: "book", item: "notebook", qty: 40 } )

save()方法的语法相对简洁,适合在不需要复杂更新操作的情况下快速插入数据。

转载地址:http://enffk.baihongyu.com/

你可能感兴趣的文章
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>
NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_01---大数据之Nifi工作笔记0033
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_说明操作步骤---大数据之Nifi工作笔记0028
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069
查看>>
NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
查看>>
NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
查看>>
NIH发布包含10600张CT图像数据库 为AI算法测试铺路
查看>>
Nim教程【十二】
查看>>
Nim游戏
查看>>
NIO ByteBuffer实现原理
查看>>
Nio ByteBuffer组件读写指针切换原理与常用方法
查看>>
NIO Selector实现原理
查看>>
nio 中channel和buffer的基本使用
查看>>