在测试中发现调用bulkInsert接口进行批量插入时, 一次性批量插入50万条记录, 有时候会报Network error。初步验证发现,当单条数据量不大时,没有问题,但单条数据比如超过1500字节,批量插入50万会失败,甚至减小到30万进行批量也会失败。
请问一下,批量插入的功能是不是内部有一个固定大小的内存缓冲区, 当总数据量大小超过这个缓冲区的大小时就会失败?
如果有这个缓冲区限制, 我是否可以修改代码来增大这个缓冲区?大概在哪个头文件或源文件中修改?
多谢!
单个包是不是超过500MB了。