【经验分享】用MongoDB做后端实现的队列MongoQueue测试结果如下:
(1)插入10w任务耗时约40秒;
(2)读取10W任务并标记完成,耗时约90秒;
MongoQueue的源码 >>> ttps://github.com/pengqi/mongoqueue/blob/master/mongoqueue/mongoqueue.py
测试脚本源码 >>> https://t.cn/ReZT5y1
PS:
(1)MongoQueue默认没有给集合加索引,测试发现速度特别慢(感觉大概一秒能获取一个任务),加了索引以后速度飞速提升。
(2)上次测试diskcache.Deque(https://t.cn/ReZT5yg)的结果忘了分享了,顺便对比一下:插入10w任务耗时约200秒,读取10W任务耗时基本一样。
(1)插入10w任务耗时约40秒;
(2)读取10W任务并标记完成,耗时约90秒;
MongoQueue的源码 >>> ttps://github.com/pengqi/mongoqueue/blob/master/mongoqueue/mongoqueue.py
测试脚本源码 >>> https://t.cn/ReZT5y1
PS:
(1)MongoQueue默认没有给集合加索引,测试发现速度特别慢(感觉大概一秒能获取一个任务),加了索引以后速度飞速提升。
(2)上次测试diskcache.Deque(https://t.cn/ReZT5yg)的结果忘了分享了,顺便对比一下:插入10w任务耗时约200秒,读取10W任务耗时基本一样。
说个公司的崽种的事,我和这货配合做个功能,我每晚从mongo导出数据压缩后post给他那边的接口,一开始我用zlib去压然后发过去了,结果和我说读不了让我改成zip包,这崽种原生的zlib不用自己引入了一个unzip-stream想把压缩包里的数据直接读进内存里解析而不是直接解压成文件了,我说你linux还是用gz吧,他妈和我说zlib做不到这种读进内存的玩法非要我换zip,我操你zlib解压接个pipe照样能读进内存里好吗,跟我说不会,得了我就换成node-zip去压吧,这东西有个弱智的地方必须把文件内容全部read了再添加压缩包,我本来用mongoexport指令就已经自动生成一个文件了,本来zlib就能直接压的,现在我还要把这玩意读进内存再去写压缩文件,测试的时候没问题,那就升级了,昨晚一导出以后,然后把那个json读到内存里就炸了,几个G的数据瞬间撑满了内存,今天早上回去我被叼了一顿,我就摊牌说是那个崽种不用zlib我能怎么办,然后反而不屌那崽种回过头来好声好气的叫我和他再对接一次,用zlib,虽然我就几行代码的事,但是我就是气不过这狗上司对我发了一顿火以后等我摊牌还不屌那个崽种了,朋友,明明是你弱鸡诶,下午还问我怎么用zlib写读进内存的,我CNM我直接丢个node文档叫他自己看,我不会,告辞
【SA:内置于App中的AR应用更受青睐】尽管很多用户并不知道增强现实(AR)技术以及其可用的其他用例,但PokémonGo和Snapchat一直是大众对AR的缩影。咨询机构Strategy Analytics的用户体验战略服务近期发布的研究报告《增强的现实体验:等待用例成为现实》发现,星球大战和谷歌等用户熟知的来源,正在推动这些增强现实的体验。研究结果表明,为了提高对AR的认识,不仅需要开发可靠的用例来通知和娱乐用户,而且最重要的是从现有App内开发,才能帮助用户提高认识和使用。https://t.cn/Rgxphml
✋热门推荐