全球主机交流论坛

标题: nginx 做缓存果然还是不行啊 [打印本页]

作者: skwinx    时间: 2017-11-1 00:13
标题: nginx 做缓存果然还是不行啊


用nginx 缓存到了180GB图片之后开始 持续报错

  1. cache loader process 6015 exited on signal 9
复制代码


暂时用 kangle顶上 过段时间看看kangle是否有异常。
作者: skwinx    时间: 2017-11-1 00:15
Google只搜到 官方论坛2011年的一个报错

https://forum.nginx.org/read.php?2,212289
作者: mzxx    时间: 2017-11-1 00:30
牛X, 这么大的图片.
作者: ecosway598    时间: 2017-11-1 00:36
提示: 作者被禁止或删除 内容自动屏蔽
作者: malaohu    时间: 2017-11-1 01:03
羡慕大佬~
作者: qibinghua    时间: 2017-11-1 02:42
多做几层文件目录
作者: dabiantai    时间: 2017-11-1 02:45
赌五毛是被oom干掉了,看一下dmesg有没有报错
作者: 神猪    时间: 2017-11-1 13:17
大佬pm个svip吧。。。
作者: ultramancliub    时间: 2017-11-1 13:50
求一个SVIP
作者: janfou    时间: 2017-11-1 14:06
我不知道LZ的180G是多少个文件,如果文件过多分层太少,会严重削弱系统对缓存文件的读取。

我尝试过1层缓存,把全站40W条记录全部缓存成html,读的时候已经感觉到慢了,改写文件的时候CPU速度飙升,然后我把 levels 改成 2:2,情况大有好转。因为要花费时间去做缓存,就没尝试1:1:2的差异。

个人理解,Nginx对缓存的处理是没问题的,反而是OS对文件的读写会引起一系列的问题,简单说:用户要科学分配缓存文件的管理
作者: skwinx    时间: 2017-11-1 15:48
janfou 发表于 2017-11-1 14:06
我不知道LZ的180G是多少个文件,如果文件过多分层太少,会严重削弱系统对缓存文件的读取。

我尝试过1层缓 ...

levels=1:2

也许可能是这个问题,我再尝试尝试改成  2:2  需要时间来验证。
作者: 傻逼真的很傻    时间: 2017-11-1 16:04
提示: 作者被禁止或删除 内容自动屏蔽
作者: lsza    时间: 2017-11-1 17:40
楼主悄悄pm个ssvip给我




欢迎光临 全球主机交流论坛 (https://fd.vvwvv.eu.org/) Powered by Discuz! X3.4