水木社区手机版
首页
|版面-Web开发(WebDev)|
新版wap站已上线
返回
1/1
|
转到
主题:php大数据超时
楼主
|
wsxl
|
2009-07-09 15:48:49
|
展开
我常去的小说网站的手机版有bug,如果分成多搂,就不能看全文
于是我自己写了一个php页面挂在512j的收费虚拟主机上,把该网站
转成手机能看的。
主要的转换是使用egrep_replace过滤扰乱字符和html代码,原站的这些处理把一个100
多k的页面能变成600k大小。问题是这个程序在非高峰期还不错,在高峰期经常失去响应
。我想是因为egrep处理这么大的一个数组时间太长超时引起的。
有没有办法让它不要超时呢?比如说把它分段处理输出?这样能解决响应超时问题吗?
但是这样比如说一个<font color="FFF">ajhdgfkj!#@!$#</font>的扰乱码被中间切断,
岂不是没有被过滤?
--
FROM 211.99.222.*
3楼
|
wsxl
|
2009-07-09 17:06:13
|
展开
问题是扰乱字符里面有\x00,必须先干掉这个才能用grep干掉扰乱字符
我现在是
1:去\x00
2:去扰乱字符a(无色)
3:去扰乱字符B(字符大小为零)
4:去控制码
哪个都不短
【 在 sunggsun (没有) 的大作中提到: 】
: re,先把干扰字符干掉,再strip_tags,然后如果还是长就切成几页
--
FROM 211.99.222.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版