谈谈网站开发中的跳转方式
一个系统在公网上运行,随时面临着傻逼程序的进攻,在互联网的大家庭里,鱼龙混杂,技术水平参差不齐,特别是各种傻逼爬虫。这也是我写这篇文章的原因。本文主要讲解如何更好的在网站开发中使用跳转。当我在我的统计日志中发现大量的重定向之后,我觉得这些爬虫怎么可以这么傻逼,请看下面的日志,我截取的是比较短的一个记录,事实上最长的记录已经达到了 GET 请求的最大限制:"GET //mall.dbsqp.com//m...
修改sshd_config文件配置防止Linux下btmp文件内容过大
话,根本不需要开启 VPN PPTP 相关的端口,直接通过 SSH 隧道上网也是可以的。虽然开放 Linux SSH 的 22 端口没有多大问题,但是太多的猜测式登录还是会消耗系统资源,并且产生大量的日志。很多人也许会问,修改 SSH 的默认端口有意义吗,就算修改端口,人家一个一个的扫描,65535 次之后还是可以找到的。事实证明,是有点意义的,这样确实能够过滤掉绝大多数的攻击。个人认为如果修改 22...
磁盘检测,第一次检测到坏存储块
231m33.768s user 2m27.480s sys 8m19.305s 检测出了 3000 多万个坏块,这个质量是有多差啊,用时四个小时了。32G的存储。vi 直接卡死了,260 兆的错误日志。pi@raspberrypi:~ $ vim badsectors.txt pi@raspberrypi:~ $ du -sh badsectors.txt 260Mbadsectors.txt ...
nginx client intended to send too large body
nginx 出现了报错日志,咋一看,就是 POST 了大数据,只能修改配置了,怎么设置,请看: 报错类似:2021/05/08 12:16:13 [error] 11798#11798: *28202901 client intended to send too large body: 1268248 bytes, client: , server: , request: "POST HTTP/1.1...
联合索引查询特别慢怎么办?
联合索引涉及到业务逻辑,其实已经超出数据库范畴,所以不用为妙,MySQL、MariaDB 是做不好的。 联合索引你知道多少呢?说实话,我找这个坑就花了很多时间,各种打日志,各种发布代码,线上测试,找到元凶不容易啊!遇到了一个特别慢的查询,耗时 300 多秒,其实是可以用上索引的,explain 显示可能可以用上,但是实际情况比较复杂,在不同的机器,不同的数据上测试效果完全不一样,看来 MySQL 对于...
Error: Could not resolve host 怎么回事
域名解析是个头等大事啊!短短的几十分钟,产生了 17000 多行错误日志,损失了1700 多位用户。生活会教会你如何选择一个域名服务商!...
php-fpm 顺滑的启动 重启 终止操作
|stop|reload) 等命令,所以不要再看这种老掉牙的命令了,需要使用信号控制。 fpm master 进程可以理解以下信号:INT, TERM 立刻终止QUIT 平滑终止 USR1 重新打开日志文件 USR2 平滑重载所有 worker 进程并重新载入配置和二进制模块 很多大神要骂了,这就是宗教信仰啊,定义的这么奇怪。一个简单直接的重启方法,查看 php-fpm 的 master 进程号 #...
V2ray Vmess Websocket+TLS+web Nginx 配置
真的很累,超级坑,不过花了两天多的时间,总算是弄好了。期间遇到很多低级陷阱,这些坑稍不留意就不行了,加上 V2ray 报错特别不友好,日志也是含糊,网上随便一搜,都是说时间问题,其实,时间不可能会是问题,现在都 2022 年了,设备的时间基本都是准确了!我遇到的第一个问题,就是 alterId 问题,这个实在是太奇怪了,加上了 alterId 就不行,删除就可以,所以如果大家看白话文教程,一定会把你往...
7 月了,好久没写文章
我小时候还有写日记的习惯,当时学校和老师也要求写,当时的情况是...情况是写的日志本需要上交给老师看,写的不好要挨批,被老师骂做是记流水账,其实,日记不就是记流水账吗,哈哈哈哈。经过被老师骂,需要上交等一系列的操作,写日记的习惯慢慢的丢掉了,如果当时坚持下来,不说每天写,隔三差五也有很多明艳的记忆了。当我看了圣经之后,我才发现,世界上的神写的文字也是那么的放荡不羁,呵呵,日记其实不应该给别人看的,日记...
谈谈 Linode 和 DigitalOcean 哪个好?
的是一分钱一分货。其实早就想搬离了,受不了 linode 的那种傲慢。事实证明,早就该搬走了。最最直接的感受就是:linode 之前会产生大量的超时,一年多了,一直优化不了,一天下来,大概几百到几千个日志记录,搬到 digitalocean 后,除非特殊情况,基本页面没有一个超时的。linode 配合 V2 软件会产生 Google 页面的机器人验证,几乎每次都会,VPN 则没有问题,这个深层次的原因...