V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  python30  ›  全部回复第 6 页 / 共 14 页
回复总数  280
1  2  3  4  5  6  7  8  9  10 ... 14  
@jiangxuan 晚上仔细看看日志
@star7th 已经用这个办法暂时解决了
那家伙很可恨,我第一次的 js 代码他都屏蔽了
这次添加了很多乱码,暂时没事了
@black11black 不好意思,我的小站先不发出来了。不太适合。你想了解的话可以搜一下: 恶意镜像 问题说的很明白
2020-03-29 21:02:59 +08:00
回复了 felix021 创建的主题 程序员 UTF-8:一些好像没什么用的冷知识
虽然一起在用 utf8mb4
但是看了这文章更了解了
2020-03-29 00:11:48 +08:00
回复了 shidenggui 创建的主题 分享创造 现在还有必要拥有独立博客吗?谈谈我的独立博客史
这么长。楼主写了多长时间
2020-03-26 14:06:03 +08:00
回复了 python30 创建的主题 Python centos7.5 nginx 报这错。也没找到什么原因?
@just1
解决了
忙到半夜一点
原来是腾讯云服务器端口 25 封了
解封后就没问题了

有时候一点小事就卡半天。愁人啊
@hushao 又出现这个问题了
请问一下,你当时是怎么处理的你的数据库?
@hushao
能详细说说吗?
还真有可能是这事
我刚从 mysql5.6 mysqldump 备份
直接导入到 mysql5.7 里面!
你当时是怎么解决的?
@xpresslink
谢谢
今天一直没出现这问题
明天在线人数多的时候出现这问题。我再修改
2020-03-21 18:24:50 +08:00
回复了 ysz1121 创建的主题 Go 编程语言 用 golang 写了一个个人站点-大家轻点喷
不错啊。mark 一下。抽空看看
@lance86 我把 theads 设成了 4 了 感觉 4-10 都可以。

上面的是我修改后的配置
修改后现在网站上没人在线
也不知道这配置起作用不
确实是人数一多就这样卡住了
但是配配是 2 核 4G 3M 的
不应该是带宽问题
因为 1 分钟最大同时在线才 18 人就卡住了

下面是我的配置参数,刚从网上看了教程改的
不知道还有需要优化或有错的地方不?

centos7.5 python3.6 django2.2



ps: 在卡住的那个时间点我看了一下日志
还有少少百度蜘蛛来网站!难道这个也有关系?

uwsgi.conf
```
# myweb_uwsgi.ini file
[uwsgi]

#django-related settings
socket = 127.0.0.1:8001
# the base directory (full path)
chdir = /var/www/website

# Django s wsgi file
module = website.wsgi:application

env = DJANGO_SETTINGS_MODULE = website.settings
daemonize = /var/log/nginx/website_access.log;
# process-related settings
# master
master = true
py-autoreload = 1

# maximum number of worker processes
processes = 4
threads = 2
# ... with appropriate permissions - may be needed
# chmod-socket = 664
# clear environment on exit
vacuum = true
```




nginx.conf

```
user nginx;
worker_processes 4;
error_log /var/log/nginx/error.log;
pid /run/nginx.pid;

include /usr/share/nginx/modules/*.conf;
worker_rlimit_nofile 65535;
events {
use epoll;
worker_connections 20000;
}

http {
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';

access_log /var/log/nginx/access.log main;

sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 60;
client_header_buffer_size 4k;
types_hash_max_size 2048;

include /etc/nginx/mime.types;
default_type application/octet-stream;

include /etc/nginx/conf.d/*.conf;

server {
listen 443;
server_name website.com;
ssl on;
ssl_certificate 1_www.website.com_bundle.crt;
ssl_certificate_key 2_www.website.com.key;
ssl_session_timeout 5m;
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;
ssl_prefer_server_ciphers on;
charset UTF-8;
access_log /var/log/nginx/website_access.log;
error_log /var/log/nginx/website_error.log;

client_max_body_size 75M;
fastcgi_buffers 8 128k;
fastcgi_busy_buffers_size 128k;


location / {
include uwsgi_params;
uwsgi_pass 127.0.0.1:8001;
uwsgi_send_timeout 300;
uwsgi_connect_timeout 300;
uwsgi_read_timeout 300;
}
location /static {
expires 30d;
autoindex on;
#return 403;
add_header Cache-Control private;
alias /var/wwwr/website/static/;
}
location /media {
expires 30d;
autoindex on;
#return 403;
add_header Cache-Control private;
alias /var/wwwr/website/media/;
}
}
```
2020-03-19 17:28:51 +08:00
回复了 python30 创建的主题 Python django 的 时间过滤器 | 输出如下格式的时间: 2020-03-18T09:55:47
谢谢各位
OK 了
@ps1aniuge
不重要的数据。没必要太较真了
要是重要数据就按你这步聚操作了
@hefish 确实。以前没注意这方面的事。
@xyjincan 再恢复到 5.6 正常。一条不丢。
谢谢大家。

centos7.5 mysql5.6 utf8mb4 备份到 win7 mysql5.7 utf8mb4 试了几次,具体错误忘了。大概是字符集相关的错

至于为什么丢数据。也没有深入

最终还是用 mysqldump --skip-extended-insert -u root -p 没解决丢数据
但是 100 多 M 就少了两条。还算能接受
不错不错
1  2  3  4  5  6  7  8  9  10 ... 14  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1025 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 28ms · UTC 22:52 · PVG 06:52 · LAX 15:52 · JFK 18:52
Developed with CodeLauncher
♥ Do have faith in what you're doing.