API 最基本遇到的问题是如果使用者越来越多的时候
一台 Server 一定无法满足这些负担
可以透过负载平衡将压力平均到几台 Server 上
http {
upstream myapp1 {
server srv1.example.com weight=1;
server srv2.example.com weight=2;
server srv3.example.com weight=3;
}
server {
listen 80;
location / {
proxy_pass http://myapp1;
}
}
}
使用 upstream 来设定要做分流的 Server Name、IP,而 weight 则是设定权重
经过以上简单的设定後
一个 Load Balancer 机制就完成了
可以使用 ab test 来打 Load Balancer 那台
同时去 Web 1、Web 2 看 access log
成功的话会发现两台 Web 会一起分担 ab 打过来的 Request
<<: 卡夫卡的藏书阁【Book15】- KafkaJS 生产者 - 参数设定 3
>>: Day 14 - React: setState 计数器
昨天讲完了linux的核心架构,今天就开始让我们认识重要的部分吧。 以下是三个名词,程序(progr...
为了更有效提取资料,AWS也提供了资料缓存的服务,一起探究看看吧! 1. ElastiCache的应...
想了很久要针对哪个主题进行资料分析实作,後来想来想去决定选择最常见的『网站』来进行资料分析的实作,那...
刚刚是一笔一笔资料带进去慢慢算出来,有另一种方式可以以次把资料全部带入并直接输出结果>>...
最近读到从 Sr. 工程师转成工程师主管的的经验,作者同时也分享自己的阅读清单。看了一下阅读清单,经...