今天我们要来实作 - 『如何启用 WAF 日志以及汇入 BI 进行分析』,
Data Analytics Pipeline 如下图所示:
再做这个实作之前,大家要先部属 AWS WAF 至 CloudFront 上喔 ~
那再启用 WAF Log 之前,我们必须要先建立 AWS Kinesis 服务,那我们就开始吧 GOGO
Buffer size 跟 Buffer interval 就是如果当 Buffer 超过 5 MiB或者超过 300 秒後会将串流资料丢到 AWS S3上
接着确认无误後按 Create delivery stream
今天我们顺利建立好 AWS Kinesis Data Firehose,那大家就可以看到 AWS S3 已顺利产生资料也~
明天我们就会来讨论『如何启用 WAF 日志』,明天见罗 : D ~
如果有任何指点与建议,也欢迎留言交流,一起漫步在 Data on AWS 中。
参考&相关来源:
[1] Kinesis Data Firehose
https://docs.aws.amazon.com/firehose/latest/dev/create-configure.html
<<: 30天打造品牌特色电商网站 Day.22 图片排版实作
>>: Day 25 [Python ML、资料清理] 处理遗失值
简单工厂模式,顾名思义就是抽象工厂的简单版~ 共有三个环节~ 分别是 抽象产品、具体产品、生产产品~...
本篇文没有引言,不罗嗦。 本文开始 人脸侦测是物体侦测(Object Detection)的一种;...
前面 9 天都在介绍操作环境,今天终於要进到编辑器啦!我选用的编辑器是 nvim,但是如果你要用 v...
848. Shifting Letters https://leetcode.com/problem...
一般来说,如果是透过GCP官网的介绍方式,透过 docker 指令推送 image 到 GCP Co...