Day16 requests模组一

终於!可以进入真正的爬虫教学啦~
我们已经有一定的实力来编写Python和分析网页了
今天的影片内容为建立HTTP 请求,并从网页服务器上取得想要的资料

要执行这个外部模组前,必须至CMD进行安装

pip install requests

以下为影片中有使用到的程序码

#检查资料型态
import requests

url = "https://new.ntpu.edu.tw/"
htmlfile = requests.get(url)
print(type(htmlfile)) 
#Response物件的重要属性
import requests

url = "https://new.ntpu.edu.tw/"
htmlfile = requests.get(url)

print("是否成功获取网页内容:", htmlfile.status_code) #列印出整数200为成功获取
print("列印出网页内容:\n", htmlfile.text) #\n为换行
#搜寻网页特定内容
import requests
import re

url = "https://new.ntpu.edu.tw/"
htmlfile = requests.get(url)

word = input("请输入想搜寻的字串:")

if word in htmlfile.text:
    print("搜寻成功!")
    data = re.findall(word, htmlfile.text) #将搜寻到的字串放入串列中 ex:[1,1,1,1,1]
    print("出现次数:", len(data))
    
else:
    print("搜寻失败...")
#将程序稍微改良
import requests

url = "https://new.ntpu.edu.tw/"
htmlfile = requests.get(url)

if htmlfile.status_code == 200:
    print("列印出网页内容:\n", htmlfile.text)
else:
    print("网页下载失败..")
#试试看其他的网站吧!
import requests

url = "https://www.kingstone.com.tw/"
htmlfile = requests.get(url)

if htmlfile.status_code == 200:
    print("列印出网页内容:\n", htmlfile.text)
else:
    print("网页下载失败")

如果在影片中有说得不太清楚或错误的地方,欢迎留言告诉我,谢谢您的指教。


<<:  @Day30 | C# WixToolset + WPF 帅到不行的安装包 [最终回]

>>:  Day15 资料库-model的创建(1)

伸缩自如的Flask [day 19] Nginx

这里我使用之前安装wsl2的虚拟机来进行,打开Ubuntu,首先进行安装nginx: sudo ap...

[day30][後记] 什麽都略懂一点,生活更多彩一些。

同步发表到驴形笔记 什麽都略懂一点,生活更多彩一些。 经过这ㄧ系列跑下来,应该有摸索到各式各样的新...

关於补数与二进位运算

补数为何存在? 为了将减法以加法的形式进行实作,减少电路开销(省去减法器)。 补数的讨论 一般来说,...

细看seldon core所部署出来的POD在做什麽

在本篇, 我们来看一下使用seldon完成部署之後, 在k8s上会产生哪些资源 建立在k8s上的se...

【Day2】如何安装odoo社区版?

#odoo #开源系统 #数位赋能 #E化自主 在第一天的文章中,我们简单认识了odoo。在此一提,...