#使用自定义的ua池
#定义一个爬虫类
#初始化url属性
#请求函数,得到页面,传统三步
"User-Agent"
#windows会存在乱码问题,需要使用gbk解码,并使用ignore忽略不能处理的字节
#linux不会存在上述问题,可以直接使用decode解码
"gbk"
"ignore"
#保存文件函数
"w"
#入口函数
"输入贴吧名:"
"输入起始页:"
"输入终止页:"
#+1操作保证能够取到整数
"kw"
"pn"
#拼接URL地址
#发请求
#定义路径
"{}-{}页.html"
#提示
"第%d页抓取成功"
#每爬取一个页面随机休眠1-2秒钟的时间
#以脚本的形式启动爬虫
"__main__"
#实例化一个对象spider
#调用入口函数
#查看程序执行时间
"执行时间:%.2f"
#爬虫执行时间
文章为作者独立观点,不代表 股票程序化软件自动交易接口观点