51工具盒子

依楼听风雨
笑看云卷云舒,淡观潮起潮落

Python笔记

[Python 爬虫]煎蛋网 OOXX 妹子图爬虫(1)——解密图片地址

[Python 爬虫]煎蛋网 OOXX 妹子图爬虫(1)——解密图片地址

厉飞雨 阅读(42) 评论(0) 赞(1)

之前在鱼C论坛的时候,看到很多人都在用 Python 写爬虫爬煎蛋网的妹子图,当时我也写过,爬了很多的妹子图片。后来煎蛋网把妹子图的网页改进了,对图片的地址进行了加密,所以论坛里面的人经常有人问怎么请求的页面没有链接。这篇文章就来说一下煎蛋网 OOXX 妹子图的链接获取方式。 首先说明一下,之前煎蛋网之所以增加了反爬虫机制,应该就是因为有太多的人去爬他们的网站了。爬虫频繁的访...

Python 有道翻译爬虫,破解 sign 参数加密反爬机制,解决{

Python 有道翻译爬虫,破解 sign 参数加密反爬机制,解决{"errorCode":50}错误

厉飞雨 阅读(43) 评论(0) 赞(1)

很多人学习 Python 爬虫的第一个爬虫就是爬的有道翻译,但是现在由于有道翻译进行了参数加密,增加了反爬机制,所以很多新手在使用以前的代码的时候经常会遇到 {"errorCode":50} 错误。这篇文章就来分析一下有道翻译的反爬机制,依然通过 Python 爬虫来爬有道翻译。 有道翻译的请求分析 {#有道翻译的请求分析} ---------------...

利用PythonFTP下载网站备份

利用PythonFTP下载网站备份

厉飞雨 阅读(31) 评论(0) 赞(1)

主要说用宝塔面板搭建的网站,在之前的文章中写过了【[怎样备份网站到本地电脑](https://51tbox.com/)】,备份的网站数据是在远程的服务器上,如果一旦服务器出问题,备份的数据也有可能丢失,那么应该及时的将备份的数据下载到本地。 宝塔面板 ---- 首先宝塔中安装*Pure-Ftpd*插件,在软件商店安装,这里就不再演示了。 宝塔上创建一个软链接文件,指向备份...

Python利用阿里云云解析实现DDNS

Python利用阿里云云解析实现DDNS

厉飞雨 阅读(34) 评论(0) 赞(2)

目的 --- 远程控制家里的Windows系统电脑。 准备 --- 阿里云域名 家里电脑所在网络有公网IP Python环境(我安装的为版本为3.6.8) 内容 --- 在阿里云后台<https://ram.console.aliyun.com/manage/ak> 获取AccessKey ID和AccessKey Secret。 安装依赖包 ...

Python使用cookies登录学校信息化服务平台

Python使用cookies登录学校信息化服务平台

厉飞雨 阅读(35) 评论(0) 赞(0)

使用到的库:requests 实现思路:cookies是用户在线状态的凭证,在短期时间内用户的cookies是不会变的,所以可以通过在浏览器先登陆目标网站得到登陆后的cookies,利用代码模仿浏览器的请求将获取到的cookies带进去,服务器会把你当做已登录的用户来给你返回数据。 [参考教程:](https://www.cnblogs.com/ddddfpxx/p/8...

Python AES对称加密算法用法

Python AES对称加密算法用法

厉飞雨 阅读(30) 评论(0) 赞(1)

第一步:需要安装Crypto库 pip install pycryptodome 第二步:具体实现 psd = b'tasXSG2R4j55' # 秘钥:字节 text = 'hello word' cipher = AES.new(psd, AES.MODE_ECB) # 创建加密对象 # 对明...

python使用redis缓存

python使用redis缓存

厉飞雨 阅读(36) 评论(0) 赞(1)

Django框架,缓存的数据,下面是使用方法 1. settings配置 (注意:如果不设置缓存方法,Django会将数据缓存到内存中,这里我们采用redis) ```python CACHES = { "default": { "BACKEND": "django.core.cache.backe...

python操作word首行缩进

python操作word首行缩进

厉飞雨 阅读(34) 评论(0) 赞(1)

```python def set_indent(paragraph, left_indent=None, right_indent=None, first_line_indent=None, hanging_indent=None): """ 设置缩进,单位为字符 :param paragraph: 段落 :par...

Python 百度关键词批量搜索网站

Python 百度关键词批量搜索网站

厉飞雨 阅读(30) 评论(0) 赞(0)

通过关键词字典,百度批量搜索网站URL,主要是方便做涉网打黑时目标批量寻找等,没加入多线程是为了避免被百度反爬虫拦截,送给有需要的人。 [![Python 百度关键词批量搜索网站](http://static.51tbox.com/static/2025-01-10/col/f58c7c3cd7abedfb1223168729c09c82/95effffd75e94637a1...