Python爬虫被识别主因是行为暴露“非人”特征。服务器通过请求频率、鼠标轨迹、JS执行环境、HTTP头、TLS指纹等多维建模识别;需动态UA、Session管理、正态延时、Playwright替代Selenium、禁用webdriver、模拟真实鼠标移动、使用tls-client复刻TLS指纹。
Python爬虫被识别,往往不是因为用了requests还是selenium,而是行为暴露了“非人”特征。服务器通过请求频率、鼠标轨迹、JS执行环境、HTTP头细节、TLS指纹等多维度建模判断是否为真实浏览器,而多数Python脚本在这些环节天然露馅。
直接用requests发请求时,User-Agent常固定不变,且缺少Accept、Accept-Language、Sec-Ch-Ua等现代浏览器必带的头部字段;Cookie不随跳转自动管理,Referer缺失或错乱;两次请求间隔恒为0.1秒,形成完美等差数列——这在人类浏览中几乎不存在。
目标站点若依赖window.navigator、WebGL指纹、AudioContext采样或canvas.toDataURL()生成设备指纹,requests和普通urllib完全无法执行JS,返回的HTML里关键数据为空或被遮蔽。即使加了headers,服务端仍可通过fetch调用失败、navigator.plugins长度为0等特征判定为无头环境。
--disable-blink-features=AutomationControlled,并覆盖navigator.webdriver为undefined用Selenium模拟点击时,若元素定位后立即click(),或move_to_element().click()路径是直线瞬移,缺乏加减速、微小偏移、悬停抖动等生物行为特征。高级反爬会记录鼠标移动轨迹的贝塞尔曲线拟合度、停留时间分布,甚至检测pointer-events触发顺序。
Python默认SSL库(urllib3
+ OpenSSL)握手时发送的ALPN协议列表、支持的加密套件顺序、TLS扩展排列,与Chrome/Firefox存在显著差异。一些WAF(如Cloudflare最新版)已将TLS指纹纳入实时风控模型,单纯换UA无效。