seleniums实践爬取安居客
2023-01-31 16:41:05
  • 157
  • 0
  • 0

最近在微信群里面看到一个小伙关于爬虫技术问题的求助信息,所以今天就根据这个求助信息分享一篇简单的爬虫文章。群里这位小伙伴的需求是爬取安居客上的一个页面的全部地区名称和链接。

他是刚学习爬虫的,使用的scrapy框架,我觉得没有必要使用到这个框架,我们直接用了一个requests+selenium 进行一整页数据的爬取就可以。

首先爬取的目标网站是:https://www.anjuke.com

因为一开始直接用requests库进行网站的爬取,会访问不到数据的, 会直接出现 访问的页面出现错误的信息。

因为一直报错,脑瓜子不知道怎么的就想到了selenium 这个框架,可能是之前的几个爬虫项目都是使用的selenium吧。但是做爬虫的都知道安居客现在也不是很好爬取的,网站的反爬机制总是在不断的升级,这里我们只是少量的爬取做分享,那就只需要做最简单的反爬策略就可以,一般网站最直接的就是封IP。这里刚也跟大家分享一种新的代理的使用方式即隧道转发代理,最近有详细的了解了下很适合爬虫,特别是新手爬虫。

接下来我们直接在selenium中加上代理去访问数据,实现代码示例如下:

from selenium import webdriver

import string

import zipfile

# 代理服务器(产品官网 www.16yun.cn)

proxyHost = "t.16yun.cn"

proxyPort = "31111"

# 代理验证信息

proxyUser = "username"

proxyPass = "password"

def create_proxy_auth_extension(proxy_host, proxy_port,

proxy_username, proxy_password,

scheme='http', plugin_path=None):

if plugin_path is None:

plugin_path = r'D:/{}_{}@t.16yun.zip'.format(proxy_username, proxy_password)

manifest_json = """

{

"version": "1.0.0",

"manifest_version": 2,

"name": "16YUN Proxy",

"permissions": [

"proxy",

"tabs",

"unlimitedStorage",

"storage",

"",

"webRequest",

"webRequestBlocking"

],

"background": {

"scripts": ["background.js"]

},

"minimum_chrome_version":"22.0.0"

}

"""

background_js = string.Template(

"""

var config = {

mode: "fixed_servers",

rules: {

singleProxy: {

scheme: "${scheme}",

host: "${host}",

port: parseInt(${port})

},

bypassList: ["foobar.com"]

}

};

chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});

function callbackFn(details) {

return {

authCredentials: {

username: "${username}",

password: "${password}"

}

};

}

chrome.webRequest.onAuthRequired.addListener(

callbackFn,

{urls: [""]},

['blocking']

);

"""

).substitute(

host=proxy_host,

port=proxy_port,

username=proxy_username,

password=proxy_password,

scheme=scheme,

)

with zipfile.ZipFile(plugin_path, 'w') as zp:

zp.writestr("manifest.json", manifest_json)

zp.writestr("background.js", background_js)

return plugin_path

proxy_auth_plugin_path = create_proxy_auth_extension(

proxy_host=proxyHost,

proxy_port=proxyPort,

proxy_username=proxyUser,

proxy_password=proxyPass)

option = webdriver.ChromeOptions()

option.add_argument("--start-maximized")

# 如报错 chrome-extensions

# option.add_argument("--disable-extensions")

option.add_extension(proxy_auth_plugin_path)

# 关闭webdriver的一些标志

# option.add_experimental_option('excludeSwitches', ['enable-automation'])

driver = webdriver.Chrome(chrome_options=option)

# 修改webdriver get属性

# script = '''

# Object.defineProperty(navigator, 'webdriver', {

# get: () => undefined

# })

# '''

# driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {"source": script})

driver.get("http://httpbin.org/ip")

获取的数据经过后期整理我直接私发那个小伙伴了,关于selenium 的使用还是比较复杂,下次小编专门针对selenium的使用写一篇文章,感兴趣的可以关注下,对代理的选择有需求的可以直接搜索亿牛云去了解,是专业提供爬虫代理的。