忘记密码

成功验证手机号即可找回密码

请输入密码
请确认密码
用户登录
请输入密码
忘记密码
注册免费试用
注册后联系客服获取免费资格
请输入密码
复制成功
请粘贴在新的浏览器或标签页内打开
确定
账户余额不足10元

为了不影响您的正常使用,请及时充值!

我知道了

恭喜您注册成功!
已成功领取账户余额

25 1
立即领取

手机号绑定成功!
已成功领取账户余额

25 1
立即领取

最新资讯

芝麻HTTP代理怎么领取免费ip?

发布时间 2019-07-16

  芝麻HTTP代理可以免费试用,那么我要怎么领取试用呢?可能很多首次访问芝麻HTTP代理的会员都会有这个疑问,今天小编就为大家介绍一下,怎么在芝麻HTTP网站上领取免费的ip。  1、首先我们需要先注册一个账号,注册成功后,点击个人中心的【领取每日免费IP】按钮,就可领取每日的免费ip了。  2、第二种方法,登录账号后,点击网站右侧的【免费套餐】图标,即可领取每日免费ip。  3、第三种方法就是,打开网站后,点击免费试用小图标下面的【获取API】,进入IP提取页面,点击【领取每日免费IP】。如果还没有账号,可根据提示注册账号,并领取ip。  4、如果需要领取更多的ip来试用,那么就可以联系官网客服或者专属客户经理。  以上就是关于芝麻HTTP代理怎么领取免费ip的相关介绍了,希望可以帮助到大家!芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  为了方便用户提取使用ip,芝麻HTTP代理现已将单次提取数量的200个调整为400个,即用户在获取API页面,可以单次提取400个ip,请求时间<1秒,并且每日提取数量及使用数量不受限制。  芝麻HTTP给您提供的IP存活时间是自您获取那刻起的存活时间,如果您一次性不能够使用400个,那么请根据您每次需要使用的量去获取,及时使用。在芝麻HTTP代理中提取ip是不扣费的,只有使用了ip才会扣除费用。  芝麻HTTP代理的所有IP皆自建机房产出,可用率≥99.99%、延迟≤10毫秒。支持HTTP、HTTPS、 SOCKS5三大协议,支持城市选择、运营商选择,可以永久去重,永远不会用到重复的ip。芝麻HTTP作为企业爬虫代理ip服务提供商,旨在为用户提供更安全、稳定、高匿、便捷的ip服务。注册账号,即可免费提取试用哦! ———— 芝麻HTTP运营管理团队 h.zhimaruanjian.com
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取微博评论信息的。在抓取之前,我们可以先打开微博,并登陆账号。通过开发者工具保存cookie,并根据翻页来找出url的变化规律。  代码如下:# -*- coding:utf-8 -*-import requestsimport reimport timeimport pandas as pd# id可以写自己想爬的地址idurls = 'https://m.weibo.cn/api/comments/show?id=******&page={}'headers = {'Cookies':'cookies信息',       'User-Agent': 'agent信息'}# 找到html标签tags = re.compile('</?\w+[^>]*>')# 设置提取评论functiondef get_comment(url):    j = requests.get(url, headers=headers).json()    comment_data = j['data']['data']    for data in comment_data:        try:            comment = tags.sub('', data['text']) # 去掉html标签            reply = tags.sub('', data['reply_text'])            weibo_id = data['id']            reply_id = data['reply_id']            comments.append(comment)            comments.append(reply)            ids.append(weibo_id)            ids.append(reply_id)        except KeyError:            passfor i in range(1, 101):    url = urls.format(str(i))    get_comment(url)    time.sleep(1) # 防止爬得太快被封df = pd.DataFrame({'ID': ids, '评论': comments})df = df.drop_duplicates()df.to_csv('微博.csv', index=False, encoding='gb18030')  通过上述代码,我们就可以获取到微博评论的相关信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取淘宝上的图片的。在抓取之前,我们可以先打开淘宝,输入我们要爬取的图片关键词,研究分析一下页面,查找所需信息所在的位置,然后开始爬取。  代码如下:import osimport reimport urllib.requestimport requestsdef getHtml(url,headers):# 芝麻代理设置proxy = urllib.request.ProxyHandler({'http': '115.213.177.144:4223'})opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)urllib.request.install_opener(opener)opener.addheaders = [headers]  # 列表data = urllib.request.urlopen(url).read().decode('utf-8', 'ignore')pat='"pic_url":"(.*?)"'imgUrls=re.findall(pat,data)return data,imgUrlsif __name__=='__main__':keyword='关键词信息'#quote编码keyword=urllib.request.quote(keyword)pageString='0'url='目标网址'+pageStringheaders = ('User-Agent','agent信息')data = getHtml(url,headers)[0]print(data)pat='"totalPage":(.*?),'totalPage=int(re.findall(pat,data)[1])print(totalPage)path = os.path.join(os.getcwd(), 'img')os.makedirs(path)for page in range(totalPage):pathpage = os.path.join(path, '第'+str(page+1)+'页')os.makedirs(pathpage)pageString=str(page*44)url = '目标网址' + pageStringimgUrls=getHtml(url, headers)[1]for i in range(1, len(imgUrls)):try:url='http:'+imgUrls[i]print(url)fileurl=pathpage+'/'+str(i)+'.jpg'r=requests.get(url)with open(fileurl,"wb") as f:f.write(r.content)except :print('fuck off')  通过上述代码,我们就可以获取到淘宝上的相关图片信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取租房网站的租房信息的。这里我们以小猪短租网站为例,来抓取杭州地区的租房信息。首先打开网站,研究分析一下页面,查找所需信息所在的位置。  代码如下:from bs4 import BeautifulSoupimport requests# 判断性别def get_sex(sex_icon):if sex_icon == ['member_ico']:return "男"if sex_icon == ['member_ico1']:return "女"else:return "未标识"# 获取每页的url链接def get_page_url(url):web_url = requests.get(url)web_url_soup = BeautifulSoup(web_url.text,'lxml')page_urls = web_url_soup.select('#page_list > ul > li > a')for page_url in page_urls:each_url = page_url.get('href')get_detail_info(each_url)def get_detail_info(url):web_data = requests.get(url)soup = BeautifulSoup(web_data.text,'lxml')titles = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em')addresses = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > p > span.pr5')prices = soup.select('#pricePart > div.day_l > span')pics1 = soup.select('#curBigImage')owner_pics = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')owner_names = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')sexes = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > div')for title, address, price, pic1, owner_name, owner_pic, sex in zip(titles, addresses, prices, pics1, owner_names,owner_pics, sexes):data = {'title': title.get_text(),'address': address.get_text(),'price': price.get_text(),'pic': pic1.get('src'),'owner_pic': owner_pic.get('src'),'name': owner_name.get('title'),'sex': get_sex(sex.get('class'))}print (data)urls = ["http://hz.xiaozhu.com/search-duanzufang-p{}-0/".format(number) for number in range(1, 10)]for url in urls:get_page_url(url)  通过上述代码,我们就可以获取到小猪短租杭州地区相关的租房信息内容了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
在线咨询

售后客服

在线售后,实时响应

渠道/企业/大客户合作

大汉:153-0544-5551
芝麻HTTP公众号 微信客服
免费套餐
客户定制
专属客户经理
2890289832
15963368937

微信二维码

大客户
专属客户经理
1214413489
17696587966

微信二维码

公众号

关注公众号

意见反馈
置顶