忘记密码

成功验证手机号即可找回密码

请输入密码
请确认密码
用户登录
请输入密码
忘记密码
注册免费试用
注册后联系客服获取免费资格
请输入密码
复制成功
请粘贴在新的浏览器或标签页内打开
确定
账户余额不足10元

为了不影响您的正常使用,请及时充值!

我知道了

恭喜您注册成功!
已成功领取账户余额

25 1
立即领取

手机号绑定成功!
已成功领取账户余额

25 1
立即领取

最新资讯

尊敬的各位用户:近日,经我司舆情系统检测发现,某小型代理IP品牌因网站被流量攻击,导致阿里云防火墙无法抵御而造成损失,在无任何证据和理由的前提下,恶意对江苏灵匠信息科技有限公司旗下产品“芝麻代理”品牌进行诋毁和攻击,捏造事实,误导用户,对我司造成负面影响,经各方面核实,现我司做出如下声明:“芝麻代理”是江苏灵匠信息科技有限公司旗下的大数据产品,主要为各类互联网企业提供优质的大数据采集与信息爬取基础资源,主要服务客户均为互联网巨头及一二线头部互联网公司。目前“芝麻代理”在全国200余个城市拥有独立机柜,累计带宽总量近千G,产品日请求量数亿次,并且该产品拥有超过60人的运营及技术团队实时保证产品的高速与稳定。    作为一家大数据公司,江苏灵匠信息科技有限公司还拥有:1)大数据相关产品:鹰眼通(yingyan.com),火标网(huobiao.cn);2)游戏行业产品:流星加速器(liuxing.com);极弹加速器(jidanjiasu.com);3)数据定制解决方案:梦蝶数据(mengdie.com);目前,我司拥有5000平方米自有办公区域,15个部门,员工300余人,技术岗位人员100余人,十余家子公司遍布全国,旗下更有各类互联网产品超30款。富裕的经济实力使我们可以更坚定的做好手中的产品,雄厚的技术实力与产品服务体系,使我们更专注于客户的使用体验。 截至目前,我司已取得国家颁发的各类互联网经营许可:全网IP-VPN全国互联网虚拟专用网业务许可证;EDI在线数据处理与交易处理业务许可证 ;SP全国信息服务业务许可证;IDC互联网数据中心业务许可证;ISP互联网接入服务业务许可证;ICP增值电信信息服务业务等证书。我司作为江苏省徐州市重点互联网企业,与政府、网安、网信办等上级主管部门保持密切的沟通与联系,公司党支部连年被评为先进部室,优秀党支部等荣誉。    我司对于此次诋毁感到震惊,在与同行的良性竞争中,某些未被我司关注的小型服务商,不思进取,自暴自弃,虽已在行业内从事多年,但产品使用质量依旧堪忧,仅页面设计布局与十年前互联网设计风格无差就可以看出企业的实力水平。当用户不认可其产品,服务质量没有得到提升,并且无力进行公平竞争后,为了增加自己的曝光度,竟然无视法律法规的存在,通过碰瓷、污蔑的方式获取产品存在感,实在是可悲可叹。作为一家企业,每字每句都将承担起法律的责任,当指名道姓的恶意诋毁攻击其他友商后,就不用在含糊其辞的说明无法确定攻击来源,希望某小型IP服务商敢说敢作敢当,如果不敢承担起法律的责任,就请不要先恶意诋毁,然后在想方设法的给自己找台阶下。并且当企业遇到用户流失、收入减少等情况,应改善自身服务水平和产品质量,努力为用户提供高质量产品及服务,妄想依靠碰瓷蹭热度的行为博取广大用户的同情和舆论优势,实属可笑。在诋毁我司产品的文案中,我司被称呼为“后起之秀”,此成语原意指后来出现或新成长起来的优秀人物,能得到同行的夸赞,承认“芝麻代理”品牌能成为同行业的优秀品牌,此赞美受之有愧,所以作为一名“后起之秀”领导行业前行则是我们不可推卸的责任与义务,我司将保持热情上进的心态,努力为用户提供更好的产品和更完善的用户服务。在此,我公司警告相关企业:任何以恶意竞争为目的,发布中伤、诽谤信息侵犯我公司名誉的单位或个人,应当立即停止违法行为。同时,本公司已委托律师收集保存证据,维护自身的合法权益,并保留进一步追究相关法律责任的权利。请相关单位在获知维权声明后及时与我公司法律事务部联系,以便双方协商妥善解决相关事宜。如若不主动联系并道歉,我公司一定依法维权,严厉打击并追究其法律责任!对于恶意竞争的诽谤行为,本公司表示强烈的谴责,劝告某些小作坊和互联网水军,不要在犯罪的道路上越走越远!                               江苏灵匠信息科技有限公司2019年9月6日
  爬虫即使用任何技术手段,批量获取网站信息的一种方式。我们在爬虫抓取的过程中,经常会遇到爬虫ip受限问题,我们可以通过一些基础的方法来解决,其中HTTP代理在爬虫抓取中扮演着重要的角色。想要做好爬虫工作,选择HTTP代理很重要。  芝麻HTTP作为企业爬虫代理ip服务提供商,所有ip皆自建机房产出,可用率≥99.99%、延迟≤10毫秒。支持HTTP、HTTPS、 SOCKS5三大协议,支持API提取,支持城市、运营商选择,可以永久去重,永远不会用到重复的ip地址。芝麻HTTP代理的ip都是高匿ip,更安全稳定便捷,给您的爬虫工作保驾护航!  当然,HTTP代理并不是万能的,并不是说我们使用了代理后就可以随意爬取。HTTP代理起到一个辅助作用,即我们使用代理后,就可以不断切换不同的ip来抓取内容,让代理服务器去帮我们获得网页内容,以此来解决爬虫过程中当前ip地址不可访问的问题,减少我们的工作量。
芝麻HTTP代理怎么领取免费ip?

发布时间 2019-07-16

  芝麻HTTP代理可以免费试用,那么我要怎么领取试用呢?可能很多首次访问芝麻HTTP代理的会员都会有这个疑问,今天小编就为大家介绍一下,怎么在芝麻HTTP网站上领取免费的ip。  1、首先我们需要先注册一个账号,注册成功后,点击个人中心的【领取每日免费IP】按钮,就可领取每日的免费ip了。  2、第二种方法,登录账号后,点击网站右侧的【免费套餐】图标,即可领取每日免费ip。  3、第三种方法就是,打开网站后,点击免费试用小图标下面的【获取API】,进入IP提取页面,点击【领取每日免费IP】。如果还没有账号,可根据提示注册账号,并领取ip。  4、如果需要领取更多的ip来试用,那么就可以联系官网客服或者专属客户经理。  以上就是关于芝麻HTTP代理怎么领取免费ip的相关介绍了,希望可以帮助到大家!芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  为了方便用户提取使用ip,芝麻HTTP代理现已将单次提取数量的200个调整为400个,即用户在获取API页面,可以单次提取400个ip,请求时间<1秒,并且每日提取数量及使用数量不受限制。  芝麻HTTP给您提供的IP存活时间是自您获取那刻起的存活时间,如果您一次性不能够使用400个,那么请根据您每次需要使用的量去获取,及时使用。在芝麻HTTP代理中提取ip是不扣费的,只有使用了ip才会扣除费用。  芝麻HTTP代理的所有IP皆自建机房产出,可用率≥99.99%、延迟≤10毫秒。支持HTTP、HTTPS、 SOCKS5三大协议,支持城市选择、运营商选择,可以永久去重,永远不会用到重复的ip。芝麻HTTP作为企业爬虫代理ip服务提供商,旨在为用户提供更安全、稳定、高匿、便捷的ip服务。注册账号,即可免费提取试用哦! ———— 芝麻HTTP运营管理团队 h.zhimaruanjian.com
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取微博评论信息的。在抓取之前,我们可以先打开微博,并登陆账号。通过开发者工具保存cookie,并根据翻页来找出url的变化规律。  代码如下:# -*- coding:utf-8 -*-import requestsimport reimport timeimport pandas as pd# id可以写自己想爬的地址idurls = 'https://m.weibo.cn/api/comments/show?id=******&page={}'headers = {'Cookies':'cookies信息',       'User-Agent': 'agent信息'}# 找到html标签tags = re.compile('</?\w+[^>]*>')# 设置提取评论functiondef get_comment(url):    j = requests.get(url, headers=headers).json()    comment_data = j['data']['data']    for data in comment_data:        try:            comment = tags.sub('', data['text']) # 去掉html标签            reply = tags.sub('', data['reply_text'])            weibo_id = data['id']            reply_id = data['reply_id']            comments.append(comment)            comments.append(reply)            ids.append(weibo_id)            ids.append(reply_id)        except KeyError:            passfor i in range(1, 101):    url = urls.format(str(i))    get_comment(url)    time.sleep(1) # 防止爬得太快被封df = pd.DataFrame({'ID': ids, '评论': comments})df = df.drop_duplicates()df.to_csv('微博.csv', index=False, encoding='gb18030')  通过上述代码,我们就可以获取到微博评论的相关信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取淘宝上的图片的。在抓取之前,我们可以先打开淘宝,输入我们要爬取的图片关键词,研究分析一下页面,查找所需信息所在的位置,然后开始爬取。  代码如下:import osimport reimport urllib.requestimport requestsdef getHtml(url,headers):# 芝麻代理设置proxy = urllib.request.ProxyHandler({'http': '115.213.177.144:4223'})opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)urllib.request.install_opener(opener)opener.addheaders = [headers]  # 列表data = urllib.request.urlopen(url).read().decode('utf-8', 'ignore')pat='"pic_url":"(.*?)"'imgUrls=re.findall(pat,data)return data,imgUrlsif __name__=='__main__':keyword='关键词信息'#quote编码keyword=urllib.request.quote(keyword)pageString='0'url='目标网址'+pageStringheaders = ('User-Agent','agent信息')data = getHtml(url,headers)[0]print(data)pat='"totalPage":(.*?),'totalPage=int(re.findall(pat,data)[1])print(totalPage)path = os.path.join(os.getcwd(), 'img')os.makedirs(path)for page in range(totalPage):pathpage = os.path.join(path, '第'+str(page+1)+'页')os.makedirs(pathpage)pageString=str(page*44)url = '目标网址' + pageStringimgUrls=getHtml(url, headers)[1]for i in range(1, len(imgUrls)):try:url='http:'+imgUrls[i]print(url)fileurl=pathpage+'/'+str(i)+'.jpg'r=requests.get(url)with open(fileurl,"wb") as f:f.write(r.content)except :print('fuck off')  通过上述代码,我们就可以获取到淘宝上的相关图片信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取租房网站的租房信息的。这里我们以小猪短租网站为例,来抓取杭州地区的租房信息。首先打开网站,研究分析一下页面,查找所需信息所在的位置。  代码如下:from bs4 import BeautifulSoupimport requests# 判断性别def get_sex(sex_icon):if sex_icon == ['member_ico']:return "男"if sex_icon == ['member_ico1']:return "女"else:return "未标识"# 获取每页的url链接def get_page_url(url):web_url = requests.get(url)web_url_soup = BeautifulSoup(web_url.text,'lxml')page_urls = web_url_soup.select('#page_list > ul > li > a')for page_url in page_urls:each_url = page_url.get('href')get_detail_info(each_url)def get_detail_info(url):web_data = requests.get(url)soup = BeautifulSoup(web_data.text,'lxml')titles = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em')addresses = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > p > span.pr5')prices = soup.select('#pricePart > div.day_l > span')pics1 = soup.select('#curBigImage')owner_pics = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')owner_names = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')sexes = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > div')for title, address, price, pic1, owner_name, owner_pic, sex in zip(titles, addresses, prices, pics1, owner_names,owner_pics, sexes):data = {'title': title.get_text(),'address': address.get_text(),'price': price.get_text(),'pic': pic1.get('src'),'owner_pic': owner_pic.get('src'),'name': owner_name.get('title'),'sex': get_sex(sex.get('class'))}print (data)urls = ["http://hz.xiaozhu.com/search-duanzufang-p{}-0/".format(number) for number in range(1, 10)]for url in urls:get_page_url(url)  通过上述代码,我们就可以获取到小猪短租杭州地区相关的租房信息内容了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取豆瓣读书的新书信息。这里我们主要抓取的信息有:地址、书名、封面、作者、出版时间和出版社。在抓取之前,我们可以先打开目标页面,研究分析一下页面,查找所需信息所在的位置。  代码如下:import requestsimport urllibimport sysimport reimport jsonfrom requests.exceptions import RequestException  #异常代码模块def get_one_page(url):headers = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','Accept-Encoding':'gzip, deflate, br','Accept-Language':'zh-CN,zh;q=0.9','Cache-Control':'max-age=0','Connection':'keep-alive','Host':'book.douban.com','Referer':'https://www.baidu.com/s?ie=utf8&oe=utf8&wd=%E8%B1%86%E7%93%A3&tn=98012088_5_dg&ch=1','Upgrade-Insecure-Requests':'1','User-Agent':'agent信息'}try:response = requests.get(url,headers=headers) #打开网址if response.status_code == 200: #判断状态码return response.text      #状态码成功返回网页源代码return Noneexcept RequestException:return Nonedef pare_one_page(html):pattern =re.compile('<li.*?class="cover">.*?<a href="(.*?)" title="(.*?)">'+'.*?src="(.*?)".*?class="author">(.*?)</div>'+'.*?class="year">(.*?)</span>.*?class="publisher">(.*?)</span>.*?</li>', re.S)items = re.findall(pattern,html)#print(items)for item in items:yield {'href': item[0],'title': item[1],'img': item[2],'author': item[3].strip(), #strip()去除开头或结尾的空格及特殊符号'time': item[4].strip(),'Press': item[5].strip()}def write_to_file(content):with open('result.txt','a',encoding='utf-8') as f: #创建文本f.write(json.dumps(content,ensure_ascii=False)+'\n') #json.dumps将字典转换成字符串f.close()def main():url = 'https://book.douban.com/'non_bmp_map = dict.fromkeys(range(0x10000, sys.maxunicode + 1), 0xfffd)page = urllib.request.urlopen(url)  #模块urllib发送HTTP请求,打开网站html = page.read().decode().translate(non_bmp_map) #返回得到的网站,并解码网站中奇怪的符号#print(html)for item in pare_one_page(html):  #正则表达式调用print(item)write_to_file(item)  #调用写入文本if __name__ == '__main__':main()  通过上述代码,我们就可以获取到豆瓣读书的新书相关内容了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
在线咨询

售后客服

在线售后,实时响应

渠道/企业/大客户合作

大汉:153-0544-5551
芝麻HTTP公众号 微信客服
免费套餐
客户定制
专属客户经理
2890289832
15963368937

微信二维码

免费领试用

大客户
专属客户经理
3232545262
18905201785

微信二维码

公众号

关注公众号

免费领试用

意见反馈
置顶