忘记密码

成功验证手机号即可找回密码

请输入密码
请确认密码
用户登录
请输入密码
忘记密码
注册免费试用
注册后联系客服获取免费资格
请输入密码
《芝麻HTTP用户注册协议》
复制成功
请粘贴在新的浏览器或标签页内打开
确定
账户余额不足10元

为了不影响您的正常使用,请及时充值!

我知道了

恭喜您注册成功!
已成功领取账户余额

25 1
立即领取

手机号绑定成功!
已成功领取账户余额

25 1
立即领取
芝麻HTTP
芝麻HTTP注册协议
本协议是您与芝麻HTTP相关事宜所订立的契约,请您仔细阅读本注册协议,您点击“同意”后,本协议即构成对双方有约束力的法律文件。

第1条 用户注册

1、用户注册是指用户登录芝麻HTTP,按要求填写相关信息并确认同意本服务协议的过程。

2、芝麻HTTP用户必须是具有完全民事行为能力的自然人。

3、本产品一经售出,概不退款。

第2条 用户的帐号,密码和安全性

用户一旦注册成功,成为本站的合法用户。芝麻HTTP将对用户名和密码安全负全部责任,若是因个人行为造成的密码用户安全问题,本公司不负责任。此外,每个用户都要对以其用户名进行的所有活动和事件负全责。用户若发现任何非法使用用户帐号或存在安全漏洞的情况,请立即通告本站或者致电官网电话。
第3条 用户依法言行义务
本协议依据国家相关法律法规规章制定,用户同意严格遵守以下义务:
(1)不得传输或发表:煽动抗拒、破坏宪法和法律、行政法规实施的言论,煽动颠覆国家政权,推翻社会主义制度的言论,煽动分裂国家、破坏国家统一的的言论,煽动民族仇恨、民族歧视、破坏民族团结的言论;
(2)从中国大陆向境外传输资料信息时必须符合中国有关法规;
(3)不得利用本站从事洗钱、窃取商业秘密、窃取个人信息等违法犯罪活动;
(4)不得干扰本站的正常运转,不得侵入本站及国家计算机信息系统;
(5)不得传输或发表任何违法犯罪的、骚扰性的、中伤他人的、辱骂性的、恐吓性的、伤害性的、庸俗的,淫秽的、不文明的等信息资料;
(6)不得传输或发表损害国家社会公共利益和涉及国家安全的信息资料或言论;
(7)不得教唆他人从事本条所禁止的行为;
(8)不得利用在本站注册的账户进行牟利性经营活动;
(9)不得发布任何侵犯他人著作权、商标权等知识产权或合法权利的内容;
用户应不时关注并遵守本站不时公布或修改的各类合法规则规定。
本站保有删除站内各类不符合法律政策或不真实的信息内容而无须通知用户的权利。
若用户未遵守以上规定的,本站有权作出独立判断并采取暂停或关闭用户帐号等措施。用户须对自己在网上的言论和行为承担法律责任。

第4条 协议更新及用户关注义务
根据国家法律法规变化及网站运营需要,芝麻HTTP有权对本协议条款不时地进行修改,修改后的协议一旦被张贴在本站上即生效,并代替原来的协议。用户可随时登录查阅最新协议; 用户有义务不时关注并阅读最新版的协议及网站公告。如用户不同意更新后的协议,可以且应立即停止接受网站依据本协议提供的服务;如用户继续使用本网站提供的服务的,即视为同意更新后的协议。芝麻HTTP建议您在使用本站之前阅读本协议及本站的公告。 如果本协议中任何一条被视为废止、无效或因任何理由不可执行,该条应视为可分的且并不影响任何其余条款的有效性和可执行性。

第5条 法律管辖和适用
本协议的订立、执行和解释及争议的解决均应适用在中华人民共和国大陆地区适用之有效法律(但不包括其冲突法规则)。 如发生本协议与适用之法律相抵触时,则这些条款将完全按法律规定重新解释,而其它有效条款继续有效。 如缔约方就本协议内容或其执行发生任何争议,双方应尽力友好协商解决;协商不成时,任何一方均可向有管辖权的中华人民共和国大陆地区法院提起诉讼。
同意并继续

为IP需求定制
提供专业解决方案

最新资讯

  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取淘宝上的图片的。在抓取之前,我们可以先打开淘宝,输入我们要爬取的图片关键词,研究分析一下页面,查找所需信息所在的位置,然后开始爬取。  代码如下:import osimport reimport urllib.requestimport requestsdef getHtml(url,headers):# 芝麻代理设置proxy = urllib.request.ProxyHandler({'http': '115.213.177.144:4223'})opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)urllib.request.install_opener(opener)opener.addheaders = [headers]  # 列表data = urllib.request.urlopen(url).read().decode('utf-8', 'ignore')pat='"pic_url":"(.*?)"'imgUrls=re.findall(pat,data)return data,imgUrlsif __name__=='__main__':keyword='关键词信息'#quote编码keyword=urllib.request.quote(keyword)pageString='0'url='目标网址'+pageStringheaders = ('User-Agent','agent信息')data = getHtml(url,headers)[0]print(data)pat='"totalPage":(.*?),'totalPage=int(re.findall(pat,data)[1])print(totalPage)path = os.path.join(os.getcwd(), 'img')os.makedirs(path)for page in range(totalPage):pathpage = os.path.join(path, '第'+str(page+1)+'页')os.makedirs(pathpage)pageString=str(page*44)url = '目标网址' + pageStringimgUrls=getHtml(url, headers)[1]for i in range(1, len(imgUrls)):try:url='http:'+imgUrls[i]print(url)fileurl=pathpage+'/'+str(i)+'.jpg'r=requests.get(url)with open(fileurl,"wb") as f:f.write(r.content)except :print('fuck off')  通过上述代码,我们就可以获取到淘宝上的相关图片信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取租房网站的租房信息的。这里我们以小猪短租网站为例,来抓取杭州地区的租房信息。首先打开网站,研究分析一下页面,查找所需信息所在的位置。  代码如下:from bs4 import BeautifulSoupimport requests# 判断性别def get_sex(sex_icon):if sex_icon == ['member_ico']:return "男"if sex_icon == ['member_ico1']:return "女"else:return "未标识"# 获取每页的url链接def get_page_url(url):web_url = requests.get(url)web_url_soup = BeautifulSoup(web_url.text,'lxml')page_urls = web_url_soup.select('#page_list > ul > li > a')for page_url in page_urls:each_url = page_url.get('href')get_detail_info(each_url)def get_detail_info(url):web_data = requests.get(url)soup = BeautifulSoup(web_data.text,'lxml')titles = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em')addresses = soup.select('body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > p > span.pr5')prices = soup.select('#pricePart > div.day_l > span')pics1 = soup.select('#curBigImage')owner_pics = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')owner_names = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')sexes = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > div')for title, address, price, pic1, owner_name, owner_pic, sex in zip(titles, addresses, prices, pics1, owner_names,owner_pics, sexes):data = {'title': title.get_text(),'address': address.get_text(),'price': price.get_text(),'pic': pic1.get('src'),'owner_pic': owner_pic.get('src'),'name': owner_name.get('title'),'sex': get_sex(sex.get('class'))}print (data)urls = ["http://hz.xiaozhu.com/search-duanzufang-p{}-0/".format(number) for number in range(1, 10)]for url in urls:get_page_url(url)  通过上述代码,我们就可以获取到小猪短租杭州地区相关的租房信息内容了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取豆瓣读书的新书信息。这里我们主要抓取的信息有:地址、书名、封面、作者、出版时间和出版社。在抓取之前,我们可以先打开目标页面,研究分析一下页面,查找所需信息所在的位置。  代码如下:import requestsimport urllibimport sysimport reimport jsonfrom requests.exceptions import RequestException  #异常代码模块def get_one_page(url):headers = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','Accept-Encoding':'gzip, deflate, br','Accept-Language':'zh-CN,zh;q=0.9','Cache-Control':'max-age=0','Connection':'keep-alive','Host':'book.douban.com','Referer':'https://www.baidu.com/s?ie=utf8&oe=utf8&wd=%E8%B1%86%E7%93%A3&tn=98012088_5_dg&ch=1','Upgrade-Insecure-Requests':'1','User-Agent':'agent信息'}try:response = requests.get(url,headers=headers) #打开网址if response.status_code == 200: #判断状态码return response.text      #状态码成功返回网页源代码return Noneexcept RequestException:return Nonedef pare_one_page(html):pattern =re.compile('<li.*?class="cover">.*?<a href="(.*?)" title="(.*?)">'+'.*?src="(.*?)".*?class="author">(.*?)</div>'+'.*?class="year">(.*?)</span>.*?class="publisher">(.*?)</span>.*?</li>', re.S)items = re.findall(pattern,html)#print(items)for item in items:yield {'href': item[0],'title': item[1],'img': item[2],'author': item[3].strip(), #strip()去除开头或结尾的空格及特殊符号'time': item[4].strip(),'Press': item[5].strip()}def write_to_file(content):with open('result.txt','a',encoding='utf-8') as f: #创建文本f.write(json.dumps(content,ensure_ascii=False)+'\n') #json.dumps将字典转换成字符串f.close()def main():url = 'https://book.douban.com/'non_bmp_map = dict.fromkeys(range(0x10000, sys.maxunicode + 1), 0xfffd)page = urllib.request.urlopen(url)  #模块urllib发送HTTP请求,打开网站html = page.read().decode().translate(non_bmp_map) #返回得到的网站,并解码网站中奇怪的符号#print(html)for item in pare_one_page(html):  #正则表达式调用print(item)write_to_file(item)  #调用写入文本if __name__ == '__main__':main()  通过上述代码,我们就可以获取到豆瓣读书的新书相关内容了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
  今天芝麻HTTP就为大家分享一下,爬虫是如何爬取猫眼电影TOP榜数据的。主要抓取的内容有排名、图片、电影名称、主演、上映时间和评分信息。在抓取之前,我们先打开猫眼电影TOP100页面,研究分析页面,查找我们需要的信息位置,然后抓取。  代码如下:import jsonimport requestsfrom requests.exceptions import RequestExceptionimport reimport timedef get_one_page(url):    try:        headers = { 'User-Agent': 'agent信息'}        response = requests.get(url, headers=headers)        if response.status_code == 200:            return response.text        return None    except RequestException:        return Nonedef parse_one_page(html):    pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'                         + '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'                         + '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)    items = re.findall(pattern, html)    for item in items:        yield {            'index': item[0],            'image': item[1],            'title': item[2],            'actor': item[3].strip()[3:],            'time': item[4].strip()[5:],            'score': item[5] + item[6]        }def write_to_file(content):    with open('result.txt', 'a', encoding='utf-8') as f:        f.write(json.dumps(content, ensure_ascii=False) + '\n')def main(offset):    url = 'http://maoyan.com/board/4?offset=' + str(offset)    html = get_one_page(url)    for item in parse_one_page(html):        print(item)        write_to_file(item)if __name__ == '__main__':    for i in range(10):        main(offset=i * 10)        time.sleep(1)  通过上述代码,我们就可以获取到猫眼电影TOP榜数据信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请咨询客服。
  想要快速获取某个岗位的招聘信息,就用爬虫来爬取吧!今天芝麻HTTP就为大家分享一下,爬虫是如何爬取赶集网的岗位招聘信息的。在抓取之前,我们可先打开赶集网的招聘页面,F12审查元素,查找我们需要的信息所在的位置。  代码如下:import requestsimport csvimport tracebackfrom bs4 import BeautifulSoup as bs def get_page():    try:        url = '赶集网的招聘网址/'        # 访问请求头        headers = { 'User-Agent': 'agent信息'}        r = requests.get(url, headers=headers)        r.encoding = r.apparent_encoding        return r.text    except:        traceback.print_exc()        return "爬取失败" def get_page_parse(html):    # 打开文件设置好格式    csv_file = open('D:\\data.csv', 'wt', newline='')    writer = csv.writer(csv_file)    writer.writerow(['url', '公司', '地点', '时间', '福利', '职位', '薪水'])    content = []    soup = bs(html, 'html.parser')    for dl in soup.find_all('dl', class_='list-noimg job-list clearfix new-dl'):        link1 = dl.find('a').get('post_url')  # 爬取网页地址        div = dl.find('div', class_="new-dl-company").find('a')  # 爬取公司名称        adress = soup.find('dd', class_='pay')  # 爬取地址        time = dl.find('dd', class_='pub-time').find('span')  # 爬取发布时间        for info in dl.find('div', class_="new-dl-tags").find_all('i'):  # 爬取公司福利            content.append(info.text)        job = dl.find('a', class_='list_title gj_tongji')  # 爬取职位        salary = dl.find('div', class_='new-dl-salary')  # 爬取提供的薪水        writer.writerow([link1, div.text, adress.text, time.text, content, job.text, salary.text])    csv_file.close()    print('所有数据成功放入CSV中') # 主函数:if __name__ == '__main__':    html = get_page()    get_page_parse(html)  通过以上代码,我们就可以获取到赶集网某个岗位的招聘信息了。芝麻HTTP为您提供安全稳定、高效便捷的爬虫代理IP服务,更多问题请点击官网咨询客服。
在线咨询

售后客服1

在线售后,实时响应

售后客服2

在线售后,实时响应

渠道/企业/大客户合作

大汉:153-0544-5551
芝麻HTTP公众号 微信客服