189 8069 5689

怎么使用python爬虫论坛

这篇文章给大家分享的是有关怎么使用python爬虫论坛的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。

创新互联建站拥有10余年成都网站建设工作经验,为各大企业提供成都做网站、成都网站设计服务,对于网页设计、PC网站建设(电脑版网站建设)、成都app开发、wap网站建设(手机版网站建设)、程序开发、网站优化(SEO优化)、微网站、主机域名等,凭借多年来在互联网的打拼,我们在互联网网站建设行业积累了很多网站制作、网站设计、网络营销经验,集策划、开发、设计、营销、管理等网站化运作于一体,具备承接各种规模类型的网站建设项目的能力。

库:requests,re,selenium,time

具体步骤:

一、搜索贴吧

准备一个自己想要爬取的内容

二、显示贴吧首页的帖子

要提取发帖人的名字和帖子主题,选择用正则表达式来实现,具体代码如下:

titles = re.findall('

三、查看某一个帖子

通过观察网页源码,可以用正则表达式匹配到这部分回复,然后对于这些回复,也要进行处理后再显示出来。

comment_list2 = re.findall('post_bubble_middle_inner">(.*?)', ' ').replace('
', ' ')

具体源码如下:

import requests
 import time
  import re
 from selenium import webdriver
 
 headers = {
 "user-agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/"
  "53.0.2785.89 Safari/537.36"
 }
  
 
  class TieBa:
  def __init__(self, name, url):
  self.name = name # 贴吧名
 self.url = url # 贴吧首页的url
 
  # 显示首页上的帖子作者和标题
 def get_homepage(self):
  print("\n\t\t\t\t\t\t{}吧".format(self.name))
 res = requests.get(self.url, headers=headers)
 titles = re.findall('(.*?)<', res.text)
  comment_list = re.findall('content clearfix">(.*?)
', res.text, re.DOTALL)   if len(comment_list) == 0:   comment_list = re.findall('d_post_content j_d_post_content ">(.*?)
', res.text, re.DOTALL)    # 带回复框的单独考虑   comment_list2 = re.findall('post_bubble_middle_inner">(.*?)', ' ')   if "', ' ').replace('', ' ')   num += 1   if "src" in comment: # 处理图片信息   src_list = re.findall('src="(.*?)"', comment)  pattern_list = re.findall('()', comment)   for s, p in zip(src_list, pattern_list):   comment = comment.replace(p, ' ' + s)   if "href" in comment: # 处理表情信息   pattern_list = re.findall('()', comment)  for p in pattern_list:   comment = comment.replace(p, ' ').replace("", '')  print(comment)      while True:  x = int(input("\n输入1查看下一页,输入0回到首页,输入-1退出程序:"))   if x == -1:   exit()   if x == 0:   self.get_homepage()   if x == 1:   next_page = re.findall('下一页', res.text)   if len(next_page)>0:   self.get_page("http://tieba.baidu.com" + next_page[0])   else:   print("已经是最后一页了!")       # 利用selenium模拟浏览器查找贴吧   def search():   chrome_options = webdriver.ChromeOptions()   chrome_options.add_argument('--headless')   browser = webdriver.Chrome(chrome_options=chrome_options)     browser.get("https://tieba.baidu.com/")   name = input("请输入想要进入的贴吧名字:")   browser.find_element_by_xpath('//*[@id="wd1"]').send_keys(name)   browser.find_element_by_xpath('//*[@id="tb_header_search_form"]/span[1]/a').click()  url = browser.current_url  if "tieba.baidu.com/f?ie=utf-8" in url: # 搜索的贴吧存在   print("正在进入{}吧,请稍等...".format(name))   time.sleep(2)   t = TieBa(name, url)   t.get_homepage()   else:   print("没有找到{}吧\n".format(name))   main()        def main():  x = int(input("输入1搜索进入贴吧,输入-1退出程序:"))   if x == 1:   search()   else:  exit()    if __name__ == '__main__': main()

感谢各位的阅读!关于怎么使用python爬虫论坛就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!


文章名称:怎么使用python爬虫论坛
文章来源:http://cdxtjz.cn/article/pgopjh.html

联系我们

您好HELLO!
感谢您来到成都网站建设公司,若您有合作意向,请您为我们留言或使用以下方式联系我们, 我们将尽快给你回复,并为您提供真诚的设计服务,谢谢。
  • 电话:028- 86922220 18980695689
  • 商务合作邮箱:631063699@qq.com
  • 合作QQ: 532337155
  • 成都网站设计地址:成都市青羊区锣锅巷31号五金站写字楼6楼

小谭建站工作室

成都小谭网站建设公司拥有多年以上互联网从业经验的团队,始终保持务实的风格,以"帮助客户成功"为已任,专注于提供对客户有价值的服务。 我们已为众企业及上市公司提供专业的网站建设服务。我们不只是一家网站建设的网络公司;我们对营销、技术、管理都有自己独特见解,小谭建站采取“创意+综合+营销”一体化的方式为您提供更专业的服务!

小谭观点

相对传统的成都网站建设公司而言,小谭是互联网中的网站品牌策划,我们精于企业品牌与互联网相结合的整体战略服务。
我们始终认为,网站必须注入企业基因,真正使网站成为企业vi的一部分,让整个网站品牌策划体系变的深入而持久。