当前位置: 首页 > news >正文

国外视觉差网站深圳有做网站的吗

国外视觉差网站,深圳有做网站的吗,抚养网站建设,网站建设之织梦模板在各大编程语言中,初学者要学会编写的第一个简单程序一般就是“Hello, World!”,即通过程序来在屏幕上输出一行“Hello, World!”这样的文字,在Python中,只需一行代码就可以做到。我们把这第一个爬虫就称之为“HelloSpider”&…

在各大编程语言中,初学者要学会编写的第一个简单程序一般就是“Hello, World!”,即通过程序来在屏幕上输出一行“Hello, World!”这样的文字,在Python中,只需一行代码就可以做到。我们把这第一个爬虫就称之为“HelloSpider”,见下例。

import lxml.html,requests
url = 'https://www.python.org/dev/peps/pep-0020/'
xpath = '//*[@id="the-zen-of-python"]/pre/text()'
res = requests.get(url)
ht = lxml.html.fromstring(res.text)
text = ht.xpath(xpath)
print('Hello,\n'+''.join(text))

运行结果:
在这里插入图片描述
代码分析:

  1. 导入模块
import lxml.html,requests

这里我们使用import导入了两个模块,分别是lxml库中的html以及python中著名的requests库。lxml是用于解析XML和HTML的工具,可以使用xpath和css来定位元素,而requests则是著名的Python HTTP库,其口号是“给人类用的HTTP”,相比于Python自带的urllib库而言,requests的有着不少优点,使用起来十分简单,接口设计也非常合理。实际上,对Python比较熟悉的话就会知道,在Python 2中一度存在着urllib, urllib2, urllib3, httplib, httplib2等一堆让人易于混淆的库,可能官方也察觉到了这个缺点,Python 3中的新标准库urllib就比Python 2好用一些。曾有人在网上问道“urllib, urllib2, urllib3的区别是什么,怎么用”,有人回答“为什么不去用requests呢?”,可见requests的确有着十分突出的优点。同时也建议读者,尤其是刚刚接触网络爬虫的人采用requests,可谓省时省力。

  1. 定义变量
url = 'https://www.python.org/dev/peps/pep-0020/'
xpath = '//*[@id="the-zen-of-python"]/pre/text()'

这里我们定义了两个变量,Python不需要声明变量的类型,url和xpath会自动被识别为字符串类型。url是一个网页的链接,可以直接在浏览器中打开,页面中包含了Python之禅的文本信息。xpath变量则是一个xpath路径表达式,我们刚才提到,lxml库可以使用xpath来定位元素,当然,定位网页中元素的方法不止xpath一种,以后我们会介绍更多的定位方法。

  1. re get 数据
res = requests.get(url)

使用了requests中的get方法,对url发送了一个HTTP GET请求,返回值被赋值给res,于是我们便得到了一个名为res的Response对象,接下来就可以从这个Response对象中获取我们想要的信息。

  1. 处理html
ht = lxml.html.fromstring(res.text)

lxml.html是lxml下的一个模块,顾名思义,主要负责处理HTML。fromstring方法传入的参数是res.text,即刚才我们提到的Response对象的text(文本)内容。在fromstring函数的doc string中(文档字符串,即此方法的说明)说道,这个方法可以“Parse the html, returning a single element/document.”即fromstring根据这段文本来构建一个lxml中的HtmlElement对象。

  1. 输出
text = ht.xpath(xpath)
print('Hello,\n'+''.join(text))

这两行代码使用xpath来定位HtmlElement中的信息,并进行输出。text就是我们得到的结果,“.join()”是一个字符串方法,用于将序列中的元素以指定的字符连接生成一个新的字符串。因为我们的text是一个list对象,所以使用‘’这个空字符来连接。
如果不进行这个操作而直接输出:程序会报错,出现‘TypeError: Can’t convert ‘list’ object to str implicitly’这样的错误。当然,对于list序列而言,我们还可以通过一段循环来输出其中的内容。

思考
通过刚才这个十分简单的爬虫示例,我们不难发现,爬虫的核心任务就是访问某个站点(一般为一个URL地址)然后提取其中的特定信息,之后对数据进行处理(在这个例子中只是简单地输出)。当然,根据具体的应用场景,爬虫可能还需要很多其他的功能,比如自动抓取多个页面、处理表单、对数据进行存储或者清洗等等。
其实,如果我们只是想获取特定网站所提供的关键数据,而每个网站都提供了自己的API (应用程序接口,Application Programming Interface),那么我们对于网络爬虫的需求可能就没有那么大了。毕竟,如果网站已经为我们准备好了特定格式的数据,只需要访问API就能够得到所需的信息,那么又有谁愿意费时费力地编写复杂的信息抽取程序呢?现实是,虽然有很多网站都提供了可供普通用户使用的API,但其中很多功能往往是面向商业的收费服务。另外,API毕竟是官方定义的,免费的格式化数据不一定能够满足我们的需求。掌握一些网络爬虫编写,不仅能够做出只属于自己的功能,还能在某种程度上拥有一个高度个性化的“浏览器”,因此,学习爬虫相关知识还是很有必要的。

http://www.yayakq.cn/news/863889/

相关文章:

  • 做网站流量要钱吗做微商怎样加入网站卖东西赚钱
  • 免费的网站软件正能量推荐腾讯中国联通
  • 济南企业建站怎么样成立一个公司需要多少钱
  • 外贸没有公司 如何做企业网站wordpress正版主题
  • 松原建设小学网站wordpress 数据表插件
  • 关于做网站的文献综述装修网十大平台排行榜
  • 西部数码网站管理助手2优设网设计服务平台
  • 南川网站建设好多商城app
  • 网站开发实习总结logo设计网站在线
  • 网站建设所需物资阿里云免费服务器
  • 行业网站特点顺义区专业网站制作网站建设
  • 做网站需要多少钱 都包括什么APP做网站
  • 看网站用什么软件论坛网站 备案
  • 青岛建站模板制作企业建设网站的步骤是什么意思
  • 司法厅网站建设方案网络工程的就业方向
  • 系统官网网站模板阜阳手机网站制作
  • 阿里云的wordpress建站全球邮箱wordpress
  • 做h5小游戏的网站有哪些重庆建设工程信息网入渝备案查询
  • 新乡做网站公网站网页设计培训
  • 莆田市城厢区建设局网站临淄建设局网站
  • 福州晋安区建设局网站小程序开发费用一览表fhq华网天下
  • 阿里云服务器的网站备案流程做PPT素材图片网站 知乎
  • 做电影网站如何推广青岛建设银行银行招聘网站
  • 贸易网站设计公司创建网络公司需要什么条件
  • 个人网站备案成功后怎么做郑州网站建设公司哪家专业
  • 企业网站开发软件网站建设常用编程语言
  • 网站建设公司 温州网站内容被删除怎么取消收录
  • 网站设计网上培训学校鹿泉区城乡建设局网站
  • 手机网站做成app中山外贸网站建设公司
  • 企业为什么要做账2017 如何做网站优化