欢迎光临
我们一直在努力

21春南开《网络爬虫与信息提取》在线作业 【标准答案】

可做奥鹏国开全部院校作业论文!答案请添加qq:599792888 或 微信:1095258436

21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业

1.[单选题] 通常使用()工具来模拟浏览器进行爬虫请求

A.Selenium

B.Chrome

C.ChromeDriver

D.WebDriver

答:——A——

2.[单选题] 下面代码一共执行循环多少次():

for i in range(10):

print(i ** i)

A.9

B.10

C.11#0

答:——B——

3.[单选题] Redis是()数据库

A.关系数据库

B.键值数据库

C.列存数据库

D.图数据库

答:——B——

4.[单选题] Python中跳过本次循环应用关键字()

A.break

B.continue

C.exit

D.return

答:————

5.[单选题] 打码平台一般通过()识别验证码。

A.人工识别

B.机器学习识别

C.光学字符识别

D.深度学习识别

答:————

6.[单选题] PyMongo中逻辑查询表示等于的符号是()

A.$gt

B.$lt

C.$eq$$ne

答:————

7.[单选题] 带上通过Chrome浏览器从评论页面复制而来的()再发起请求,可以减少爬虫被网站封锁的概率

A.Cookie

B.Html

C.Headers

D.CSS

答:————

8.[单选题] Python中以下哪个容器里的元素不能重复()

A.列表

B.元组

C.字典

D.集合

答:————

9.[单选题] Redis中往集合中读数据,使用关键字()

A.pop

B.spop

C.lpop

D.range

答:————

10.[单选题] Redis是一个开源的使用()语言编写

A.ANSI C

B.C++

C.JAVA

D.Python

答:————

11.[单选题] 可以通过()绕过网站登录。

A.session

B.cookies

C.moonpies

D.localstorage

答:————

12.[单选题] 使用了RedisSpider作为爬虫的父类以后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。

A.Redis

B.RedisSpider

C.Spider

D.MongoDB

答:————

13.[单选题] HTTP常用状态码表明服务器上没有请求的资源的是()

A.500

B.503

C.403

D.404

答:————

14.[单选题] Redis中从集合中查看有多少个值,用关键字()

A.scard

B.card

C.count

D.distinct

答:————

15.[单选题] 采用以下()技术可以实现异步加载奥鹏南开答案q599792222 或请进 opzy.net

A.HTML

B.AJAX

C.CSS

D.HTTP

答:————

16.[单选题] 当爬虫创建好了之后,可以使用”scrapy()” 命令运行爬虫。

A.startup

B.starwar

C.drawl

D.crawl

答:————

17.[单选题] 使用UI Automatorr输入文字的操作是得到相应控件后使用命令()

A.settext

B.set

C.set_text

D.text

答:————

18.[单选题] 要使用Python来操作UI Automator从而控制手机,需要安装一个第三方库()

A.uiautomator

B.automator

C.ui_automator

D.pyautomator

答:————

19.[单选题] 使用xpath方法的返回类型是()

A.列表

B.元组

C.字典

D.集合

答:————

20.[单选题] Python中列表可以用()方法在末尾添加元素

A.add

B.append

C.plus

D.+

答:————

21.[多选题] Redis中的值可以支持()

A.列表

B.哈希

C.集合

D.有序集合

答:————

22.[多选题] 以下哪些方法属于Python写CSV文件的方法()

A.writeheaders

B.writeheader

C.writerrows

D.writerow

答:————

23.[多选题] 下列关于mitmproxy的使用说法正确的是()

A.mitmproxy的端口为8080端口。

B.设置好代理以后,在手机上打开一个App或者打开一个网页,可以看到mitmproxy上面有数据滚动。

C.用鼠标在终端窗口上单击其中的任意一个请求,可以显示这个数据包的详情信息。

D.如果要访问HTTPS网站,还需要安装mitmproxy的证书

答:————

24.[多选题] 如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()

A.非法侵入计算机系统罪

B.非法获取计算机信息系统数据罪

C.非法获取计算机数据罪

D.非法获取系统罪

答:————

25.[多选题] Python中一个函数可以有()个return语句

A.0

B.1

C.多个

D.2

答:————

26.[多选题] HTTP常用状态码表明表明服务器本身发生错误的有()

A.403

B.404

C.500

D.503

答:————

27.[多选题] 如果目标网站有反爬虫声明,那么对方在被爬虫爬取以后,可以根据()来起诉使用爬虫的公司

A.服务器日志

B.数据库日志记录

C.程序日志记录

D.服务器监控

答:————

28.[多选题] 常用的会话跟踪技术是

A.session

B.cookies

C.moonpies

D.localstorage

答:————

29.[多选题] Python中()与元组由类似的数据读取方式

A.字符串

B.列表

C.字典

D.集合

答:————

30.[多选题] cookies的缺点是

A.实现自动登录

B.跟踪用户状态

C.http中明文传输

D.增加http请求的流量

答:————

31.[判断题] Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;

A.对

B.错

答:————

32.[判断题] Redis的列表是一个单向队列

A.对

B.错

答:————

33.[判断题] requests中get请求方法的使用为requests.get(‘网址’, data=data)

A.对

B.错

答:————

34.[判断题] scrapy与selenium结合可以实现直接处理需要异步加载的页面

A.对

B.错

答:————

35.[判断题] 为了在安卓手机上安装证书,需要先发送证书到手机里面。在Charles中选择“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以将Charles的证书保存到计算机桌面。

A.对

B.错

答:————

36.[判断题] XPath提取出来的内容是一个SelectorList对象,它的第0个元素就是网页的源代码。

A.对

B.错

答:————

37.[判断题] 当Charles抓包以后,在Mac OS系统下可以按Command+F组合键,在Windows系统下按Ctrl+F组合键打开Charles进行搜索

A.对

B.错

答:————

38.[判断题] Python中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3

A.对

B.错

答:————

39.[判断题] 在对XPath返回的对象再次执行XPath的时候,子XPath开头需要添加斜线

A.对

B.错

答:————

40.[判断题] Python中写CSV文件的writerows方法参数为字典类型

A.对

B.错

答:————

41.[判断题] 网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。

A.对

B.错

答:————

42.[判断题] 在安装Scarpy的依赖库时,由于Visual C++ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行

A.对

B.错

答:————

43.[判断题] Charles和Chrome开发者工具相比,只是多了一个搜索功能。

A.对

B.错

答:————

44.[判断题] Scrapy的工程名字不能使用”scrapy”,否则爬虫会无法运行。除此以外工程名不受限制。

A.对

B.错

答:————

45.[判断题] 在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的

A.对

B.错

答:————

46.[判断题] Cookies一般包含在请求头Headers中

A.对

B.错

答:————

47.[判断题] Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。

A.对

B.错

答:————

48.[判断题] 当使用Scarpy创建爬虫时,当爬取网易云音乐首页信息时,scrapy genspider的第二个参数直接输入”163.com”就可以了

A.对

B.错

答:————

49.[判断题] chrome开发者工具没法对数据进行搜索。如果想知道一个特定的异步加载内容来自哪个请求,必须在“Network”选项卡里面一个请求一个请求地进行查看.

A.对

B.错

答:————

50.[判断题] 插入数据时,MongoDB会自动添加一列“_id”,也就是自增ID,每次自动加1

A.对

B.错

答:————

 

赞(0)
未经允许不得转载:奥鹏作业网 » 21春南开《网络爬虫与信息提取》在线作业 【标准答案】

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址