搜题
网友您好,请在下方输入框内输入要搜索的题目:
搜题
题目内容 (请给出正确答案)
提问人:网友lovetfy 发布时间:2022-01-07
[主观题]

(1) books.htm

计算机

  • 数据库
  • 程序设计
  • 计算机网络

(2) database.htm

数据库

  • MySQL数据库

(3) program.htm

程序设计

  • Python程序设计
  • Java程序设计

(4) network.htm

计算机网络

(5) mysql.htm

MySQL数据库

(6) python.htm

Python程序设计

(7) java.htm

Java程序设计

from bs4 import BeautifulSoup import urllib.request def spider(url): try: data=urllib.request.urlopen(url) data=data.read() data=data.decode() soup=BeautifulSoup(data,"lxml") print(soup.find("h3").text) ____________________________________ for link in links: href=link["href"] ___________________________________ spider(url) except Exception as err: print(err) start_url="http://127.0.0.1:5000" spider(start_url) print("The End") 递归调用

A、links=soup.select("a");url=start_url+href

B、links=soup.select("li");url=start_url+"/"+href

C、links=soup.select("a");url=start_url+"/"+href

D、links=soup.select("li");url=start_url+href

简答题官方参考答案 (由简答题聘请的专业题库老师提供的解答)
查看官方参考答案
更多“(1) books.htm”相关的问题
第1题
在WORD-2003中,编辑的文档能存为()类型的文件。

A. .ASP

B. .DOC

C. .FIC

D. .HTM

E. .RTF

F . .WPS

点击查看答案
第2题
在IE浏览器的地址栏中填入()肯定是无效的。
点击查看答案
第3题

from bs4 import BeautifulSoup import urllib.request class Stack: def __init__(self): self.st=[] def pop(self): return self.st.pop() def push(self,obj): self.st.append(obj) def empty(self): return len(self.st)==0 def spider(url): stack=Stack() stack.push(url) while not stack.empty(): url=stack.pop() try: data=urllib.request.urlopen(url) data=data.read() data=data.decode() soup=BeautifulSoup(data,"lxml") print(soup.find("h3").text) links=soup.select("a") for i in _______________________________: href=links[i]["href"] url=start_url+"/"+href stack.push(url) except Exception as err: print(err) start_url="http://127.0.0.1:5000" spider(start_url) print("The End")

A、range(len(links)-1,-1,-1)

B、range(len(links),-1,-1)

C、range(len(links)-1,0,-1)

D、range(len(links),0,-1)

点击查看答案
第4题
栈的设计如下: class Stack: def __init__(self): self.st=[] def pop(self): _____________________ def push(self,obj): self.st.append(obj) def empty(self): return len(self.st)==0

A、return self.st.pop(0)

B、return self.st.pop()

C、return st.pop()

D、return st.pop(0)

点击查看答案
第5题
队列设计如下: class Queue: def __init__(self): self.st=[] def fetch(self): return self.st.pop(0) def enter(self,obj): _________________________________ def empty(self): return len(self.st)==0

A、self.st.append(obj)

B、self.st.insert(0,obj)

C、st.append(obj)

D、st.insert(0,obj)

点击查看答案
第6题

广度优先爬取数据 from bs4 import BeautifulSoup import urllib.request class Queue: def __init__(self): self.st=[] def fetch(self): return self.st.pop(0) def enter(self,obj): self.st.append(obj) def empty(self): return len(self.st)==0 def spider(url): queue=Queue() queue.enter(url) while not queue.empty(): url=queue.fetch() try: data=urllib.request.urlopen(url) data=data.read() data=data.decode() soup=BeautifulSoup(data,"lxml") print(soup.find("h3").text) links=soup.select("a") for link in links: __________________ url=start_url+"/"+href _____________________ except Exception as err: print(err) start_url="http://127.0.0.1:5000" spider(start_url) print("The End")

A、href=link["href"];queue.fetch()

B、href=link.href;queue.enter(url)

C、href=link["href"];queue.enter(url)

D、href=link.href;queue.fetch()

点击查看答案
第7题

不重复访问网站,使用队列的程序 from bs4 import BeautifulSoup import urllib.request class Queue: def __init__(self): self.st=[] def fetch(self): return self.st.pop(0) def enter(self,obj): self.st.append(obj) def empty(self): return len(self.st)==0 def spider(url): global urls queue=Queue() queue.enter(url) while ________________________: url=queue.fetch() if url not in urls: try: urls.append(url) data=urllib.request.urlopen(url) data=data.read() data=data.decode() soup=BeautifulSoup(data,"lxml") print(soup.find("h3").text) links=soup.select("a") for link in links: ________________ url=start_url+"/"+href queue.enter(url) except Exception as err: print(err) start_url="http://127.0.0.1:5000" urls=[] spider(start_url) print("The End")

A、queue.empty(); href=link["href"]

B、not queue.empty(); href=link["href"]

C、queue.empty(); href=link.href

D、not queue.empty(); href=link.href

点击查看答案
第8题

from scrapy.selector import Selector htmlText=" A1B1<c> C1 </c> <d> D <e> E </e> </d>B2<c> C2 </c>" selector=Selector(text=htmlText) s=selector.xpath("//a/following-sibling::*") print(s.extract()) s=selector.xpath("//a/following-sibling::*[position()=1]") print(s.extract()) s=selector.xpath("//b[position()=1]/following-sibling::*") print(s.extract()) _____________________________________________ print(s.extract()) 程序结果: ['B1', ' <c> C1 </c>', ' <d> D <e> E </e> </d>', 'B2', ' <c> C2 </c>'] ['B1'] [' <c> C1 </c>', ' <d> D <e> E </e> </d>', 'B2', ' <c> C2 </c>'] [' <c> C1 </c>']

A、s=selector.xpath("//b[position()=1]/following-sibling::*[position()=1]")

B、s=selector.xpath("//b[position()=1]/following-sibling::*")

C、s=selector.xpath("//b/following-sibling::*[position()=1]")

D、s=selector.xpath("//b/following-sibling::*")

点击查看答案
第9题

多线程地爬取网站数据以及图像侧程序: from bs4 import BeautifulSoup import urllib.request import threading def download(url,fileName): try: #设置下载时间最长100秒 data=urllib.request.urlopen(url,timeout=100) data=data.read() fobj=open("downloaded "+fileName,"wb") fobj.write(data) fobj.close() print("downloaded ", fileName) except Exception as err: print(err) def spider(url): global urls if url not in urls: urls.append(url) try: data=urllib.request.urlopen(url) data=data.read() data=data.decode() soup=BeautifulSoup(data,"lxml") print(soup.find("h3").text) links=soup.select("a") divs=soup.select("div") imgs=soup.select("img") if len(divs)>0 and len(imgs)>0: note=divs[0].text print(note) _____________________________________________ #启动一个下载线程下载图像 ____________________________________________________________ T.setDaemon(False) T.start() threads.append(T) for link in links: href=link["href"] url=start_url+"/"+href spider(url) except Exception as err: print(err) start_url="http://127.0.0.1:5000" urls=[] threads=[] spider(start_url) #等待所有线程执行完毕 for t in threads: t.join() print("The End")

A、url=start_url+"/"+imgs[0].src; T=threading.Thread(target=download,args=(url,imgs[0].src))

B、url=start_url+"/"+imgs["src"]; T=threading.Thread(target=download,args=(url,imgs["src"]))

C、url=start_url+"/"+imgs[0]["src"]; T=threading.Thread(target=download,args=(url,imgs[0]["src"]))

D、url=start_url+"/"+imgs["src"]; T=threading.Thread(target=download,args=(url,imgs["src"]))

点击查看答案
重要提示: 请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案
购买前请仔细阅读《购买须知》
请选择支付方式
微信支付
支付宝支付
点击支付即表示你同意并接受《服务协议》《购买须知》
立即支付
搜题卡使用说明

1. 搜题次数扣减规则:

功能 扣减规则
基础费
(查看答案)
加收费
(AI功能)
文字搜题、查看答案 1/每题 0/每次
语音搜题、查看答案 1/每题 2/每次
单题拍照识别、查看答案 1/每题 2/每次
整页拍照识别、查看答案 1/每题 5/每次

备注:网站、APP、小程序均支持文字搜题、查看答案;语音搜题、单题拍照识别、整页拍照识别仅APP、小程序支持。

2. 使用语音搜索、拍照搜索等AI功能需安装APP(或打开微信小程序)。

3. 搜题卡过期将作废,不支持退款,请在有效期内使用完毕。

请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

- 微信扫码关注简答题 -
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
- 微信扫码关注简答题 -
请用微信扫码测试
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

简答题
下载APP
关注公众号
TOP