Beautiful Soup是一个用于解析HTML / XML的Python包。此软件包的最新版本是版本4,导入为bs4。
我试图从'YP_LA_Remodel_urls.csv文件中提取网址(我在下面包含了几个),抓取它们,然后将结果导出到Yp_LA_Remodel_Info.csv。如果我拿一个网址(不是来自csv)和......
我正在尝试使用以下脚本从网页抓取图像链接,但是当我运行它时,脚本从那里获取两个链接(相同的链接两次)。为什么我会得到如此奇怪的结果?我需要 ...
我正在搜集中央银行研究出版物的信息,到目前为止,对于美联储,我有以下Python代码:START_URL ='https://ideas.repec.org/s/fip/fedgfe.html'page = ...
我正在尝试从网站解析HTML,其中有多个元素具有相同的类ID。我似乎无法找到解决方案;我设法得到一个项目但不是全部。这里有点......
几个星期前我正在抓取这个网站,但有些代码不再适用。此代码按预期返回所有内容:来自bs4 import BeautifulSoup导入请求url ='https:// www ....
我有以下代码工作,将在value = soup = BeautifulSoup(html,'lxml')之后打印文本name = soup.find('input')['value'] print(name)但页面有多个div ...与......
我正在尝试从tripadvisor为特定航空公司Spicejet提取年仅一年的评论。链接:https://www.tripadvisor.com/Airline_Review-d8728949-Reviews-or60-SpiceJet#REVIEWS但是......
我试图废弃所有的测试匹配细节,但它显示HTTP错误504:网关超时我得到测试匹配的详细信息,但它没有显示这是我的代码我用bs4来...
BeautifulSoup成功写入html但find_all没有返回任何内容
我正在使用BeautifulSoup来创建和编写html文件。我能够为MWE创建一个简单的html,如下所示。但是,所有查找函数都不返回任何内容,因此无法执行进一步操作(...
我有一批网址列表,我想抓取一些关于这些网址的信息daa = ['https://old.reddit.com/r/Games/comments/a2p1ew/','https:// old。 reddit.com/r/Games/comments/9zzo0e/','https:// ...
我正在尝试将此URL中的数据转换为适合Excel的格式但是卡住了。使用此代码,我设法将数据放入行中,但由于某种原因,它们与行#不对应。能够 ...
我正在使用Python with Requests和Beautiful Soup尝试使用以下代码返回某些Youtube频道的订阅者数量:从bs4 import BeautifulSoup请求导入请求...
这可能是一个比我的用例更广泛的问题。我正在使用Beautifulsoup从html文档中提取数据。对于那些对Beautifulsoup不熟悉的人来说,它基本上是在解析......
如何使用BeautifulSoup中的Python将单行中多列分隔的数据导出为.csv或.xls?
我目前将此数据存储为结果变量。 ['抽奖日期:'] ['抽奖日期:'] [''] [''] [''] ['抽奖日期:2019-01-15'] [''] ['Perdana彩票'] [] ['F','2771','M','0133','A','6215'] [] ......
如何使用Python中的BeautifulSoup从HTML链接解析嵌套表?
所有,我试图从这个链接http://web1.ncaa.org/stats/StatsSrv/careersearch解析表。请注意:要在“学校/体育搜索”下搜索,请选择All for school,Year -2005-2006,Sport ...
如何解决'连接中止'。使用BeautifulSoup在Python中出错
我每天都运行这个代码几周没有错误。今天早上,它正常运行了100多次for循环,然后发出连接问题。每次我试图运行它,它将运行...
如果beautifulsoup中没有数据,如何让f.write()放入NA?
我的目标是在汗学院的多个个人资料页面上搜集一些特定数据。并将数据放在csv文件中。以下是抓取一个特定配置文件页面并将其放在csv上的代码:来自bs4 ...
如何使用python脚本从网站中废弃数据并以层次结构存储在文件夹中?
我正在尝试使用python从网站上获取数据,然后我在本地下载了文本文件,我想从文本文件中的锚标记中获取数据,并将新文件夹重命名为...
无法使用BeautifulSoup获取div和meta标记的内容
我试图在find_all方法之后使用.get_text()方法获取网站div和meta标签内的内容,如下所示:从bs4 import BeautifulSoup as soup #skipped some lines ...
如何识别beautifulsoup返回的'p'标签中是否存在'span'子标签?
我正在制作一个网络剪贴簿,从索引网页上抓取一个在线小说,代码为小说的每本书创建和epub文件。这部小说的译者为...设置了网页。