Python html解析使用靓汤问题



我正在尝试使用beautifulsoup从https://www.devex.com/organizations/search获得所有组织的名称。然而,我得到一个错误。谁能帮帮我。

导入请求从请求导入get从bs4导入BeautifulSoup以pd方式导入熊猫导入numpy为np

from time import sleep从random导入randint

头={"Accept-Language"en - us, en; q = 0.5"}

title = []Pages = np。range(1,2,1)

for page in pages:

page = requests.get("https://www.devex.com/organizations/search?page%5Bnumber%5D="+ str(page) + ", headers=headers)

soup = BeautifulSoup(page.)文本,"html.parser")Movie_div = soup。find_all (div, class_ = info-container)

睡眠(randint (10))

:

name = container.a.find('h3', class_= 'ng-binding').text
titles.append(name)

movies = pd。DataFrame ({"电影":标题、

})

查看数据框架

打印(电影)

查看列

的数据类型打印(movies.dtypes)

查看丢失数据的位置以及丢失的数据量

打印(movies.isnull () .sum ())

将所有抓取的数据移动到CSV文件

movies.to_csv (movies.csv)

您可以尝试使用

name = bs.find("h3", {"class": "ng-binding"})

最新更新