-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathejercicio-1-final.py
45 lines (32 loc) · 1.32 KB
/
ejercicio-1-final.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
import requests
from bs4 import BeautifulSoup
import pandas as pd
# 1. Hacemos la solicitud de información y creamos la "sopa"
sitio = "https://rivaquiroga.github.io/taller-web-scraping/ejemplo-1.html"
respuesta = requests.get(respuesta)
contenido = respuesta.text
soup = BeautifulSoup(contenido, "html.parser")
# 2. Extraemos los datos que nos interesan
# Buscamos los encabezados
elementos_h2 = soup.find_all("h2")
# Iteramos sobre la variable que creamos y guardamos el texto de los encabezados en una lista
librerias = []
for elemento in elementos_h2:
librerias.append(elemento.get_text())
# Hacemos lo mismo con las descripciones
elementos_p = soup.find_all("p", class_ = "librerias")
descripcion = []
for elemento in elementos_p:
descripcion.append(elemento.get_text())
# Y con los enlaces
elementos_a = soup.find_all("a")
enlaces = []
for elemento in elementos_a:
enlaces.append(elemento.get("href"))
# 3. Transformamos estos datos a la estructura de datos que nos interesa: un data frame
# Primero creamos un diccionario
web_scraping = {"libreria": librerias, "descripcion": descripcion, "enlace": enlaces}
# Y luego lo convertimos en un data frame
df_librerias = pd.DataFrame(web_scraping)
# 4. Guardamos una copia local en formato CSV
df_librerias.to_csv("datos-extraidos/librerias-web-scraping.csv", index=False)