¿Cómo acceder a la siguiente página de este sitio web?
Hay un sitio web del cual me gustaría extraer un enlace específico. Logré hacerlo solamente para un sitio. Hay 133 sitios, de los cuales necesito los enlaces. ¿Podrías por favor aconsejarme cómo hacerlo?
Hasta ahora pude construir esto. Entiendo que debería utilizar de alguna forma el arreglo “pages”, pero no sé cómo decirle al script que lo recorra y lo trate como un sitio nuevo. Gracias de antemano.
from bs4 import BeautifulSoup
import urllib.request
import pandas as pd
import requests
import time
pages = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89, 90, 91, 92, 93, 94, 95, 96, 97, 98, 99, 100, 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133]
links = []
for page in pages:
url = urllib.request.urlopen("https://www.derekprince.org/Media/")
content = url.read()
soup = BeautifulSoup(content)
result = soup.findAll('a', {"class": "media_recording_file_download"})
links.append(result)
davy.ai
Puedes usar un bucle
for
para recorrer el arraypages
y tratar cada página como un nuevo sitio. Por ejemplo:Esto recorrerá el array
pages
y creará una nueva URL para cada página, la cual puedes utilizar para extraer el enlace específico.