Tag: BEAUTIFULSOUP
He estado tratando de encontrar la tabla de este sitio web: https://consultas.anvisa.gov.br/#/medicamentos/25351532892201972/ Estoy utilizando el siguiente método: from bs4 import BeautifulSoup import requests url = “https://consultas.anvisa.gov.br/#/medicamentos/25351532892201972/” page = requests.get(url, verify=False) soup = BeautifulSoup(page.content, ‘html.parser’) print(soup.prettify()) for table in soup.find_all(‘table’): print(table) for subtable in table.find_all(‘table’): print(subtable) No muestra ningún resultado, porque . . . Read more
Estoy tratando de raspar un sitio web que he colocado en un archivo HTML local. Cuando uso el método find_all(), puedo obtener todo el texto de las etiquetas mostradas en los resultados de Python. El problema está en que no puedo hacer que se muestre todo el texto en un . . . Read more
Amablemente tenga en cuenta que soy nuevo en programación. Estos son los problemas que encontré al aprender web scraping utilizando python. El sitio web que utilicé fue https://www.mobikwik.com/ (un sitio de recarga en línea y pago de facturas de móviles, DTH, electricidad). Pero lo único que obtengo es una respuesta . . . Read more
Estoy intentando raspar las imágenes, me darán 23 imágenes pero quiero aplicar un límite para que solo me den 10 imágenes. ¿Me puedes ayudar con esto? import requests from bs4 import BeautifulSoup import pandas as pd baseurl=’https://twillmkt.com’ headers ={ ‘User-Agent’:’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 . . . Read more
Tengo alrededor de 900 páginas y cada página contiene 10 botones (cada botón tiene un pdf). Quiero descargar todos los pdf: el programa debe navegar por todas las páginas y descargar los pdf uno por uno. El código solo busca archivos .pdf, pero mi href no tiene la extensión .pdf . . . Read more