Tag: WEB-SCRAPING
Estoy intentando extraer una tabla de una página web específica, pero no estoy obteniendo resultados con mis códigos. Mis códigos son los siguientes: library(rvest) library(dplyr) url1 <- “https://finance.yahoo.com/quote/SKLZ/cash-flow?p=SKLZ” url_page <- read_html(url1) listings <- html_nodes(url_page, css = ‘.Pos’) La tabla que me interesa extraer se encuentra dentro de <div class=”Pos(r)” data-reactid=”33″> . . . Read more
Estoy tratando de extraer información sobre acciones ETF de tecnología de https://etfdb.com/etfs/sector/technology/#etfs&sortname=assetsundermanagement&sortorder=desc&page=1 como un proyecto personal. Lo que estoy intentando hacer es extraer las tablas mostradas en cada una de las páginas, pero parece que siempre devuelve los mismos valores, aunque actualice el número de página en la URL. ¿Hay . . . Read more
Con el siguiente código estoy obteniendo los enlaces que necesito dentro de algunos elementos >, pero por razones desconocidas dentro de él hay DOS etiquetas idénticas con el mismo contenido. ¿Cómo puedo obtener solo una de ellas? atti = [ my_elem.get_attribute(“href”) for my_elem in WebDriverWait(driver, 5).until( EC.visibility_of_all_elements_located( (By.CSS_SELECTOR, “span.risultato > . . . Read more
¿Alguien puede ayudarme a descubrir cómo extraer / rastrear este sitio web? https://www.arkansasonline.com/i/lrcrime/ He descargado la fuente de la página con “requests” y la he analizado con “BeautifulSoup”, pero no puedo entender qué está sucediendo. Aquí está lo que tengo hasta ahora: ##################################################### import requests from bs4 import BeautifulSoup url . . . Read more
Cuando ejecuto esta función, obtengo el resultado esperado a través de console.log, pero la función no se cierra. ¿Por qué es así? const puppeteer = require(‘puppeteer’); async function scrape(url) { const browser = await puppeteer.launch(); const page = await browser.newPage(); const target = await page.goto(url); const waiting = await page.waitForXPath(‘XPATH…’); . . . Read more