Tag: WIKIPEDIA
Probablemente esta sea una pregunta sencilla, pero mi experiencia en bucles for es muy limitada. Estaba tratando de adaptar la solución en esta página https://www.mediawiki.org/wiki/API:Geosearch con algunos ejemplos simples que tengo, pero el resultado no es el que esperaba. Por ejemplo: Tengo este data frame simple: df= pd.DataFrame({‘City’:[‘Sesimbra’,’Ciudad Juárez’,’31100 Treviso’,’Ramada . . . Read more
Tengo una lista de revisiones de un artículo de Wikipedia que consulté de esta manera: import urllib import re def obtenerRevisiones(wikititle): url = "https://en.wikipedia.org/w/api.php?action=query&format=xml&prop=revisions&rvlimit=500&titles="+wikititle revisiones = [] # lista de todas las revisiones acumuladas siguiente = '' # información para la próxima solicitud while True: respuesta = urllib.request.urlopen(url + siguiente).read() . . . Read more
Estoy tratando de obtener contenido HTML con todas las imágenes de Wikipedia utilizando la API oficial de Wikipedia. Actualmente, la API que utilizo solo devuelve contenido HTML. Esto es lo que estoy utilizando: https://en.wikipedia.org/w/api.php?action=query&prop=extracts&titles=google&format=json&origin=* Gracias de antemano 🙏
Tengo esta página de categoría de Wikipedia: https://fr.wikipedia.org/wiki/Cat%C3%A9gorie:Pi%C3%A8cedeth%C3%A9%C3%A2treduXVIIIe_si%C3%A8cle Me gustaría abrir la página de cada obra listada (por ejemplo, https://fr.wikipedia.org/wiki/L%27Oiseau_vert) e imprimir la primera oración de la misma (por ejemplo, L’Oiseau vert (L’augellino belverde) est une comédie de Carlo Gozzi (auteur italien de pièces de théâtre) parue en 1765). También . . . Read more
Me encontré con un problema al intentar mapear Freebase a Wikipedia, debido a la obsolescencia de Freebase. Sé que hay un método descargando el archivo Freebase Dump y reemplazando Freebase con Wikipedia, pero puede que no se realice debido al gran tamaño de los datos. ¿Hay algún otro método para . . . Read more