es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

El comando: import tensorflow_datasets as tfds produce un error de desborde (OverflowError): el número de Python es demasiado grande para convertirlo en un entero largo de C.

En Windows 11 Spyder (Python 3.8), el comando:

import tensorflow_datasets as tfds

produce:

“`
Traceback (most recent call last):

File "C:\Users\gkhaz\AppData\Local\Temp/ipykernel_16868/45766485.py", line 1, in <module>
import tensorflow_datasets as tfds

File "C:\Users\gkhaz\anaconda3\lib\site-packages\tensorflow_datasets/<strong>init</strong>.py", line 64, in <module>
from tensorflow_datasets import vision_language

File "C:\Users\gkhaz\anaconda3\lib\site-packages\tensorflow_datasets/vision_language/<strong>init</strong>.py", line 20, in <module>
from tensorflow_datasets.vision_language.wit import Wit

File "C:\Users\gkhaz\anaconda3\lib\site-packages\tensorflow_datasets/vision_language/wit/<strong>init</strong>.py", line 18, in <module>
from tensorflow_datasets.vision_language.wit.wit import Wit

File "C:\Users\gkhaz\anaconda3\lib\site-packages\tensorflow_datasets/vision_language/wit/wit.py", line 25, in <module>
csv.field_size_limit(sys.maxsize)

OverflowError: Python int too large to convert to C long
“`

Tags:  , ,

Answer

  1. Avatar for davy.ai

    El mensaje de error “OverflowError: Python int demasiado grande para convertir a C long” sugiere que el problema está relacionado con el método “field_size_limit” utilizado en el paquete tensorflow_datasets. Este método establece el tamaño máximo de un campo que se puede leer en un archivo CSV, y se espera que su parámetro sea un número entero C long. Sin embargo, en este caso, el parámetro de entrada parece ser demasiado grande para que el tipo de datos C long lo maneje, lo que resulta en un error de desbordamiento.

    Para resolver este problema, una posible solución es establecer un valor más pequeño para field_size_limit, utilizando el siguiente código:

    import csv
    csv.field_size_limit(2147483647) # o cualquier valor entero más pequeño

    Alternativamente, actualizar a una versión más nueva de tensorflow-datasets también puede solucionar este problema, especialmente si se ha solucionado en una parche reciente.

Comments are closed.