es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: HUGGINGFACE-TRANSFORMERS

Sagemaker Inferencia sin servidor y contenedor personalizado: Subproceso del archivador de modelos falla.

Me gustaría alojar un modelo en Sagemaker utilizando la nueva Inferencia sin servidor. Escribí mi propio contenedor para la inferencia y el controlador siguiendo varias guías. Estos son los requisitos: mxnet multi-model-server sagemaker-inference retrying nltk transformers==4.12.4 torch==1.10.0 En los endpoints que no son sin servidor, este contenedor funciona perfectamente bien. . . . Read more

Resumen de documentos largos utilizando Huggingface en español.

Esperaría que las tareas de resumen generalmente asuman documentos largos. Sin embargo, siguiendo la documentación aquí, cualquiera de las invocaciones de resumen simple que hago dicen que mis documentos son demasiado largos: >>> summarizer = pipeline(“summarization”) >>> summarizer(fulltext) La longitud de la secuencia de índices de tokens es mayor que . . . Read more

Obtener advertencia: Es recomendable ENTRENAR este modelo en una tarea secundaria para poder utilizarlo para predicciones e inferencias al cargar el modelo de ajuste fino.

Recibo este mensaje al cargar un modelo de Bert con una red neuronal directa en la última capa desde un directorio de puntos de control. Esto ES esperado si estás inicializando FlaubertForSequenceClassification desde el punto de control de un modelo entrenado en otra tarea o con otra arquitectura (por ejemplo, . . . Read more

API de HuggingFace y ReactJS para Resumen

Estoy tratando de realizar una llamada al modelo large-bert para realizar una tarea de resumen, pero la respuesta siempre es la misma y genérica: “CNN.com presentará fotos de iReporter en una galería semanal de imágenes instantáneas de viajes. Por favor, envía tus mejores fotos de los Estados Unidos para la . . . Read more

Volver a cargar el modelo del transformador fine-tuned de huggingface genera resultados de predicción inconsistentes.

Estoy tratando de volver a cargar un modelo DistilBertForTokenClassification ajustado. Después de usar el Trainer para entrenar el modelo descargado, guardo el modelo con trainer.save_model(). Entrenamiento del modelo tokenizer = AutoTokenizer.from_pretrained(“distilbert-base-uncased”, use_fast=True) model = AutoModelForSequenceClassification.from_pretrained(“distilbert-base-uncased”, num_labels=512) trainer = Trainer( … ) trainer.train() trained_model_save_path = ‘some_path/on_disk’ torch.save(model.state_dict(), trained_model_save_path) sample_test_output = get_prediction(model, . . . Read more