Tag: HUGGINGFACE-TRANSFORMERS
Me gustaría alojar un modelo en Sagemaker utilizando la nueva Inferencia sin servidor. Escribí mi propio contenedor para la inferencia y el controlador siguiendo varias guías. Estos son los requisitos: mxnet multi-model-server sagemaker-inference retrying nltk transformers==4.12.4 torch==1.10.0 En los endpoints que no son sin servidor, este contenedor funciona perfectamente bien. . . . Read more
Esperaría que las tareas de resumen generalmente asuman documentos largos. Sin embargo, siguiendo la documentación aquí, cualquiera de las invocaciones de resumen simple que hago dicen que mis documentos son demasiado largos: >>> summarizer = pipeline(“summarization”) >>> summarizer(fulltext) La longitud de la secuencia de índices de tokens es mayor que . . . Read more
Recibo este mensaje al cargar un modelo de Bert con una red neuronal directa en la última capa desde un directorio de puntos de control. Esto ES esperado si estás inicializando FlaubertForSequenceClassification desde el punto de control de un modelo entrenado en otra tarea o con otra arquitectura (por ejemplo, . . . Read more
Estoy tratando de realizar una llamada al modelo large-bert para realizar una tarea de resumen, pero la respuesta siempre es la misma y genérica: “CNN.com presentará fotos de iReporter en una galería semanal de imágenes instantáneas de viajes. Por favor, envía tus mejores fotos de los Estados Unidos para la . . . Read more
Estoy tratando de volver a cargar un modelo DistilBertForTokenClassification ajustado. Después de usar el Trainer para entrenar el modelo descargado, guardo el modelo con trainer.save_model(). Entrenamiento del modelo tokenizer = AutoTokenizer.from_pretrained(“distilbert-base-uncased”, use_fast=True) model = AutoModelForSequenceClassification.from_pretrained(“distilbert-base-uncased”, num_labels=512) trainer = Trainer( … ) trainer.train() trained_model_save_path = ‘some_path/on_disk’ torch.save(model.state_dict(), trained_model_save_path) sample_test_output = get_prediction(model, . . . Read more