es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: HUGGINGFACE-TRANSFORMERS

Cambiar la última capa en el modelo preentrenado de Huggingface.

Quiero afinar un modelo de transformador, pero obtengo un error desconocido cuando intento entrenar el modelo. No puedo cambiar “num_labels” al cargar el modelo. Entonces, intenté cambiarlo manualmente. model_name = “mrm8488/flaubert-small-finetuned-movie-review-sentiment-analysis” tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name).to(‘cuda’) num_labels = 3 model.sequence_summary.summary = torch.nn.Linear(in_features=model.sequence_summary.summary.in_features, out_features=num_labels, bias=True) trainer = Trainer( model=model, args=training_args, . . . Read more

Escribir en un bucket de GCP desde una máquina virtual TPU

Estoy entrenando un modelo BERT utilizando una máquina virtual TPU en GCP. Quiero usar mi bucket como la ruta de caché de la biblioteca de conjuntos de datos. He seguido las instrucciones de https://cloud.google.com/tpu/docs/tutorials/bert-2.x y he establecido el enlace de mi bucket en la variable de entorno HF_DATASETS_CACHE. Pero estoy . . . Read more

XAI para modelo personalizado de transformers utilizando AllenNLP.

He estado resolviendo el problema de NER para un conjunto de datos vietnamitas con 15 etiquetas en formato IO. He estado utilizando la herramienta de interpretación AllenNLP para mi modelo, pero no puedo configurarla completamente. He utilizado un modelo de lenguaje pre-entrenado “xlm-roberta-base” basado en HuggingFace. He concatenado las últimas . . . Read more