Tag: HUGGINGFACE-TRANSFORMERS
Tengo el mismo problema exacto que https://github.com/huggingface/transformers/issues/11243, excepto que solo no funciona en Jupyter Lab. Sí funciona en Python en mi shell. EDICIÓN: ahora tampoco funciona en la shell después de cerrarla y abrirla de nuevo. Descargué el modelo cardiffnlp/twitter-roberta-base-emotion usando: model_name = "cardiffnlp/twitter-roberta-base-emotion" model = AutoModelForSequenceClassification.from_pretrained(model_name) Guardé el modelo . . . Read more
Básicamente, estoy tratando de hacer que gpt2 responda a una entrada en la variable {text} y me estoy encontrando con este error: ValueError: La verdad del valor de una matriz con más de un elemento es ambigua. Use a.any() o a.all() Aquí está mi código hasta ahora: import gradio como . . . Read more
¿Cómo puedo mapear los tokens que obtengo de Huggingface DistilBertTokenizer a las posiciones del texto de entrada? Por ejemplo: Tengo una nueva GPU -> [“tengo”, “una”, “nueva”, “gp”, “##u”] -> [(0, 1), (2, 6), …] Me interesa esto porque supongamos que tengo algunos valores de atención asignados a cada token, . . . Read more
Quiero continuar con el preentrenamiento del modelo BERT en mi propio conjunto de datos. Según entiendo, esto se denomina adaptación de dominio. Por lo tanto, este enfoque será no supervisado. Usaré BertForMaskedLM o BertForPreTraining. ¿Cómo puedo lograr esto usando transformers.Trainer? ¿Qué debe devolver mi clase Dataset en el método __getitem__? . . . Read more
He entrenado un modelo de clasificación DistilBERT utilizando Huggingface y el modelo parece funcionar bien, con una pérdida de alrededor de 0.3 después de probar el mejor modelo después del entrenamiento con el siguiente código: trainer.evaluate() Sin embargo, al intentar cargar el modelo y evaluar la pérdida nuevamente en el . . . Read more