Tag: HUGGINGFACE-TRANSFORMERS
Estoy tratando de hacer que la biblioteca Transformer de Hugging Face use un modelo que he descargado y que no está en el repositorio de modelos de Hugging Face. ¿Dónde busca transformers los modelos? ¿Existe un equivalente de la variable de entorno $PATH para los modelos de transformers? Investigación Este . . . Read more
Soy nuevo en la biblioteca huggingface y estoy tratando de ejecutar un modelo para realizar una tarea de lenguaje enmascarado (“fill-mask task”): from transformers import BertTokenizer, BertForMaskedLM import torch from transformers import pipeline, AutoTokenizer, AutoModel # Inicializar el pipeline de MLM tokenizer = AutoTokenizer.from_pretrained(“emilyalsentzer/Bio_ClinicalBERT”) model = AutoModel.from_pretrained(“emilyalsentzer/Bio_ClinicalBERT”) print(len(tokenizer.vocab)) Pero cuando . . . Read more
Cuando uso el decorador st.cache para almacenar en caché el modelo de transformador de Hugging Face, obtengo un TypeError no hashable. Este es el código: from transformers import pipeline import streamlit as st from io import StringIO @st.cache(hash_funcs={StringIO: StringIO.getvalue}) def model(): return pipeline(“sentiment-analysis”, model=’akhooli/xlm-r-large-arabic-sent’)
Estoy intentando ajustar / pre-entrenar un modelo BERT existente para el análisis de sentimientos utilizando la API Trainer en la biblioteca transformers. Mi conjunto de datos de entrenamiento se ve así: Texto Sentimiento Este lugar fue bueno 1 Este lugar fue malo 0 Mi objetivo es poder clasificar los sentimientos . . . Read more
Usando R y el paquete reticulate, estoy intentando utilizar un modelo pre-entrenado de Huggingface. Este modelo en particular requiere PyTorch y transformers. Ambos están disponibles en R a través de reticulate, sin embargo, aunque puedo instalar y cargar ambos, el paquete transformers no encuentra la instalación de PyTorch. use_virtualenv("r-reticulate") reticulate::py_install('transformers', . . . Read more