es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: HUGGINGFACE-TRANSFORMERS

El uso de la biblioteca Huggingface genera un error: KeyError: ‘logits’

Soy nuevo en la biblioteca huggingface y estoy tratando de ejecutar un modelo para realizar una tarea de lenguaje enmascarado (“fill-mask task”): from transformers import BertTokenizer, BertForMaskedLM import torch from transformers import pipeline, AutoTokenizer, AutoModel # Inicializar el pipeline de MLM tokenizer = AutoTokenizer.from_pretrained(“emilyalsentzer/Bio_ClinicalBERT”) model = AutoModel.from_pretrained(“emilyalsentzer/Bio_ClinicalBERT”) print(len(tokenizer.vocab)) Pero cuando . . . Read more

Error de tipo “Unhashable TypeError” en Streamlit cuando uso st.cache

Cuando uso el decorador st.cache para almacenar en caché el modelo de transformador de Hugging Face, obtengo un TypeError no hashable. Este es el código: from transformers import pipeline import streamlit as st from io import StringIO @st.cache(hash_funcs={StringIO: StringIO.getvalue}) def model(): return pipeline(“sentiment-analysis”, model=’akhooli/xlm-r-large-arabic-sent’)

La biblioteca de transformadores reticulares no puede encontrar torch.

Usando R y el paquete reticulate, estoy intentando utilizar un modelo pre-entrenado de Huggingface. Este modelo en particular requiere PyTorch y transformers. Ambos están disponibles en R a través de reticulate, sin embargo, aunque puedo instalar y cargar ambos, el paquete transformers no encuentra la instalación de PyTorch. use_virtualenv("r-reticulate") reticulate::py_install('transformers', . . . Read more