Tag: TRANSFORMER-MODEL
Estoy siguiendo este tutorial para intentar entrenar datos para la traducción de un lenguaje, pero utilizando solo mi CPU, tengo que esperar 5 horas para entrenar los datos (y después de estas 5 horas, se mata el proceso porque utiliza demasiados recursos). Aquí está mi configuración: – Sistema operativo: Ubuntu . . . Read more
Intenté seguir el ejemplo de tokenización siguiente: tokenizer = BertTokenizer.from_pretrained(MODEL_TYPE, do_lower_case=True) sent = “Me desagrada esto. No aquello.”, _tokenized = tokenizer(sent, padding=True, max_length=20, truncation=True) print(_tknzr.decode(_tokenized[‘input_ids’][0])) print(len(_tokenized[‘input_ids’][0])) La salida fue: [CLS] Me desagrada esto. No aquello. [SEP] 9 Observe el parámetro max_length=20 de tokenizer. ¿Cómo puedo hacer que el tokenizador de . . . Read more
Estaba interesado en cómo obtener la similitud de la incrustación de palabras en diferentes oraciones del modelo BERT (en realidad, esto significa que las palabras tienen diferentes significados en diferentes escenarios). Por ejemplo: sent1 = 'Me gusta vivir en Nueva York.' sent2 = 'Nueva York es una ciudad próspera.' Quiero . . . Read more