Tag: ALPHA-SHAPE
Cuando se muestra summary_plot, la barra de colores no se muestra. shap.summary_plot(shap_values, X_train) He intentado cambiar plot_size. Cuando el gráfico es más alto, la barra de colores aparece, pero es muy pequeña – no se ve como debería. shap.summary_plot(shap_values, X_train, plot_size=0.7) Aquí tienes un ejemplo de una barra de colores . . . Read more
x_train, x_test, y_train, y_test = train_test_split(X, Y, test_size=0.3, random_state=42) rf_model = RandomForestClassifier() rf_model.fit(x_train, y_train) rf_pred = rf_model.predict(x_test) import shap rf_explainer = shap.TreeExplainer(rf_model, x_train) rf_vals = rf_explainer.shap_values(x_train) Salida: 100%|===================| 4778/4792 [03:26<00:00] rf_explainer.expected_value Salida: array([0.5763, 0.4237]) (Aunque con el gráfico resumen entendí cuál es la contribución de cada característica al modelo) (Por . . . Read more
Intentando implementar IA Explicable en una Red Neuronal (RNN/LSTM/GRU). ¿Necesito Regresión Logística? ¿Y qué método debo aplicar? ¿Lime o Shap?
Estoy tratando de construir un panel de control de mi proyecto de procesamiento del lenguaje natural (NLP). Para ello, estoy utilizando un modelo BERT para las predicciones, el paquete SHAP para la visualización y Streamlit para crear el panel de control: tokenizer = AutoTokenizer.from_pretrained(nombre_del_modelo) model = AutoModelForSequenceClassification.from_pretrained(nombre_del_modelo) labels = [‘1- . . . Read more
Estoy siguiendo la guía en https://github.com/cerlymarco/shap-hypetune/blob/main/notebooks/XGBoostusage.ipynb para mi tesis, y necesito imprimir el nombre de las variables que se guardan o eliminan en cada paso (cada variable representa una cantidad física). He empezado con un XGBoost base con un conjunto de 17 características que quiero reducir y ver, para cada . . . Read more