XGBoost o Extreme Gradient Boosting, es uno de los algoritmos de machine learning de tipo supervisado más usados en la actualidad.
Este algoritmo se caracteriza por obtener buenos resultados de predicción con relativamente poco esfuerzo, en muchos casos equiparables o mejores que los devueltos por modelos más complejos computacionalmente, en particular para problemas con datos heterogéneos.
XGBoost es una herramienta muy útil para un data scientist y cuenta con implementaciones para diferentes lenguajes y entornos de programación.
En este artículo revisaremos la implementación de XGBoost en R. Veremos cómo preparar los datos para usar este algoritmo, sus hiper parámetros básicos y una manera sencilla de evaluar sus resultados.
Pero antes, una breve introducción a XGBoost.
Una introducción informal a XGBoost
XGBoost Extreme Gradient Boosting es un algoritmo predictivo supervisado que utiliza el principio de boosting.
La idea detrás del boosting es generar múltiples modelos de predicción “débiles” secuenciualmente,y que cada uno de estos tome los resultados del modelo anterior, para generar un modelo más “fuerte”, con mejor poder predictivo y mayor estabilidad en sus resultados.
Para conseguir un modelo más fuerte, se emplea un algoritmo de optimización, este caso Gradient Descent (descenso de gradiente).
Durante el entrenamiento, los parámetros de cada modelo débil son ajustados iterativamente tratando de encontrar el mínimo de una función objetivo, que puede ser la proporción de error en la clasificación, el área bajo la curva (AUC), la raíz del error cuadrático medio (RMSE) o alguna otra.
Cada modelo es comparado con el anterior. Si un nuevo modelo tiene mejores resultados, entonces se toma este como base para realizar nuevas modificaciones. Si, por el contrario, tiene peores resultados, se regresa al mejor modelo anterior y se modifica ese de una manera diferente.
Este proceso se repite hasta llegar a un punto en el que la diferencia entre modelos consecutivos es insignificante, lo cual nos indica que hemos encontrado el mejor modelo posible, o cuando se llega al número de iteraciones máximas definido por el usuario.
XGBoost usa como sus modelos débiles árboles de decisión de diferentes tipos, que pueden ser usados para tareas de clasificación y de regresión.
Si quieres conocer más sobre este algoritmo, puedes leer definiciones más formales que incluyen discusión sobre su implementación en los siguientes artículos:
- Greedy Function Approximation: A Gradient Boosting Machine (Friedman, 2001)
- Stochastic Gradient Boosting (Friedman, 1999)
Ahora veamos cómo usar XGBoost en R.
Implementación en R
Instalación
Lo primero que necesitamos es instalar los paquetes que usaremos con install.packages()
.
xgboost
contiene la implementación de este tipo de modelo para R.
tidyverse
es un meta paquete que carga varios paquetes a
nuestro entorno de trabajo. Para nuestros fines, lo importante es que
carga los siguientes:
dplyr
. Herramientas manipular, transformar y organizar datos.readr
. Facilita importar datos desde archivos.purrr
. Agrega características de programación funcional.
caret
contiene una gran cantidad de utilidades para
machine learning, pero en esta ocasión únicamente usaremos una función
para generar matrices de confusión.
install.packages("xgboost") install.packages("tidyverse") install.packages("caret")
Cargamos los paquetes a nuestro espacio de trabajo con library()
.
library("xgboost") library("tidyverse")
-- Attaching packages ----------------------------------------------------------- tidyverse 1.3.0 --
v ggplot2 3.2.1 v purrr 0.3.3 v tibble 2.1.3 v dplyr 0.8.3 v tidyr 1.0.0 v stringr 1.4.0 v readr 1.3.1 v forcats 0.4.0
-- Conflicts -------------------------------------------------------------- tidyverse_conflicts() -- x dplyr::filter() masks stats::filter() x dplyr::lag() masks stats::lag() x dplyr::slice() masks xgboost::slice()
library("caret")
Loading required package: lattice
Attaching package: 'caret'
The following object is masked from 'package:purrr': lift
Datos que usaremos
El conjunto de datos que usaremos es conocido como Agraricus. Contiene características de diferentes hongos y lo que deseamos predecir es si son venenosos o no.
En la práctica es común que tengas que lidiar con datos en formatos no convencionales que requieren preparación antes de ser usables por un algoritmo de machine learning.
Por esta razón, en lugar de usar la versión de estos datos incluida en el paquete xgboost
y que ya está lista para usar, trabajaremos con una versión de estos
mismos datos que requiere preparación, pues generalmente es la etapa del
flujo de trabajo de machine learning que requiere más tiempo.
La versión de los datos que usaremos está disponible en el Machine Learning Repository de UCI.
He copiado los datos a un repositorio de github para asegurar que
estés usando la misma versión que aparece en este artículo. Son dos
archivos en total, uno con extensión .data
que contiene los datos de los hongos, y otro de extensión .names
que incluye una descripción de ellos.
Descargamos ambos archivos a nuestra carpeta de trabajo usando la download.files()
con el argumento mode = "wb"
para asegurar que los archivos se guarden correctamente.
download.file("https://raw.githubusercontent.com/jboscomendoza/rpubs/xgboost_r/xgboost_en_r/agaricus-lepiota.data", destfile = "agaricus-lepiota.data", mode = "wb") download.file("https://raw.githubusercontent.com/jboscomendoza/rpubs/xgboost_r/xgboost_en_r/agaricus-lepiota.names", destifile = "agaricus-lepiota.names", mode = "wb")
Exploración de los datos
Empezamos con la exploración del contenido de estos archivos.
Podemos dar una mirada a su contenido con algún procesador de texto
externo, como notepad++ o gedit, pero también podemos hacer esto
directamente en R con las funciones read_lines()
y head()
.
Veamos los primeros renglones del archivo “agaricus-lepiota.data”.
head(read_lines("agaricus-lepiota.data"))
[1] "p,x,s,n,t,p,f,c,n,k,e,e,s,s,w,w,p,w,o,p,k,s,u" [2] "e,x,s,y,t,a,f,c,b,k,e,c,s,s,w,w,p,w,o,p,n,n,g" [3] "e,b,s,w,t,l,f,c,b,n,e,c,s,s,w,w,p,w,o,p,n,n,m" [4] "p,x,y,w,t,p,f,c,n,n,e,e,s,s,w,w,p,w,o,p,k,s,u" [5] "e,x,s,g,f,n,f,w,b,k,t,e,s,s,w,w,p,w,o,e,n,a,g" [6] "e,x,y,y,t,a,f,c,b,n,e,c,s,s,w,w,p,w,o,p,k,n,g"
Los datos se encuentran en una estructura tabular, con columnas
separada por comas. Para fines prácticos, es equivalente a un archivo de
extensión .csv
pero con una extensión diferente. Eso son buenas noticias.
Para evitar errores en la lectura, importaremos su contenido con la función read.table
Esta función no trata de convertir los datos a un tipo en particular,
de modo que todo será importado como de tipo caracter, lo cual previene
errores más adelante.
Llamamos a esta función especificando que el delimitador de columnas es una coma y convertimos su resultado a un tibble
para mejorar la compatibilidad con los paquetes del tidyverse
y mejorar su presentación en pantalla.
original <- read.table("agaricus-lepiota.data", sep = ",") %>% tbl_df()
Veamos el resultado.
original
# A tibble: 8,124 x 23 V1 V2 V3 V4 V5 V6 V7 V8 V9 V10 V11 V12 V13 <fct> <fct> <fct> <fct> <fct> <fct> <fct> <fct> <fct> <fct> <fct> <fct> <fct> 1 p x s n t p f c n k e e s 2 e x s y t a f c b k e c s 3 e b s w t l f c b n e c s 4 p x y w t p f c n n e e s 5 e x s g f n f w b k t e s 6 e x y y t a f c b n e c s 7 e b s w t a f c b g e c s 8 e b y w t l f c b n e c s 9 p x y w t p f c n p e e s 10 e b s y t a f c b g e c s # ... with 8,114 more rows, and 10 more variables: V14 <fct>, V15 <fct>, # V16 <fct>, V17 <fct>, V18 <fct>, V19 <fct>, V20 <fct>, V21 <fct>, # V22 <fct>, V23 <fct>
Continuamos con la preparación de los datos.
Preparación de los datos
Asignación de nombres a las variables
Aunque este paso no es estrictamente necesario, agregaremos el nombre de cada columna, es decir, de las variables o features.
Es frecuente que en la práctica tengas que trabajar con datos a los que se les ha ocultado intencionalmente el nombre de los features por seguridad o confidencialidad, entre otras razones. Sin embargo, cuando cuenta con los nombres de las variables pueden encontrar insights sobre nuestros datos que pueden ser útiles para realizar un buen análisis.
Además, en nuestro ejemplo es esencial conocer cuál de las columnas es la variable objetivo, aquella en la que se encuentra etiquetado un hongo como venenoso o no.
Los nombres de las variables han sido obtenidos de la información en el archivo agaricus-lepiota.names
. La variable objetivo es la primera columna con el nombre target
.
Haremos la asignación de nombres con la función names()
.
nombres <- c( "target", "cap_shape", "cap_surface", "cap_color", "bruises", "odor", "gill_attachment", "gill_spacing", "gill_size", "gill_color", "stalk_shape", "stalk_root", "stalk_surface_above_ring", "stalk_surface_below_ring", "stalk_color_above_ring", "stalk_color_below_ring", "veil_type", "veil_color", "ring_number", "ring_type", "spore_print_color", "population", "habitat" ) names(original) <- nombres
Nuestro resultado es el siguiente.
head(original)
# A tibble: 6 x 23 target cap_shape cap_surface cap_color bruises odor gill_attachment <fct> <fct> <fct> <fct> <fct> <fct> <fct> 1 p x s n t p f 2 e x s y t a f 3 e b s w t l f 4 p x y w t p f 5 e x s g f n f 6 e x y y t a f # ... with 16 more variables: gill_spacing <fct>, gill_size <fct>, # gill_color <fct>, stalk_shape <fct>, stalk_root <fct>, # stalk_surface_above_ring <fct>, stalk_surface_below_ring <fct>, # stalk_color_above_ring <fct>, stalk_color_below_ring <fct>, # veil_type <fct>, veil_color <fct>, ring_number <fct>, ring_type <fct>, # spore_print_color <fct>, population <fct>, habitat <fct>
Conversión a numérico
Hasta aquí, todo luce bien, sin embargo, xgboost
requiere matrices numéricas para funcionar correctamente. Tenemos que
convertir nuestra columnas de datos de tipo caracter a tipo numérico.
Utilizaremos las funciones map_df()
de purrr
para realizar esta conversión de manera eficiente.
Cada columna de nuestros datos será convertida a factor con as.factor()
, y después a número con as.numeric()
. En R si intentamos convertir un dato de tipo caracter a numérico obtenemos únicamente NA
s, por eso necesitamos un paso intermedio.
Finalmente, restamos 1 al resultado de la conversión porque XGBoost espera valores de 0 y 1 para la variable objetivo. En nuestro ejemplo, el 1 representa un hongo venenoso y 0 un hongo que no lo es.
Si no realizamos esta conversión, es probable que XGBoost devuelva resultados incorrectos.
original <- map_df(original, function(columna) { columna %>% as.factor() %>% as.numeric %>% { . - 1 } })
Nuestro resultado es el siguiente.
head(original)
# A tibble: 6 x 23 target cap_shape cap_surface cap_color bruises odor gill_attachment <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> 1 1 5 2 4 1 6 1 2 0 5 2 9 1 0 1 3 0 0 2 8 1 3 1 4 1 5 3 8 1 6 1 5 0 5 2 3 0 5 1 6 0 5 3 9 1 0 1 # ... with 16 more variables: gill_spacing <dbl>, gill_size <dbl>, # gill_color <dbl>, stalk_shape <dbl>, stalk_root <dbl>, # stalk_surface_above_ring <dbl>, stalk_surface_below_ring <dbl>, # stalk_color_above_ring <dbl>, stalk_color_below_ring <dbl>, # veil_type <dbl>, veil_color <dbl>, ring_number <dbl>, ring_type <dbl>, # spore_print_color <dbl>, population <dbl>, habitat <dbl>
Creación de una lista
Este paso tampoco es estrictamente necesario, pero a mí me resulta más fácil guardar todos los objetos relacionados con un mismo proceso en una lista.
De este modo, mi espacio de trabajo es más fácil organizar. Mientras sea consistente con la estructura de esta lista es posible reproducir o hacer ajustes a los análisis e identificar en qué paso del proceso se han presentado problemas.
Creamos una lista llamada hongo y lo primero que haremos es guardar nuestros datos originales en ella.
hongo <- list() hongo$original <- original
Sets de entrenamiento y prueba
Como es el caso para todos los algoritmos de predicción supervisados, necesitamos dividir nuestros datos en un conjunto de entrenamiento, que aprenderá las características de los datos y generará un modelo de predicción; y un conjunto de prueba, con el que validamos el modelo generado.
Generamos nuestro set de entrenamiento con la función sample_frac()
de dplyr
. Extraemos una muestra aleatoria del 70% de nuestros datos originales. Utilizamos set.seed()
para asegurar que estos resultados son replicables.
set.seed(1919) hongo$train_df <- sample_frac(original, size = 0.7)
El resto de los datos, 30% de ellos, será el conjunto de prueba (test).
Usamos setdiff()
para seleccionarlos.
hongo$test_df <- setdiff(hongo$original, hongo$train_df)
En ambos casos, hemos guardado los resultados en nuestra lista hongo
.
Veamos el tamaño de estos conjuntos de datos con la función dim
.
dim(hongo$train)
[1] 5687 23
dim(hongo$test)
[1] 2437 23
Convertir a DMatrix
Como ya lo mencionamos, la implementación XGBoost de R requiere que los datos que usemos sean matrices, específicamente de tipo DMatrix, así que necesitamos convertir nuestros sets de entrenamiento y prueba a este tipo de estructura.
Usaremos la función xgb.DMatrix()
de xgboost
para la conversión.
Esta función espera una matriz numérica como primer argumento y
también se pueden especificar algunos atributos adicionales al objeto
que devolverá. Nosotros definiremos el atributo label
para identificar la variable objetivo en nuestros datos.
Al usar esta función es muy importante que tu data
no
incluya la columna con la variable objetivo, de lo contrario, obtendrás
una precisión perfecta en tus predicciones, que será inútil con datos
nuevos.
Entonces, quitamos la variable objetivo de los datos usando la función select()
de dplyr
, convertiremos nuestros datos a matriz con as.matrix()
, convertimos esta matriz con xgb.Dmatrix()
y guardamos el resultado en nuestra lista hongo
.
hongo$train_mat <- hongo$train_df %>% select(-target) %>% as.matrix() %>% xgb.DMatrix(data = ., label = hongo$train_df$target)
Nuestro resultado es el siguiente.
hongo$train_mat
xgb.DMatrix dim: 5687 x 22 info: label colnames: yes
Realizamos el mismo procedimiento con nuestro set de prueba.
hongo$test_mat <- hongo$test_df %>% select(-target) %>% as.matrix() %>% xgb.DMatrix(data = ., label = hongo$test_df$target)
Obtenemos el siguiente resultado.
hongo$test_mat
xgb.DMatrix dim: 2437 x 22 info: label colnames: yes
¡Listo! Hemos concluido la parte más laboriosa de todo el proceso. Podemos comenzar con el entrenamiento del modelo predictivo.
Entrenamiento del modelo predictivo
Para entrenar un modelo usamos la función xgboost()
.
Tenemos a nuestra disposición una amplia cantidad de hiper parámetros para ajustar, pero para este ejemplo introductorio haremos ajustes solo a los siguientes:
- objective: El tipo de tarea de clasificación que realizaremos. Para clasificación binaria, nuestro caso, especificamos “binary:logistic”.
- nround: El número de iteraciones que se realizarán antes de detener el proceso de ajuste. Un mayor número de iteraciones generalmente devuelve mejores resultados de predicción pero necesita más tiempo de entrenamiento.
- max.depth: “Profundidad” o número de nodos de bifurcación de los árboles de de decisión usados en el entrenamiento. Aunque una mayor profundidad puede devolver mejores resultados, también puede resultar en overfitting (sobre ajuste).
- eta: La tasa de aprendizaje del modelo. Un mayor valor llega más rápidamente al mínimo de la función objetivo, es decir, a un “mejor modelo”, pero puede “pasarse” de su valor óptimo. En cambio, un valor pequeño puede nunca llegar al valor óptimo de la función objetivo, incluso después de muchas iteraciones. En ambos casos, esto afecta el desempeño de nuestros modelos con nuevos.
- nthread: El número de hilos computacionales que serán usados en el proceso de entrenamiento. Generalmente se refiere a los núcleos del procesador de tu equipo de cómputo, local o remoto, pero también pueden ser los núcleos de un GPU.
Como los datos de nuestro ejemplo son sencillos, definiremos valores muy conservadores para todos estos hiper parámetros.
Entrenamos el modelo y lo guardamos nuestro modelo en hongo$modelo_01
. Para datos más complejos, este proceso puede ser tardado.
Por defecto, nos es mostrado el resultado de la función objetivo de cada iteración. De este modo podemos analizar el desempeño del modelo que hemos especificado.
hongo$modelo_01 <- xgboost(data = hongo$train_mat, objective = "binary:logistic", nrounds = 10, max.depth = 2, eta = 0.3, nthread = 2)
[1] train-error:0.089678 [2] train-error:0.073853 [3] train-error:0.045894 [4] train-error:0.036047 [5] train-error:0.029189 [6] train-error:0.026200 [7] train-error:0.024618 [8] train-error:0.024618 [9] train-error:0.015298 [10] train-error:0.015298
Nuestro resultado es el siguiente. Notarás que la salida incluye información de los hiper parámetros y los datos que usamos, así como un resumen de la ejecución del modelo.
hongo$modelo_01
##### xgb.Booster raw: 4.2 Kb call: xgb.train(params = params, data = dtrain, nrounds = nrounds, watchlist = watchlist, verbose = verbose, print_every_n = print_every_n, early_stopping_rounds = early_stopping_rounds, maximize = maximize, save_period = save_period, save_name = save_name, xgb_model = xgb_model, callbacks = callbacks, objective = "binary:logistic", max.depth = 2, eta = 0.3, nthread = 2) params (as set within xgb.train): objective = "binary:logistic", max_depth = "2", eta = "0.3", nthread = "2", silent = "1" xgb.attributes: niter callbacks: cb.print.evaluation(period = print_every_n) cb.evaluation.log() # of features: 22 niter: 10 nfeatures : 22 evaluation_log: iter train_error 1 0.089678 2 0.073853 --- 9 0.015298 10 0.015298
Generación de predicciones
El siguiente paso es utilizar la función predict()
con el set de prueba hongo$test_mat
para generar las predicciones de nuestro modelo hongo$modelo_01
.
Esta función espera un modelo de predicción y datos nuevos con la misma estructura que los usados para entrenar al modelo. Esto es muy importante: si tus datos de prueba tienen una estructura diferente a los de entrenamiento, no podrás obtener predicciones.
Guardamos las predicciones en la lista hongo
.
hongo$predict_01 <- predict(hongo$modelo_01, hongo$test_mat)
Nuestro resultado es un vector de valores numéricos, cada uno representando la probabilidad de que un caso en particular pertenezca al valor 1 de nuestra variable objetivo. Es decir, la probabilidad de que ese hongo sea venenoso.
head(hongo$predict_01)
[1] 0.09554099 0.11355446 0.04708923 0.86634964 0.04708923 0.86634964
Para este ejemplo, tomaremos las probabilidades mayores a 0.5 como una predicción de pertenencia al valor 1 de nuestra variable objetivo.
head(hongo$predict_01 > 0.5)
[1] FALSE FALSE FALSE TRUE FALSE TRUE
Evaluación del modelo
Para evaluar nuestro modelo comparamos nuestras predicciones con las categorías reales de nuestro set de prueba.
Para esto, usaremos la función confusionMatrix()
de caret
para generar un matriz de confusión.
La manera más sencilla de utilizar esta función es darle como argumento un objeto de tipo table
.
Unimos nuestras predicciones en hongo$predict_01
y los valores reales en hongo$test_df$target
con cbind()
para generar un data frame con data.frame()
, y con ella un objeto table
con table()
.
cbind(hongo$predict_01 > 0.5, hongo$test_df$target) %>% data.frame() %>% table() %>% confusionMatrix()
Confusion Matrix and Statistics X2 X1 0 1 0 1246 45 1 0 1146 Accuracy : 0.9815 95% CI : (0.9754, 0.9865) No Information Rate : 0.5113 P-Value [Acc > NIR] : < 2.2e-16 Kappa : 0.963 Mcnemar's Test P-Value : 5.412e-11 Sensitivity : 1.0000 Specificity : 0.9622 Pos Pred Value : 0.9651 Neg Pred Value : 1.0000 Prevalence : 0.5113 Detection Rate : 0.5113 Detection Prevalence : 0.5297 Balanced Accuracy : 0.9811 'Positive' Class : 0
Nada mal. Tuvimos una precisión del 98% y sobresale que tuvimos un valor predictivo par la clase negativa, un hongo no venenoso, del 100%.
Como podrás imaginar, con datos reales rara vez obtenemos resultados tan buenos con tan poco esfuerzo, pero si comparas estos resultados contra los de árboles de decisión convencionales, notarás una gran diferencia en desempeño a favor de XGBoost.
Después de preparar nuestros datos, la tarea que más tiempo consume al usar este modelo es encontrar los mejores hiper parámetros para alcanzar la mayor precisión posible de un modelo.
Veamos qué pasa si ajustamos nuestros hiper parámetros con un segundo modelo.
Segundo modelo
Este segundo modelo tiene un número de iteraciones mayor que el anterior, de 100 en lugar de 10, y una mayor profundidad en los árboles generados, de 2 a 4.
Además, hemos ajustado el hiper parámetro early_stopping_rounds = 10
,
para que el entrenamiento se detenga si después de diez iteraciones
consecutivas no se mejora el modelo. Este hiper parámetro es sumamente
útil para acortar el tiempo de entrenamiento de un modelo, pues evita
que el proceso continúe si ya no se obtienen mejores resultados de
predicción.
En este mismo bloque de código generamos una matriz de confusión para evaluar nuestro segundo modelo.
hongo$modelo_02 <- xgboost(data = hongo$train_mat, objective = "binary:logistic", nrounds = 100, max.depth = 4, eta = 0.3, nthread = 2, early_stopping_rounds = 10)
[1] train-error:0.020573 Will train until train_error hasn't improved in 10 rounds. [2] train-error:0.020573 [3] train-error:0.020573 [4] train-error:0.011078 [5] train-error:0.009320 [6] train-error:0.009320 [7] train-error:0.008440 [8] train-error:0.008440 [9] train-error:0.001231 [10] train-error:0.003693 [11] train-error:0.001231 [12] train-error:0.001231 [13] train-error:0.001231 [14] train-error:0.001231 [15] train-error:0.001231 [16] train-error:0.000703 [17] train-error:0.000000 [18] train-error:0.000000 [19] train-error:0.000000 [20] train-error:0.000000 [21] train-error:0.000000 [22] train-error:0.000000 [23] train-error:0.000000 [24] train-error:0.000000 [25] train-error:0.000000 [26] train-error:0.000000 [27] train-error:0.000000 Stopping. Best iteration: [17] train-error:0.000000
hongo$predict_02 <- predict(hongo$modelo_02, hongo$test_mat) cbind(hongo$predict_02 > 0.5, hongo$test_df$target) %>% data.frame() %>% table() %>% confusionMatrix()
Confusion Matrix and Statistics X2 X1 0 1 0 1246 0 1 0 1191 Accuracy : 1 95% CI : (0.9985, 1) No Information Rate : 0.5113 P-Value [Acc > NIR] : < 2.2e-16 Kappa : 1 Mcnemar's Test P-Value : NA Sensitivity : 1.0000 Specificity : 1.0000 Pos Pred Value : 1.0000 Neg Pred Value : 1.0000 Prevalence : 0.5113 Detection Rate : 0.5113 Detection Prevalence : 0.5113 Balanced Accuracy : 1.0000 'Positive' Class : 0
El entrenamiento se ha detenido después de 17 iteraciones y ha producido un modelo con una precisión del 100%. Nada mal, aunque vale la pena mencionar que podría haber sobre ajustado.
Para concluir
En este artículo hemos revisado, de manera general, la implementación para R del algoritmo XGBoost. En el proceso, también dimos un vistazo al proceso para preparar datos con formatos no convencionales para ser usados en este algoritmo.
Esta revisión no ha sido exhaustiva, hay algunos temas que es importante estudiar para obtener mejores resultados al usar XGBoost:
- En nuestro ejemplo, tomamos los datos tal cual los obtuvimos. En la práctica, es esencial realizar una exploración mucho más profunda de los datos, por ejemplo, analizar las correlaciones entre variables, el comportamiento de datos perdidos e identificar desequilibrio en la variable objetivo.
- Los hiper parámetros que usamos en nuestro ejemplo no son los únicos que tiene XGBoost. Conocerlos todos y entender cómo cambian el comportamiento del algoritmo te da herramientas para hacer ajustes razonados y obtener mejores resultados de predicción.
- Sólo realizamos una tarea de clasificación binaria, pero no es la única que puede revisar XGBoost. Cada una de ellas requiere de una preparación de datos y ajuste de hiper parámetros diferente.
Si quieres conocer más sobre estos temas un buen punto de partida es la documentación de XGBoost.
Consultas, dudas, comentarios y correcciones son bienvenidas:
El código y los datos usados en este documento se encuentran en Github:
También publicado en: