Diferencia entre AIC y BIC
- 1589
- 206
- Teresa Sánchez
AIC vs BIC
AIC y BIC se usan ampliamente en los criterios de selección de modelos. AIC significa criterios de información de Akaike y BIC significa criterios de información bayesiana. Aunque estos dos términos abordan la selección del modelo, no son lo mismo. Uno puede encontrarse puede diferencia entre los dos enfoques de la selección del modelo.
Los criterios de información de Akaike se formaron en 1973 y los criterios de información bayesiana en 1978. Hirotsugu Akaike desarrolló los criterios de información de Akaike, mientras que Gideon E. Schwarz desarrolló criterio de información bayesiana.
La AIC puede denominarse una mesaza de la bondad del ajuste de cualquier modelo estadístico estimado. El BIC es un tipo de selección de modelos entre una clase de modelos paramétricos con diferentes números de parámetros.
Al comparar los criterios de información bayesianos y los criterios de información de Akaike, la penalización para parámetros adicionales es más en BIC que AIC. A diferencia del AIC, el BIC penaliza los parámetros libres con más fuerza.
Los criterios de información de Akaike generalmente intentan encontrar un modelo desconocido que tenga una realidad de alta dimensión. Esto significa que los modelos no son verdaderos modelos en AIC. Por otro lado, los criterios de información bayesianos se encuentran solo en modelos verdaderos. También se puede decir que los criterios de información bayesiana son consistentes, mientras que los criterios de información de Akaike no son así.
Cuando los criterios de información de Akaike presentarán el peligro de que se ejecute. Los criterios de información bayesianos presentarán el peligro de que no se ajuste. Aunque BIC es más tolerante en comparación con AIC, muestra menos tolerancia a números más altos.
Los criterios de información de Akaike son buenos para hacer que el asintóticamente equivalente a la validación cruzada. Por el contrario, los criterios de información bayesianos son buenos para una estimación consistente.
Resumen
1. AIC significa criterios de información de Akaike y BIC significa criterios de información bayesiana.
2. Los criterios de información de Akaike se formaron en 1973 y los criterios de información bayesiana en 1978.
3. Al comparar los criterios de información bayesianos y los criterios de información de Akaike, la penalización para parámetros adicionales es más en BIC que AIC.
4. Los criterios de información de Akaike generalmente intentan encontrar un modelo desconocido que tenga una realidad de alta dimensión. Por otro lado, los criterios de información bayesianos se encuentran solo en modelos verdaderos.
5. Los criterios de información bayesiana son consistentes, mientras que los criterios de información de Akaike no son así.
6. Los criterios de información de Akaike son buenos para hacer que el asintóticamente equivalente a la validación cruzada. Por el contrario, los criterios de información bayesianos son buenos para una estimación consistente.
7. Aunque BIC es más tolerante en comparación con AIC, muestra menos tolerancia a números más altos.
8. A diferencia del AIC, el BIC penaliza los parámetros libres con más fuerza.
//