Différence entre AIC et BIC
AIC ou BIC
L'AIC et le BIC sont largement utilisés dans les critères de sélection des modèles. AIC signifie Akaike's Information Criteria et BIC signifie Bayesian Information Criteria. Bien que ces deux termes traitent de la sélection des modèles, ils ne sont pas les mêmes. On peut rencontrer des différences entre les deux approches de sélection du modèle.
Les critères d'information d'Akaike ont été créés en 1973 et les critères d'information bayésiens en 1978. Hirotsugu Akaike a développé les critères d'information d'Akaike tandis que Gideon E. Schwarz a développé le critère d'information bayésien.
L'AIC peut être appelé un mesaure de la qualité de l'ajustement de tout modèle statistique estimé. Le BIC est un type de sélection de modèle parmi une classe de modèles paramétriques avec différents nombres de paramètres.
En comparant les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour les paramètres supplémentaires est plus élevée dans BIC que dans AIC. Contrairement à l'AIC, le BIC pénalise plus fortement les paramètres libres.
Les critères d'information d'Akaike tentent généralement de trouver un modèle inconnu qui a une réalité dimensionnelle élevée. Cela signifie que les modèles ne sont pas de vrais modèles dans AIC. D'autre part, les critères d'information bayésiens ne trouvent que des modèles vrais. On peut également dire que les critères d'information bayésiens sont cohérents alors que les critères d'information d'Akaike ne le sont pas.
Quand les critères d'information d'Akaike présenteront le danger qu'ils seront adaptés. les critères d'information bayésiens présenteront le danger qu'ils présentent. Bien que le BIC soit plus tolérant par rapport à l'AIC, il est moins tolérant à des valeurs plus élevées.
Les critères d'information d'Akaike sont bons pour rendre asymptotiquement équivalent à la validation croisée. Au contraire, les critères d'information bayésiens sont bons pour la cohérence des estimations.
Les idées Clis
1. AIC signifie Akaike's Information Criteria et BIC signifie Bayesian Information Criteria.
2. Les critères d'information d'Akaike ont été créés en 1973 et les critères d'information bayésiens en 1978.
3. En comparant les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour les paramètres supplémentaires est plus élevée dans BIC que dans AIC.
4. Les critères d'information d'Akaike tentent généralement de trouver un modèle inconnu qui a une réalité dimensionnelle élevée. D'autre part, les critères d'information bayésiens ne trouvent que des modèles vrais.
5. Les critères d'information bayésiens sont cohérents alors que les critères d'information d'Akaike ne le sont pas.
6. Les critères d'information d'Akaike sont bons pour rendre asymptotiquement équivalent à la validation croisée. Au contraire, les critères d'information bayésiens sont bons pour la cohérence des estimations.
7. Bien que le BIC soit plus tolérant par rapport à l'AIC, il est moins tolérant à des valeurs plus élevées.
8. Contrairement à l'AIC, le BIC pénalise plus fortement les paramètres libres.
//
Une question ? Nous avons oublié quelque chose ? n'hésitez pas à participer aux commentaires. Nous compléterons cet article avec plaisir.