Diferença entre AIC e BIC

AIC vs BIC

AIC e BIC sejam amplamente utilizados nos critérios de seleção do modelo. AIC significa que os Critérios de Informação de Akaike e BIC significam critérios de Informação Bayesiana. Embora esses dois termos abordem a seleção do modelo, eles não são os mesmos. Pode-se encontrar uma diferença entre as duas abordagens da seleção do modelo.

Os Critérios de Informação de Akaike foram formados em 1973 e Bayesian Information Criteria em 1978. Hirotsugu Akaike desenvolveu os Critérios de Informação de Akaike, enquanto que Gideon E. Schwarz desenvolveu um critério de informação bayesiano.

A AIC pode ser denominada como uma medida da bondade de ajuste de qualquer modelo estatístico estimado. O BIC é um tipo de seleção de modelo entre uma classe de modelos paramétricos com diferentes números de parâmetros.

Ao comparar os critérios de informação bayesianos e os critérios de informação da Akaike, a penalidade para parâmetros adicionais é mais no BIC do que no AIC. Ao contrário do AIC, o BIC penaliza os parâmetros gratuitos mais fortemente.

Os Critérios de Informação de Akaike geralmente tentam encontrar um modelo desconhecido que tenha uma realidade dimensional elevada. Isso significa que os modelos não são modelos verdadeiros na AIC. Por outro lado, os critérios de informação bayesianos se deparam apenas com modelos verdadeiros. Pode-se dizer também que o critério de informação Bayesiano é consistente, enquanto os Critérios de Informação de Akaike não são assim.

Quando os Critérios de Informação de Akaike apresentarão o perigo de equipar-se. Os critérios de informação bayesianos apresentarão o perigo de que seria inadequado. Embora o BIC seja mais tolerante quando comparado ao AIC, ele mostra menos tolerância em números maiores.

Os critérios de informação da Akaike são bons para fazer equivalentes assintoticamente à validação cruzada. Pelo contrário, os critérios Bayesianos de Informação são bons para uma estimativa consistente.

Resumo

1. AIC significa que os Critérios de Informação de Akaike e BIC significam critérios de Informação Bayesiana.

2. Os critérios de informação de Akaike foram formados em 1973 e Bayesian Information Criteria em 1978.

3. Ao comparar os Critérios de Informação Bayesianos e os Critérios de Informação de Akaike, a penalidade para parâmetros adicionais é mais no BIC do que no AIC.

4. Os critérios de informação de Akaike geralmente tentam encontrar um modelo desconhecido que tenha uma realidade dimensional elevada. Por outro lado, os critérios de informação bayesianos se deparam apenas com modelos verdadeiros.

5. Os critérios de informação bayesianos são consistentes, enquanto os critérios de informação da Akaike não são assim.

6. Os critérios de informação da Akaike são bons para fazer equivalentes assintoticamente à validação cruzada. Pelo contrário, os critérios Bayesianos de Informação são bons para uma estimativa consistente.

7. Embora o BIC seja mais tolerante quando comparado ao AIC, ele mostra menos tolerância em números maiores.

8. Ao contrário do AIC, o BIC penaliza os parâmetros gratuitos mais fortemente.

//