Classificação Multiclasse
A classificação multiclasse difere da classificação binária por poder distinguir entre mais de duas classes.
Cada amostra é atribuída a uma e apenas uma classe, e as classes são mutuamente exclusivas. Por exemplo, Árvores de Decisão, Random Forest e Naïve Bayes são classificadores multiclasse.
Estratégias para Classificação Multiclasse:
-
One-versus-the-rest (OvR):
- Cada classe é comparada com todas as outras. Para um problema multiclasse com ( N ) classes, ( N ) modelos são criados.
- Exemplo: classificação de imagens de dígitos (0 a 9) em 10 classes poderia ser baseada no treinamento de 10 classificadores binários, um para cada dígito.
-
One-versus-one (OvO):
- Cada par de classes é comparado por um classificador distinto. Se houver ( N ) classes, então ( N \times (N - 1) / 2 ) classificadores são necessários.
- Exemplo: Para o conjunto de dados de dígitos, seriam necessários 45 modelos para implementar esta estratégia.
Análise de Erros:
A matriz de confusão para classificação multiclasse pode ser usada para a análise de erros, considerando uma classe específica (por exemplo, 0). A matriz mostra True Positives (TP), False Positives (FP) e False Negatives (FN) para essa classe em relação a todas as outras classes. Isso ajuda a entender como o modelo está classificando as diferentes classes e onde estão ocorrendo os erros.
Em resumo, a classificação multiclasse envolve técnicas adicionais, como OvR e OvO, para lidar com múltiplas classes. A escolha da estratégia adequada depende do problema específico, do conjunto de dados e dos algoritmos de Machine Learning utilizados. A análise de erros usando a matriz de confusão multiclasse é importante para identificar onde o modelo pode ser melhorado.