В настоящее время у меня есть несбалансированный набор данных из более чем 800 000 точек данных. Дисбаланс серьезный, поскольку для одного из двух классов имеется только 3719 точек данных. После недостаточной выборки данных с использованием алгоритма NearMiss в Python и применения классификатора случайного леса я могу добиться следующих результатов:
- Точность: 81,4%
- Точность: 82,6%
- Отзыв: 79,4%
- Специфичность: 83,4%
Однако при повторном тестировании этой же модели на полном наборе данных результаты матрицы путаницы по какой-то причине показывают большой уклон в сторону меньшинства, показывая большое количество ложных срабатываний. Это правильный способ тестирования модели после недостаточной выборки?