Я нашел, что в популярных наборах данных, таких как imagenet, cifar-100, количество изображений для каждой категории одинаково. Интересно, есть ли какие-либо плохие последствия, если образовательные изображения для классификации несбалансированы. (например, 100 для леопардов, в то время как 5000 для слонов)Любое плохое влияние несбалансированных данных при глубоком обучении?
-1
A
ответ
1
Да, у вас могут быть проблемы в этом случае: скрытые слои будут больше ориентироваться на особенности слонов. Если вы увеличиваете количество скрытых фильтров или нейронов для размещения леопардов, вы рискуете чрезмерно сломанными слонами в этом процессе.
Основная проблема заключается в том, есть ли у вас достаточное изображение леопарда, чтобы отличить их от остальной части ввода. Если это так, и если вы загрузите данные обучения таким образом, чтобы леопарды составляли хороший баланс в первых 200-300 фотографиях, обученных, то последняя тренировка для слонов будет оказывать меньшее влияние на функции «обнаружены». Однако это сказывается на скорости обучения, а не на точности.
Смежные вопросы
- 1. Предварительная обработка изображения в глубоком обучении
- 2. сигнал(): любое влияние на производительность?
- 3. Как компьютер самостоятельно воспроизводит метод бумаги SIFT в глубоком обучении
- 4. Что касается обратного слоя свертки в глубоком обучении
- 5. Любое влияние изменения индекса на облачный
- 6. Матрица проектирования для несбалансированных данных
- 7. Обучение с классом несбалансированных данных
- 8. тренировка несбалансированных данных в libsvm
- 9. Любое влияние перезапуска OWSTIMER каждый час?
- 10. Укладка несбалансированных данных в кадре данных R
- 11. Фактор увеличения данных при обучении CNN
- 12. Обучение несбалансированных данных с использованием TensorFlow
- 13. Ошибка: «плохое чтение inttemp!» при обучении нового шрифта в Tesseract 2
- 14. Плохое качество при просмотре
- 15. Любое влияние производительности на Java-модули, используемые в программах Scala?
- 16. Хорошие примеры при обучении рефакторингу?
- 17. Влияние на производительность при захвате данных
- 18. iOS Mail - плохое отображение кнопок вложения - любое решение?
- 19. Обновить набор данных в обучении лазурной машине
- 20. Что я должен сделать для использования сканирования anano в глубоком обучении
- 21. как вы определяете, z1 и z2 и смещение значения в глубоком обучении
- 22. Нечетные результаты для распознавания изображений с использованием AlexNet в глубоком обучении
- 23. Меню WPF исчезает при слишком глубоком вложенности
- 24. векторные итераторы несовместимы при глубоком копировании векторов
- 25. Аппаратные кнопки, управляющие андроидом при глубоком сне
- 26. Где проходят данные проверки при обучении ANN?
- 27. Объединение несбалансированных строк в dataframe
- 28. Как вычислить потерю журнала при машинном обучении
- 29. Спарк случайного лесного indexoutofbounds исключения при обучении
- 30. Влияние сканирования при передаче