Почему модель, обученная на главных компонентах, работает существенно хуже, чем обученная на истинных предикторах?

Для некоторого набора предикторов после анализа главных компонент были получены новые предикторы, описывающие примерно 99% вариаций исходных данных. Была обучена модель (не знаю, важно ли это, но это было регрессионное дерево решений) на исходных предикторах и на главных компонентах. Качество модели на главных компонентах получилось примерно на 17% хуже, чем на исходных предикторах. В чем причина, ведь главные компоненты описывают практически всю картину в данных?
  • Вопрос задан
  • 213 просмотров
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы