Почему модель, обученная на главных компонентах, работает существенно хуже, чем обученная на истинных предикторах?
Для некоторого набора предикторов после анализа главных компонент были получены новые предикторы, описывающие примерно 99% вариаций исходных данных. Была обучена модель (не знаю, важно ли это, но это было регрессионное дерево решений) на исходных предикторах и на главных компонентах. Качество модели на главных компонентах получилось примерно на 17% хуже, чем на исходных предикторах. В чем причина, ведь главные компоненты описывают практически всю картину в данных?