Задать вопрос

Почему модель, обученная на главных компонентах, работает существенно хуже, чем обученная на истинных предикторах?

Для некоторого набора предикторов после анализа главных компонент были получены новые предикторы, описывающие примерно 99% вариаций исходных данных. Была обучена модель (не знаю, важно ли это, но это было регрессионное дерево решений) на исходных предикторах и на главных компонентах. Качество модели на главных компонентах получилось примерно на 17% хуже, чем на исходных предикторах. В чем причина, ведь главные компоненты описывают практически всю картину в данных?
  • Вопрос задан
  • 216 просмотров
Подписаться 5 Средний Комментировать
Помогут разобраться в теме Все курсы
  • Яндекс Практикум
    Специалист по Data Science
    13 месяцев
    Далее
  • OTUS
    Machine Learning. Professional
    5 месяцев
    Далее
  • Нетология
    Data Scientist: расширенный курс
    13 месяцев
    Далее
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы