Задать вопрос

Почему модель, обученная на главных компонентах, работает существенно хуже, чем обученная на истинных предикторах?

Для некоторого набора предикторов после анализа главных компонент были получены новые предикторы, описывающие примерно 99% вариаций исходных данных. Была обучена модель (не знаю, важно ли это, но это было регрессионное дерево решений) на исходных предикторах и на главных компонентах. Качество модели на главных компонентах получилось примерно на 17% хуже, чем на исходных предикторах. В чем причина, ведь главные компоненты описывают практически всю картину в данных?
  • Вопрос задан
  • 216 просмотров
Подписаться 5 Средний Комментировать
Помогут разобраться в теме Все курсы
  • Нетология
    Инженер машинного обучения с нуля
    14 месяцев
    Далее
  • Яндекс Практикум
    ML-инженер с опытом
    4 месяца
    Далее
  • Skillbox
    Профессия Machine Learning Engineer
    12 месяцев
    Далее
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы