В нём есть поля в качестве входных данных и поле целевой переменной. Данные - обычные числа float.То есть у нас и X и y непрерывные и это задача регрессии. 70% процентов может быть у задач классификации. (у задач регрессии другие метрики R2 score, MSE, RSME и.т.д) И пусть алгоритм будет например логистическая регрессия (он решает задачи классификации y ДИСКРЕТНЫЙ. На самом деле в ТЕОРИИ и только в ТЕОРИИ и линейная регрессия может быть использована для задач классификации (на практике этого не делают).
ну там где есть вариативность 100% гарантии конечно нет, не одни метод статистического анализа или машинного обучения не гарантирует 100% результата. Если же мы опустим сто "процентность" то поможет, и еще как поможет.
И самое главное, не факт, что все это поможет.
df = pd.DataFrame(data=listPrices, columns = ['Price1','Price2'])
pd.concat([main_df,df],axis=1,ignore_index=True)
pd.merge(main_df,df)
numeric_transformer = Pipeline(
steps=[("scaler", StandardScaler()),]
)
categorical_transformer = Pipeline(
steps=[
("encoder", OneHotEncoder(handle_unknown="ignore")),
]
)
import pandas as pd
import numpy as np
from sklearn.pipeline import Pipeline
from sklearn.compose import ColumnTransformer
from sklearn.preprocessing import StandardScaler, OneHotEncoder
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
X = df.drop(columns=['Status'])
y = df['Status']
numeric_features = [" ",..]
categorical_features = ["",..]
# Вот мы создаем Pipeline's для наших трансформаций, пока по одной на каждую часть но это для начала
numeric_transformer = Pipeline(
steps=[("scaler", StandardScaler()),]
)
categorical_transformer = Pipeline(
steps=[
("encoder", OneHotEncoder(handle_unknown="ignore")),
]
)
preprocessor = ColumnTransformer(
transformers=[
("num", numeric_transformer, numeric_features),
("cat", categorical_transformer, categorical_features),
]
)
наш финальный пайп где мы собрали трансформеры который имеет поведение модели.
clf = Pipeline(
steps=[("preprocessor", preprocessor), ("classifier", RandomForestClassifier(random_state=42))]
)
#теперь когда мы создали план действий делим данные
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
clf.fit(X_train, y_train)
print("model score for training set: %.3f" % clf.score(X_train, y_train))
print("model score for testing set: %.3f" % clf.score(X_test, y_test))
X_train[numerical_cols]=minMax_scaler.fit_transform(X_train[numerical_cols])
X_test[numerical_cols]=minMax_scaler.transform(X_test[numerical_cols])