Я использую метод scikit-learn "permutation_test_score", чтобы оценить значимость моей работы оценщика. К сожалению, я не могу понять из документации scikit-learn, реализует ли метод какое-либо масштабирование данных. Я использую для стандартизации своих данных с помощью StandardScaler, чтобы применить стандартизацию обучающего набора к набору тестирования.
Масштабирование в scikit-learn permutation_test_score
comment
посмотри мой ответ и дай мне знать
- person seralouk   schedule 12.07.2018
Ответы (1)
Сама функция не применяет никакого масштабирования.
Вот пример из документации:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.svm import SVC
from sklearn.model_selection import StratifiedKFold
from sklearn.model_selection import permutation_test_score
from sklearn import datasets
iris = datasets.load_iris()
X = iris.data
y = iris.target
n_classes = np.unique(y).size
# Some noisy data not correlated
random = np.random.RandomState(seed=0)
E = random.normal(size=(len(X), 2200))
# Add noisy data to the informative features for make the task harder
X = np.c_[X, E]
svm = SVC(kernel='linear')
cv = StratifiedKFold(2)
score, permutation_scores, pvalue = permutation_test_score(
svm, X, y, scoring="accuracy", cv=cv, n_permutations=100, n_jobs=1)
Однако вы можете передать permutation_test_score
a pipeline
, где вы применяете масштабирование.
Пример:
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
pipe = Pipeline([('scaler', StandardScaler()), ('clf', SVC(kernel='linear'))])
score, permutation_scores, pvalue = permutation_test_score(
pipe, X, y, scoring="accuracy", cv=cv, n_permutations=100, n_jobs=1)
person
seralouk
schedule
12.07.2018
Большое спасибо seralouk. Это решение, которое я искал.
- person hank7v; 12.07.2018