Delovi materijala su preuzeti iz skripte "Mašinsko učenje" profesora Mladena Nikolića
Sledeći kod je većinski preuzet od asistenata Anđelke Zečević i Milana Čugurovića sa časova vežbi iz Mašinskog učenja.
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn import model_selection
from sklearn import preprocessing
from sklearn import metrics
Prvo ćemo učitati podatke i pripremiti ih za treniranje i testiranje.
data = pd.read_csv('diabetes.csv')
data.head()
Pregnancies | Glucose | BloodPressure | SkinThickness | Insulin | BMI | DiabetesPedigreeFunction | Age | Outcome | |
---|---|---|---|---|---|---|---|---|---|
0 | 6 | 148 | 72 | 35 | 0 | 33.6 | 0.627 | 50 | 1 |
1 | 1 | 85 | 66 | 29 | 0 | 26.6 | 0.351 | 31 | 0 |
2 | 8 | 183 | 64 | 0 | 0 | 23.3 | 0.672 | 32 | 1 |
3 | 1 | 89 | 66 | 23 | 94 | 28.1 | 0.167 | 21 | 0 |
4 | 0 | 137 | 40 | 35 | 168 | 43.1 | 2.288 | 33 | 1 |
y = data['Outcome']
X = data.drop(columns=['Outcome'], axis=1)
X_train, X_test, y_train, y_test = model_selection.train_test_split(
X, y, test_size=0.33, stratify=y, random_state = 7)
scaler = preprocessing.StandardScaler()
scaler.fit(X_train)
X_train = scaler.transform(X_train)
X_test = scaler.transform(X_test)
Funkcije za rad sa ansamblima su dostupne kroz ensamble paket scikit-learn biblioteke.
from sklearn import ensemble
Na nivou ansambla se može zadati broj stabala koja se treniraju (n_estimators parametar), kao i svojstva koja prate stabla (kriterijum homogenosti, maksimalna dubina stabla, maksimalni broj atributa,..). Svojstvom max_samples se može uticati na veličinu podskupa instanci nad kojim se stabla treniraju. Praksa je da se kroz random_state parametar prati slučajnost u podelama kako bi eksperimenti mogli da se reprodukuju.
model_forest = ensemble.RandomForestClassifier(n_estimators=20, max_depth=3, random_state=7)
model_forest.fit(X_train, y_train)
RandomForestClassifier(max_depth=3, n_estimators=20, random_state=7)In a Jupyter environment, please rerun this cell to show the HTML representation or trust the notebook.
RandomForestClassifier(max_depth=3, n_estimators=20, random_state=7)
y_predicted = model_forest.predict(X_test)
metrics.accuracy_score(y_test, y_predicted)
0.7598425196850394
Sada i grafik pojedinačnih važnosti atributa izgleda nešto drugačije.
plt.barh(list(X.columns), model_forest.feature_importances_)
plt.show()
Važno je napomenuti da se slučajne šume mogu kreirati i nad drugim baznim modelima podešavanjem parametra base_estimator, ali je u praksi najprisutniji rad sa samim stablima odlučivanja.