Exercicio 4 - versão 2
versao 2 - modifiquei os valores para o max_features e para para
os neuronios da camada escondida.
Data de entrega 15/5
Use os dados do arquivo abalone
Faça os pre-processamentos do exercicio 3.
Usando um 5-fold externo para calcular a accuracia, e um 3-fold
interno para a escolha dos hyperparametros, determine qual algoritimo
entre kNN, SVM com kernel RBF, redes neurais, Random Forest, e Gradient Boosting
Machine tem a maior acuracia. Imprima a acuracia com 3 digitos.
- Para o kNN, faça um PCA que mantem 90% da variancia. Busque os
valores do k entre os valores 1, 5, 11, 15, 21, 25.
- Para o SVM RBF teste para C=2**(-5), 2**(0), 2**(5), 2**(10) e
gamma= 2**(-15) 2**(-10) 2**(-5) 2**(0) 2**(5).
- Para a rede neural, teste com 3, 7, 10, e 20 neuronios na camada
escondida.
- Para o RF, teste max_features = 2, 3, 5, 7 e n_estimators
= 100, 200, 400 e 800.
- Para o GBM (ou XGB) teste para numero de arvores = 30, 70, e 100,
com learning rate de 0.1 e 0.05, e profundidade da arvore=5.Voce pode
tanto usar a versao do SKlearn ou o XGBoost.
- Voce nao precisam fazer os loops da validacao cruzada
explicitamente. Pode usar a função GridSearchCV do SKlearn..
- Reporte a acuracia (com 3 digitos) de cada algoritmo calculada pelo 5-fold CV
externo.
- Para o algoritmo com maior accuracia, reporte o valor dos
hiperparamtertos obtidos para gerar o classificador final.
Last modified: Thu May 4 11:22:10 BRT 2017