Índice:
- Selecionando por medidas univariadas
- Ao usar uma seleção univariada, você deve decidir por si próprio quantas variáveis manter: a seleção gananciosa reduz automaticamente o número de recursos envolvidos em um modelo de aprendizagem com base em sua contribuição efetiva para a desempenho medido pela medida de erro.
Vídeo: Python - Intro to Computer Science - Harvard's CS50 (2018) 2024
Selecionar as variáveis corretas no Python pode melhorar o processo de aprendizagem na ciência dos dados reduzindo a quantidade de ruído (inútil informação) que podem influenciar as estimativas do aluno. A seleção variável, portanto, pode efetivamente reduzir a variância das previsões. Para envolver apenas as variáveis úteis no treinamento e excluir os redundantes, você pode usar essas técnicas:
-
Abordagem univariada: Selecione as variáveis mais relacionadas ao resultado alvo.
-
Abordagem gananciosa ou inversa: Mantenha apenas as variáveis que você pode remover do processo de aprendizagem sem prejudicar seu desempenho.
Selecionando por medidas univariadas
Se você decidir selecionar uma variável pelo seu nível de associação com seu alvo, a classe SelectPercentile fornece um procedimento automático para manter apenas uma certa porcentagem das melhores características associadas. As métricas disponíveis para associação são
-
f_regression: usado apenas para alvos numéricos e com base no desempenho de regressão linear.
-
f_classif: Usado apenas para alvos categóricos e com base no teste estatístico Análise de Variância (ANOVA).
-
chi2: Executa a estatística do qui-quadrado para alvos categóricos, o que é menos sensível à relação não-linear entre a variável preditiva e seu alvo.
Ao avaliar candidatos para um problema de classificação, f_classif e chi2 tendem a fornecer o mesmo conjunto de variáveis superiores. Ainda é uma boa prática testar as seleções de ambas as métricas de associação.
Além de aplicar uma seleção direta das associações percentile superiores, SelectPercentile também pode classificar as melhores variáveis para facilitar a decisão em que percentil excluir uma característica de participar do processo de aprendizagem. A classe SelectKBest é análoga em sua funcionalidade, mas seleciona as principais variáveis k, onde k é um número, não um percentil.
da sklearn. feature_selection import SelectPercentile from sklearn. feature_selection import f_regression Selector_f = SelectPercentile (f_regression, percentile = 25) Selector_f. caber (X, y) para n, s em zip (boston. feature_names, Selector_f. scores_): imprimir 'F-score:% 3. 2 pés para o recurso% s '% (s, n) F-score: 88. 15 para a função CRIM F-score: 75. 26 para o recurso ZN F-score: 153. 95 para o recurso INDUS F-score: 15. 97 para com CHAS F-score: 112. 59 para o recurso NOX F-score: 471. 85 para o recurso RM F-score: 83.48 para o recurso AGE F-score: 33. 58 para o recurso DIS F-score: 85. 91 para o recurso RAD F-score: 141. 76 para o recurso TAX F-score: 175. 11 para o recurso PTRATIO F-score: 63. 05 para o recurso B F-score: 601. 62 para o recurso LSTAT
O uso do nível de resultado da associação ajuda você a escolher as variáveis mais importantes para o seu modelo de aprendizado de máquina, mas você deve estar atento a esses possíveis problemas: > Algumas variáveis com alta associação também podem ser altamente correlacionadas, introduzindo informações duplicadas, que atua como ruído no processo de aprendizagem.
-
Algumas variáveis podem ser penalizadas, especialmente binárias (variáveis que indicam um status ou característica usando o valor 1 quando está presente, 0 quando não é). Por exemplo, observe que a saída mostra a variável binária CHAS como a menor associada à variável alvo (mas você sabe dos exemplos anteriores que é influente da fase de validação cruzada).
-
O processo de seleção univariado pode dar-lhe uma vantagem real quando você possui um grande número de variáveis a serem selecionadas e todos os outros métodos tornam-se inválidos computacionalmente. O melhor procedimento é reduzir o valor do SelectPercentile em metade ou mais das variáveis disponíveis, reduzir o número de variáveis para um número gerenciável e, conseqüentemente, permitir o uso de um método mais sofisticado e preciso, como uma busca gananciosa.
Usando uma busca gananciosa
Ao usar uma seleção univariada, você deve decidir por si próprio quantas variáveis manter: a seleção gananciosa reduz automaticamente o número de recursos envolvidos em um modelo de aprendizagem com base em sua contribuição efetiva para a desempenho medido pela medida de erro.
A classe RFECV, ajustando os dados, pode fornecer-lhe informações sobre o número de recursos úteis, apontá-lo para você e transformar automaticamente os dados X, pela transformação do método, para um conjunto de variáveis reduzidas, conforme mostrado em o seguinte exemplo:
da sklearn. feature_selection import RFECV selector = RFECV (estimator = regression, cv = 10, scoring = "mean_squared_error") seletor. Cópia ajustada (X, y) ("Número otimizado de recursos:% d"% seletor. n_features_) Número ótimo de recursos: 6
É possível obter um índice para a variável otimizada definida ao chamar o atributo support_ do RFECV classe depois de você se encaixar.
imprimir boston. Nome do recurso [seletor. Suporte_] ['CHAS "NOX" RM "DIS" PTRATIO "LSTAT']
Observe que o CHAS está agora incluído entre os recursos mais preditivos, o que contrasta com o resultado da pesquisa univariada. O método RFECV pode detectar se uma variável é importante, independentemente de ser binário, categórico ou numérico, porque ele avalia diretamente o papel desempenhado pelo recurso na predição.
O método RFECV é certamente mais eficiente, quando comparado com a abordagem não-variável, porque ele considera características altamente correlacionadas e está sintonizado para otimizar a medida de avaliação (que geralmente não é Qui-quadrado ou F-score). Sendo um processo ganancioso, é computacionalmente exigente e pode apenas se aproximar do melhor conjunto de preditores.
Como o RFECV aprende o melhor conjunto de variáveis a partir de dados, a seleção pode se superar, o que acontece com todos os outros algoritmos de aprendizado de máquina. Testar o RFECV em diferentes amostras dos dados de treinamento pode confirmar as melhores variáveis a serem usadas.