O que é regressão de cume?
Para aumentar a precisão da previsão, a técnica estatística conhecida como regressão de cume reduz a magnitude das estimativas de parâmetros. Funciona especialmente bem se o seu conjunto de dados contiver colunas correlacionadas que você tenta usar como entrada (variáveis independentes) em modelos de regressão, mas nenhum de seus modelos produziu resultados muito precisos. Em outras palavras, a regressão de cume é uma técnica de ajuste de modelo que é usada para qualquer análise de dados multicolineares. Os dados são submetidos à regularização de L2 usando este método.
A função de custo para a regressão de cume é:
Min (|| y - x (teta) ||^2 + λ || teta ||^2)O que é multicolinearidade?
O conceito de multicolinearidade é baseado em pesquisa estatística. Apenas quando suas variáveis independentes têm um grau significativo de correlação. A colinearidade não afeta diretamente a variável de resposta; Em vez disso, diz respeito às interações entre as variáveis ou características preditivas. As estimativas dos coeficientes de regressão podem ser imprecisas como resultado da multicolinearidade. Pode potencialmente aumentar os erros padrão do coeficiente de regressão e diminuir a eficácia de qualquer teste t. A multicolinearidade pode fornecer resultados e valores de p, aumentando a redundância do modelo e diminuindo a eficácia e a confiabilidade da previsibilidade.
Vantagens da regressão de cume
Implementando a regressão da Ridge em Sklearn
A importação requer as seguintes bibliotecas:
de Sklearn.Linear_model Import RidgeCrie o conjunto de dados usando o seguinte comando:
n_samples, n_features = 20, 4Saída:
Os recursos são [-2.55298982 0.6536186 0.8644362 -0.74216502]Criando e ajustando o modelo:
Model = Ridge (alfa = 1.0)Conclusão
Discutimos o modelo de regressão de Ridge no aprendizado de máquina que é usado para executar a regularização de L2 nos dados para evitar o excesso de ajuste. É uma versão avançada de uma regressão linear simples. Também discutimos sua implementação usando Sklearn.