Regressão linear numpy

Regressão linear numpy

“Estamos vivendo em uma época em que estamos cercados por ciência de dados, conjuntos de dados maiores, computadores de alta potência computacionais e inteligência artificial. A ciência de dados e a inteligência artificial foram para a navegação autônoma de veículos; As imagens são reconhecidas por eles, decidindo setores de energia e financeiro, setores do mercado de ações e nossos círculos sociais também foram revolucionados pelo aprendizado de máquina e depois pelo avanço nas ciências biomédicas. A regressão linear é uma das técnicas de aprendizado de máquina mais importantes que nos permitem realizar análises estatísticas de dados ou cálculos científicos, e qualquer campo que escolhemos onde queremos ir artificialmente inteligente, encontraremos regressão linear.

A regressão linear é um método no aprendizado de máquina que é usado para aprender a relação entre uma variável dependente, digamos "y" e as várias variáveis ​​independentes "x". Com base nessa relação entre as variáveis, a regressão linear prevê os eventos futuros para o "y". As variáveis ​​na regressão linear são os recursos que representam os atributos da observação, e a observação é o ponto de dados no conjunto de dados. A saída prevista depende dessas observações e dos recursos. As aplicações de regressão linear incluem a previsão dos preços das casas, dependendo dos recursos (como a área da casa, os quartos que possui, o interior da casa), previsão do tempo, previsão do mercado de ações, etc.”

Procedimento

O artigo mostrará o método de implementação para os modelos de regressão linear. Aplicaremos esse modelo a um conjunto de dados e, para implementar esse modelo, seguiremos algumas etapas para primeiro treinar o modelo para aprender a prever e depois testaremos o modelo para verificar o quão perto a previsão do modelo é para a saída real.

Sintaxe

A sintaxe para o modelo de regressão é a seguinte:

$ modelo = regressão linear ()


Usaremos a função mencionada acima para implementar o modelo de regressão, ajustando o conjunto de dados a este modelo. Treinaremos os dados sobre o modelo de regressão linear para estimar o valor da saída usando a hipótese e a função de perda como:

Y_predicTict (h (x) = b0 + b1*x), que é o valor previsto para a resposta de saída "y" do modelo.

Função de perda = real_y - y_predict

Valor de retorno

O valor de retorno para o modelo de regressão é contínuo, pois a regressão possui uma variável dependente contínua como saída, "y" e várias variáveis, "x", que podem ser discretas ou contínuas.

Exemplo # 01

Vamos começar a implementar o modelo de regressão linear. Para a implementação desta função, usaremos o intérprete "Spyder" do Python. Para começar a implementar o modelo, teríamos que aplicar certas funções e classes dos diferentes pacotes de bibliotecas. A primeira e principal biblioteca para esta implementação seria o "Numpy". Todos estamos familiarizados com esta biblioteca Numpy, pois isso permite as operações e a implementação das matrizes multidimensionais e das matrizes, e é um pacote de código aberto. Isso será usado no programa para implementar a matriz com diferentes dimensões.

Outro pacote importante é o “Scikit-Learn”. Este pacote é construído no Numpy e permite a redução de pré-processamento e dimensionalidade de dados e implementa os modelos de regressão, classificações e agrupamentos. Usaremos este pacote para a implementação do modelo de regressão linear em Python. Para importar este pacote, usaremos o comando "importar" Numpy com o prefixo chamado "NP" e, depois do pacote do Scikit Learn, importaremos o modelo de regressão linear como “da Sklearn.linear_model importar regressão linear ”.

Depois de importar esses pacotes, agora é a hora de criar os dados com os quais queremos trabalhar e fazer isso, definiremos a variável dependente (saída) como "y" e a variável independente (regressor) como "x". Para este exemplo, manteremos essas variáveis ​​simples como um objeto de matriz 1-D, e isso marca os dados mais simples para a regressão. Vamos declarar o "x" como o "np". Array ([2, 12, 22, 32, 42, 52]). Reshape (-1, 1) ”e o“ y ”como“ np. Array ([2, 10, 14, 20, 32, 36]) ”. O y é unidimensional e reformulamos o X a ser (-1, 1), pois queremos que o X tenha apenas uma coluna e várias linhas, por isso tem duas dimensões como a forma do x é (6, 1).

Agora, ajustaremos essas variáveis ​​ao modelo de regressão linear e, para isso, chamaremos o método de "regressão linear (). ajuste (x, y) ”e atribua -o à variável“ modelo ”. Depois de ajustarmos o modelo agora, verifique se o modelo funciona ou não ligando e aplicando o “.pontuação "no modelo como" modelo. Pontuação (x, y) ”. O .A pontuação também toma o preditor como "x" e a resposta como "y", e dá o r^2, que é o coeficiente da determinação, o que significa que ele diz como o modelo pode fazer previsões.

Agora, para verificar os valores dos atributos da “Hipótese = B0 +B1*X”, usaremos o “Modelo. interceptar ", que dará" B0 "e" Modelo. Coef_ ”que retornará o valor de“ B1 ”, que são os valores estimados do modelo para o“ y ”. Agora, depois de obter esses valores, prevemos usar o modelo chamando o “modelo. prever (x) ”e salvá -lo no y_predict. A resposta será prevista pelo modelo e, portanto, treinamos nosso modelo; Agora, para testar como o modelo funciona no conjunto de dados de teste, passaremos os novos valores de x para os parâmetros do “modelo. prever (x_new) ”. O modelo fornecerá os valores previstos como uma resposta à saída para o recém -definido "X". O código para o treinamento e depois o teste do modelo de regressão linear é apresentado abaixo na figura.


Conclusão

Treinamos um modelo, que é "regressão linear", do Numpy e Scikit Learn em um conjunto de dados para prever a resposta para o conjunto de dados e depois testamos esse modelo para prever a resposta para o novo conjunto de dados.