Informações Principais
     Resumo
     Abstract
     Introdução
     Conclusão
     Download
  
  
  
 
Conclusão
 
 
Acadêmico(a): Leandro Starke
Título: RITA: UTILIZANDO MACHINE LEARNING NO PROCESSO DE PUMP SIZING EM BOMBAS DE CAVIDADES PROGRESSIVAS
 
Conclusão:
Este trabalho tinha como objetivo o desenvolvimento de um protótipo que aplique algoritmos de Machine Learning para predizer interferências ideais para o cálculo das dimensões do helicoide em rotores de bombas BCP. Além disso, atualmente não existe um procedimento ou software que faça tal analise para ao menos auxiliar o usuário nesta tarefa. Todos os dados e técnicas utilizadas neste trabalho foram obtidas pela empresa Netzsch do Brasil, onde foram utilizados dados históricos do ano de 2017. Em resumo, foram utilizados cerca de 1250 testes para a análise e construção deste protótipo. Ao iniciar a construção do protótipo foi estabelecido que a primeira etapa a ser realizada seria a organização, centralização e importação de todos as informações necessários para um único banco de dados. Contudo, esta atividade mostrou-se uma tarefa árdua pois, as informações estavam registradas em planilhas Excel e não tinham nenhum tipo de controle sobre os registros, ou seja, durante o processo de importação houveram várias falhas por falta de informação, erros de digitação, informações que eram consideradas inválidas, porém, ainda estavam disponíveis nas planilhas. Grande parte dos problemas encontrados foram percebidos apenas na fase de construção do Dataframe, onde, durante a implementação viu-se que haviam dimensões que estavam muito diferentes das dimensões do modelo, identificações de testes com número repetido, entre outros. A cada problema encontrado era necessária identificar a causa, fazer a correção e novamente iniciar o processo de importação. Depois de ter os dados organizados, a segunda etapa tinha como objetivo a criação do Dataframe. Nesta etapa foram utilizadas as bibliotecas Pandas e Numpy juntamente com a linguagem Python. Além disso, foram feitas várias reuniões com o departamento de engenharia da Netzsch do Brasil para entender o processo atual, seu funcionamento, suas particularidades, exceções e definir quais características importadas do processo anterior são utilizadas e relevantes no processo para o processo atual. Também, identificou-se a necessidade de novos parâmetros dos quais tiveram que ser obtidos através de cálculos. Na terceira etapa, realizou-se a aplicação dos algoritmos de Machine Learning através das bibliotecas scikit-learn, Polyfit e Polyval. A partir disso, identificou-se a necessidade de normalização do Dataframe, onde, colunas tiveram que ser convertidos para a aplicação dos algoritmos. No entanto, este objetivo foi atendido parcialmente, pois se obteve predições certas e erradas. Isto aconteceu devido ao fato de que nem sempre o acervo histórico de testes, utilizados pelos algoritmos, continha testes de bombas ideais para serem utilizados nas predições, ou seja, o método de busca utilizando o KNN sempre trazia vizinhos mais próximos mesmo que estes não atendiam alguns requisitos, isto afetava a predição tanto pelo método KNN quanto pela Regressão Polinomial. Contudo, conclui-se que não é possível realizar uma predição ideal utilizando os algoritmos KNN e regressão polinomial. Também identificou-se a necessidade do apoio do usuário em relação a eliminação de possíveis outliers do conjunto de treinamento, obtendo assim uma maior veracidade nas predições feitas pelos algoritmos.