Este Livro descreve de forma detalhada e didática, mostrando passo-a-passo, como fazer o treinamento de uma Rede Neural Artificial usando vários algoritmos e arquiteturas empregadas em Packages e Toolboxes dos principais softwares de Machine Learning. São apresentados diversos exemplos para entender os conceitos e fundamentos da aprendizagem de um neurônio artificial. Background Matemático: como é necessário conhecimento prévio de determinados resultados de cálculo, no Capítulo 2 são apresentados os conceitos de derivada, derivada direcional e o método do gradiente descendente que servem de base para o entendimento do algoritmo de backpropagation. Perceptron: é o primeiro modelo e o mais simples, proposto por Rosenblatt em 1958, usado para representar matematicamente um neurônio. No Capítulo 3 o percetron é explorado e suas limitações são expostas. Perceptrons de Múltiplas Camadas: após vários anos de estagnação, décadas de 1960 e 1970, as RNA voltam a receber atenção com os Perceptrons de Múltiplas Camadas (MLP) treinados com o algoritmo de backpropagation, apresentado no Capítulo 4. Nessa sequência este Livro explora variantes do MLP, sendo examinadas detalhamente as variantes QPROP, RPROP, DELTA-BAR-DELTA e LMBP. Para mostrar que os cálculos correspondem exatamente ao que é programado, os resultados são comparados com importantes funções do MATLAB® e a seguir são mostradas todas as linhas de programação usando comandos do PythonTM.
Peso: | 1.205 kg |
Número de páginas: | 524 |
Ano de edição: | 2024 |
ISBN 10: | 6558423510 |
ISBN 13: | 9786558423515 |
Altura: | 28 |
Largura: | 21 |
Comprimento: | 3 |
Edição: | 1 |
Idioma : | Português |
Tipo de produto : | Livro |
Assuntos : | Tecnologia |
Nós usamos cookies para melhorar a sua experiência no site e, ao continuar navegando, você concorda com essas condições. Acesse o nosso Portal de Privacidade para visualizar nossas Política de Privacidade, Política de Cookies e Termo de Compromisso e Uso do Site.
Avaliações