Please use this identifier to cite or link to this item: http://hdl.handle.net/2445/122446
Title: Machine Learning: modelos ocultos de Markov (HMM) y redes neuronales artificiales (ANN)
Author: Tornero Lucas, Juan
Director/Tutor: Vives i Santa Eulàlia, Josep, 1963-
Keywords: Processos estocàstics
Treballs de fi de grau
Xarxes neuronals (Informàtica)
Algorismes computacionals
Stochastic processes
Bachelor's thesis
Neural networks (Computer science)
Computer algorithms
Issue Date: 29-Jun-2017
Abstract: [es] El comienzo del siglo XXI ha visto el nacimiento de una nueva revolución, la de la información. Sólo entre 2013 y 2015 la humanidad generó más datos que en toda su historia previa. Esta avalancha de bytes ha servido como catalizador para el desarrollo de herramientas capaces de clasificar grandes cantidades de información. Es en este marco donde los denominados algoritmos de Machine Learning han encontrado un terreno fértil donde prosperar. Se define Machine Learning como la disciplina del ámbito de la Inteligencia Artificial que crea mecanismos capaces de aprender de forma autónoma. En general, la característica principal de todos los algoritmos de este tipo es que su comportamiento está determinado por una serie de parámetros, y mediante el empleo de grandes muestras de entrenamiento, se busca modificar estos parámetros de manera que el algoritmo sea capaz de llevar a cabo una tarea clasificatoria de manera eficaz. Dos de los mecanismos de Machine Learning más famosos son los Modelos Ocultos de Markov (HMM) y las Redes Neuronales Artificiales (ANN). Los HMM se enmarcan dentro de la teoría de las Cadenas de Markov, y aunque estos procesos estocásticos son conocidos desde su introducción en 1907 por el matemático ruso Andréi Markov, la gran cantidad de aplicaciones prácticas que tienen los ha convertido en uno de los modelos probabilísticos más empleados en la actualidad. Por otro lado, las Redes Neuronales Artificiales son un modelo computacional basado en el comportamiento de las neuronas en los cerebros biológicos. Ya en los años 50 se crearon los primero algoritmos de este tipo, pero en 1969 Minsky y Papert demostrarón que estos primeros ANN’s eran incapaces de procesar el operador lógico XOR (disyuntor lógico de dos operandos que solo es cierto cuando los dos valores de entrada son diferentes), lo cual fue un duro golpe para este campo. Sin embargo, en 1975 este obstáculo fue superado por Paul Werbos con la creación del algoritmo de Back-Propagation, y hoy en día esta técnica se encuentra en pleno renacimiento, con compañías como Google o Facebook usando ANN’s de gran complejidad en muchos de sus algoritmos estrella. En este trabajo estudiamos primero procesos en espacios de secuencias, marco teórico de las cadenas Markov, y daremos unos cuantos resultados importantes como la existencia y unicidad de estos procesos empleando una versión del Teorema de Extensión de Kolmogorov. Continuaremos definiendo qué es una cadena de Markov y comentaremos sus principales características y propiedades En el tercer capítulo analizamos los Modelos Ocultos de Markov y daremos algunos ejemplos que hemos utilizado en la realidad. El cuarto capítulo estará dedicado a las Redes Neuronales Artificiales: definiciones básicas, componentes y principales algoritmos que se emplean, así como un par de ejemplos donde se aplican. En el último capítulo terminamos dando las nociones de cómo sería un modelo que combinara ANN’s y HMM’s para poder explotar las principales ventajas de ambos.
Note: Treballs Finals de Grau de Matemàtiques, Facultat de Matemàtiques, Universitat de Barcelona, Any: 2017, Director: Josep Vives i Santa Eulàlia
URI: http://hdl.handle.net/2445/122446
Appears in Collections:Treballs Finals de Grau (TFG) - Matemàtiques

Files in This Item:
File Description SizeFormat 
memoria.pdfMemòria1.04 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons