Visita del Prof. Darrell Whitley (Computer Science Department, Colorado State University, USA) a la ESI 20 febrero 2020
Presencias en la ESI
El próximo martes 25 de febrero, de 16:00h a 18:00h, en el Salón de Grados de la Escuela Superior Ingeniería, contaremos con la presencia del Prof. Darrell Whitley (Computer Science Department, Colorado State University, USA), quien impartirá una conferencia titulada Neural Darwinism: Optimal Neuron Selection as Pseudo-Boolean Optimization.
El Prof. Whitley ha sido recientemente nombrado ACM Fellow por su «liderazgo técnico y profesional en el campo de la computación genética y evolutiva», convirtiéndose en el primer investigador en este campo en recibir este galardón. Es el padre del algoritmo GENITOR y, por tanto, de lo que actualmente se conoce como algoritmo genético de estado estacionario. Este tipo de algoritmos presentan notables ventajas sobre los algoritmos genéticos tradicionales en numerosas aplicaciones prácticas. General Electric ha reconocido la contribución de los algoritmos genéticos de estado estacionario creados por el Prof. Whitley en los 80 al diseño y optimización de los motores a reacción de los Boeing 777. Las contribuciones del Prof. Whitley a la computación evolutiva incluyen además el algoritmo de selección por rangos, diversos métodos innovadores para resolver el problema del viajante de comercio y nuevos algoritmos para crear túneles entre óptimos locales que permiten mejorar las soluciones encontradas en problemas de optimización. Sus numerosas contribuciones se plasman en más de 200 trabajos, incluyendo el primer artículo científico sobre neuroevolución en inteligencia artificial. Sus obras acumulan más de 20 000 citas, convirtiéndole en uno de los autores más reputados y citados de su disciplina.
Resumen de la conferencia
Neural Darwinism: Optimal Neuron Selection as Pseudo-Boolean Optimization
In his theory “Neural Darwinism” Nobel prize winner Gerald Edelman proposed that the most fundamental mechanism used by the brain for learning is neuron selection, where randomly generated neural circuits are turned on and off. This talk explores how machine learning can be achieved by turning on and off neurons in a special hidden layer of a neural network. By posing the neuron selection problem as a pseudo-Boolean optimization problem with bounded tree width, an exact global optimum can be obtained to this restricted form of the neuron selection problem in O(n) time. To illustrate the effectiveness of neuron selection, the method is applied to optimizing a modified Echo State Network for two learning problems: 1) Mackey-Glass time series prediction and 2) a reinforcement learning problem using a recurrent neural network. Empirical tests indicate that neuron selection results in rapid learning and, more importantly, improved generalization.