Materia
Inteligencia Empotrada. Aprendizaje Automático
Datos generales de la materia
- Modalidad
- Presencial
- Idioma
- Castellano
Descripción y contextualización de la asignatura
El objetivo del curso es capacitar al alumno en la aplicación y el diseño de paradigmas de aprendizaje automático para afrontar problemas de diferentes características de una manera eficiente. El alumno adquirirá la capacidad de aplicar las técnicas propuestas en la bibliografía más adecuadas al problema a resolver y a modificar o diseñar nuevos paradigmas que se adapten mejor a la resolución del problema teniendo en cuenta las restricciones que se derivan de tener que ser aplicados en el ámbito de dispositivos empotrados.Para ello, se estudiarán las características de algoritmos actuales desde diferentes puntos de vista: eficacia, eficiencia, capacidades explicativas, restricciones de tiempo y espacio, estabilidad, etc. Se presentarán diferentes esquemas de combinación de algoritmos con el objetivo de mejorar el rendimiento de los mismos y se propondrán diferentes metodologías a la hora de comparar el rendimiento de dichos sistemas. A lo largo del curso, se presentarán algunas aplicaciones con las que el grupo investigador ha trabajado en el área del aprendizaje automático.
Profesorado
Nombre | Institución | Categoría | Doctor/a | Perfil docente | Área | |
---|---|---|---|---|---|---|
ARBELAIZ GALLEGO, OLATZ | Universidad del País Vasco/Euskal Herriko Unibertsitatea | Profesorado Pleno | Doctora | Bilingüe | Arquitectura y Tecnología de Computadores | olatz.arbelaitz@ehu.eus |
GURRUTXAGA GOIKOETXEA, IBAI | Universidad del País Vasco/Euskal Herriko Unibertsitatea | Profesorado Agregado | Doctor | Bilingüe | Arquitectura y Tecnología de Computadores | i.gurrutxaga@ehu.eus |
PEREZ DE LA FUENTE, JESUS MARIA | Universidad del País Vasco/Euskal Herriko Unibertsitatea | Profesorado Agregado | Doctor | Bilingüe | Arquitectura y Tecnología de Computadores | txus.perez@ehu.eus |
Competencias
Denominación | Peso |
---|---|
Diseñar, programar y evaluar sistemas de tiempo real | 100.0 % |
Tipos de docencia
Tipo | Horas presenciales | Horas no presenciales | Horas totales |
---|---|---|---|
Magistral | 24 | 25 | 49 |
Seminario | 6 | 5.5 | 11.5 |
P. de Aula | 4 | 5.5 | 9.5 |
P. Ordenador | 6 | 24 | 30 |
Actividades formativas
Denominación | Horas | Porcentaje de presencialidad |
---|---|---|
Clases magistrales | 30.0 | 49 % |
Prácticas de ordenador | 70.0 | 20 % |
Sistemas de evaluación
Denominación | Ponderación mínima | Ponderación máxima |
---|---|---|
Examen escrito (teoría) | 30.0 % | 30.0 % |
Resolución problemas y Asistencia | 20.0 % | 20.0 % |
Trabajos Prácticos | 50.0 % | 50.0 % |
Convocatoria ordinaria: orientaciones y renuncia
El curso se evaluará teniendo en cuenta los siguientes apartados: asistencia y participación, actividades prácticas (individuales/grupales) y examen de conocimientos mínimos.Convocatoria extraordinaria: orientaciones y renuncia
Mismas orientaciones que en la convocatoria ordinariaTemario
Tema 1 – IntroducciónInteligencia empotrada
Aprendizaje automático. Fases. Tipos de aprendizaje. Clasificación supervisada y no supervisada
Tema 2 – Paradigmas de aprendizaje supervisado
Teoría bayesiana de la decisión. Naive-Bayes. Métodos paramétricos y no paramétricos
Clasificación supervisada:
Clasificadores basados en kernels, kNN o clasificadores basados en vecindad
Árboles de clasificación
Redes neuronales artificiales
Support Vector Machine
Tema 3 – Combinación de clasificadores
Introducción y motivación
Taxonomías: en cuanto a forma y en cuanto a objetivo
Técnicas para generar diferentes clasificadores individuales
Ejemplos: Bagging, CTC, Boosting, Random Subspace Method
Tema 4 – Evaluación – Validación en el aprendizaje supervisado
Evaluación y validación de un clasificador, de un algoritmo (estadísticos, Dieterich, Demsar...)
Tema 5 – Selección de características
Introducción y motivación
Métodos Filter
Métodos Wrapper
Tema 6 – Paradigmas de aprendizaje no supervisado
Técnicas de agrupamiento ó clustering
- Partitivos, jeráquicos
- Ejemplos: k-Means, SAHN, DBSCAN
Evaluación y validación en clustering
Otras técnicas de aprendizaje no supervisado
Tema 7 – Trabajos – Prácticas
Desarrollo de una práctica real en el contexto de alguna de las aplicaciones explicadas en el curso.
Bibliografía
Materiales de uso obligatorio
No se contempla el uso de materiales obligatoriosBibliografía básica
Camastra F., Vinciarelli A.: Machine Learning for Audio, Image and video Analysis. Theory and Applications. Springer-Verlag, 2008.ERCIM NEWS: European Research Consortium for Informatics and Mathematics, Special: Embedded Intelligence, N. 67, 2006.
Hernández J., Ramírez M.J., Ferri C.: Introducción a la Minería de Datos. Pearson Prentice Hall, 2004.
Hastie T., Tibshirani R. Friedman J.: The Elements of Statistical Learning. Data Mining, Inference and Prediction. Springer-Verlag, 2001.
Kittler J., Roli F.: Lecture Notes in Computer Science Vol. 1857. Multiple Classifier Systems: 1st. Inter. Workshop, MCS 2000, Cagliari, Italy, Springer,2000.
Witten I.H., Frank E.: Data Mining. Practical Machine Learning Tools and Techniques. Morgan Kaufmann, 2005.
Bibliografía de profundización
B. Sierra (coordinador): Aprendizaje Automático: conceptos básicos y avanzados. Aspectos prácticos utilizando el software WEKA, Pearson Prentice Hall, 2006.L. Escudero: Reconocimiento de Patrones. Ed: Paraninfo ISBN: 84-283-0898-5, 1977.
B. V. Dasarathy: Nearest Neighbor(NN) Norms: NN Pattern Classification Techniques. Ed: IEEE Computer Society Press., 1991.
R.P. Lippmann: An Introduction to Computing with Neural Nets. IEEE ASSP, pp. 4-22, April 1987.
D. E. Rumelhart, G. E. Hinton, R. J. Williams: Learning Internal Representations by Error Propagation. D.E. Rumelhart, J. MacClelland (Eds.), Parallel Distributed Processing: Explorations in the Microstructure of Cognition, vol. 1: Foundations. The Massachusetts Institute of Technology, Cambridge, MA, USA, 1986.
J. R. Quinlan: Induction of Decision Trees. Machine Learning, 1, pp. 81-106, 1986.
A.K. Jain, R.C. Dubes: Algorithms for clustering data. Prentice-Hall, Inc., 1988.
H. Kargupta, P. Chan(ed.): Advances in Distributed and Parallel Knowledge Discovery. AAAI Press / The MIT Press, California, 2000.
Y. Lu: Machine Printed Character Segmentation-An overview. Pattern Recognition, Vol. 28, No. 1, pp. 67-80, 1995.
S. Impedovo, L. Ottaviano, S. Occhinegro: Optical Character Recognition - A Survey. Character & Handwriting Recognition, Ed: P.S.P. Wang, pp. 1-24, World Scientific series in Computer Science, Vol. 30, 1991.
T. Pavlidis: Structural Pattern Recognition. Ed: Springer-Verlag, Berlín 1977.
Revistas
Pattern RecognitionPattern Recognition Letters
Enlaces
http://www.cs.waikato.ac.nz/ml/weka/index.htmlhttp://en.wikipedia.org
http://www.csie.ntu.edu.tw/~cjlin/libsvm/
https://es.mathworks.com/support/learn-with-matlab-tutorials.html