Tesis defendidas del programa actual
Compendio de métodos para caracterizar la geometría de los tejidos cerebrales a partir de imágenes de resonancia magnética por difusión del agua
- Dirección:
- SALVADOR CIVIL, RAYMOND;
- YURRAMENDI MENDIZABAL, JESUS MARIA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2016
- Resumen:
La técnica de imagen de resonancia magnética por difusión es una modalidad de imagen de resonanciamagnética empleada para estudiar el proceso de difusión molecular del agua en tejidos biológicos. En losúltimos años esta técnica ha sido la principal herramienta para estudiar la microestructura y organizaciónespacial de los tejidos del cerebro de forma no invasiva. Entre los métodos de análisis que se hanpropuesto para modelar e interpretar los datos observados, el modelo del tensor de difusión fue el primeroen considerar la anisotropía del proceso de difusión del agua en el cerebro, donde la difusión ocurre deforma desigual en diferentes direcciones debido a la disposición espacial de los tejidos. Sin embargo, eneste modelo se asume que el proceso de difusión tiene una geometría elipsoidal, suposición inválida paramuchas regiones del cerebro que compromete la interpretación de los resultados. Tal limitación haimpulsado el reciente desarrollo de nuevos modelos teóricos, esquemas de medición y algoritmos dereconstrucción. A pesar de la notable mejora que introducen estos métodos en relación al tensor dedifusión, algunos de ellos tienen limitaciones prácticas y su formulación teórica aún se encuentra encreciente desarrollo; en otros, los métodos numéricos empleados en la estimación no son necesariamenteóptimos debido a que han obviado aspectos que podrían ser relevantes. Con el objetivo de extender yperfeccionar varias de las herramientas modernas dedicadas a la modelización de imágenes de resonanciamagnética por difusión, en el marco de esta tesis se presenta un compendio de métodos para obtenerestimadores más realistas de la estructura arquitectónica del cerebro humano. Las técnicas desarrolladasen este compendio encuentran aplicación en las neurociencias, la medicina y la psiquiatría. Estas han sidopublicadas en revistas científicas de alto impacto y son actualmente empleadas en el estudio de lasalteraciones cerebrales en pacientes con enfermedades mentales.
Ver más...
CANALES RODRIGUEZ, ERICK JORGE
Design science research in PhD education: designing for assistance tools
- Dirección:
- DIAZ GARCIA, OSCAR
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
scholars. Major conferences have tracks dedicated to DSR, and even leading journals have publishedspecial issues on it. In line with this momentum, DSR has also gained acceptance among PhD students.Indeed, DSR is well regarded for its ability to bring together theoretical and practical knowledge,addressing both rigor and relevance. But in exchange, DSR calls for high levels of commitment andmaturity. PhD students, as they are transitioning towards becoming independent researchers, usually lacksuch maturity. On top of that, the lack of widely accepted software tools for conducting DSR does nothelp.This Thesis is aimed at providing PhD students with tool support for carrying out DSR. To thatend, we focus on problematic situations related to four basic activities conducted throughout thedoctorate: inquiry, reading, writing and peer review. For each of these problems, a purposeful artifact isdesigned, developed and evaluated with real stakeholders. The outcome: DScaffolding and Review&Go,two browser extensions for Google Chrome currently in use by practitioners.
Ver más...
PEREZ CONTELL, JEREMIAS
Inteligencia computacional en sistemas de teleasistencia en domicilios
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA;
- LOPEZ GUEDE, JOSE MANUEL
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2018
- Resumen:
Este trabajo presenta un sistema inteligente de predicción del comportamiento de cara a prevenir situaciones de riesgo en el hogar, y que está orientado principalmente orientado a personas mayores. El sistema presenta una modelo híbrido basado en Reglas Heurísticas introducidas por expertos en el dominio, y un Módulo de Detección Automática de Patrones, conformado por un sistema combinado de clasificadores basados en técnicas de Inteligencia Artificial. El sistema ha sido probado en entornos reales y productivos en diversos domicilios. Para lograrlo, el sistema utiliza por un lado la información de sensores simples en el hogar, por otro el conocimiento de sus actividades físicas recopiladas por aplicaciones móviles y por último la información de salud personalizada basada en informes clínicos codificados en el sistema. Actualmente, se está implantando en condiciones reales, con una precisión superior al 81%.
Ver más...
MORENO FERNANDEZ DE LECETA, AITOR
Methodological contributions by means of machine learning methods for automatic music generation and classification
- Dirección:
- CONKLIN , DARRELL;
- MENDIALDUA BEITIA, IÑIGO;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
Ikerketa lan honetan bi gai nagusi landu dira: musikaren sorkuntza automatikoa eta sailkapena. Musikaren sorkuntzarako bertso doinuen corpus bat hartu da abiapuntu moduan doinu ulergarri berriak sortzeko gai den metodo bat sortzeko. Doinuei ulergarritasuna hauen barnean dauden errepikapen egiturek ematen dietela suposatu da, eta metodoaren hiru bertsio nagusi aurkeztu dira, bakoitzean errepikapen horien definizio ezberdin bat erabiliz.Musikaren sailkapen automatikoan hiru ataza garatu dira: generoen sailkapena, familia melodikoen taldekatzea eta konposatzaileen identifikazioa. Musikaren errepresentazio ezberdinak erabili dira ataza bakoitzerako, eta ikasketa automatikoko hainbat teknika ere probatu dira, emaitzarik hoberenak zeinek ematen dituen aztertzeko.Gainbegiratutako sailkapenaren alorrean ere binakako sailkapenaren gainean lana egin da, aurretik existitzen zen metodo bat optimizatuz. Hainbat datu baseren gainean probatu da garatutako teknika, baita konposatzaile klasikoen piezen ezaugarriez osatutako datu base batean ere.
Ver más...
GOIENETXEA URKIZU, IZARO
K-means for massive data
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- PEREZ MARTINEZ, ARITZ
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
The K-means algorithm is undoubtedly one of the most popular clustering analysis techniques, due to its easiness in the implementation, straightforward parallelizability and competitive computational complexity, when compared to more sophisticated clustering alternatives. Unfortunately, the progressive growth of the amount of data that needs to be analyzed, in a wide variety of scientific fields, represents a significant challenge for the K-means algorithm, since its time complexity is dominated by the number of distance computations, which is linear with respect to both the number of instances and dimensionality of the problem. This fact difficults its scalability on such massive data sets. Another major drawback of the K-means algorithm corresponds to its high dependency on the initial conditions, which not only may affect the quality of the obtained solution, but that may also have major impact on its computational load, as for instance, a poor initialization could lead to an exponential running time in the worst case scenario.In this dissertation we tackle all these difficulties. Initially, we propose an approximation to the K-means problem, the Recursive Partition-based K-means algorithm (RPKM). This approach consists of recursively applying a weighted version of K-means algorithm over a sequence of spatial-based partitions of the data set. From one iteration to the next, a more refined partition is constructed and the process is repeated using the optimal set of centroids, obtained at the previous iteration, as initialization. From practical stand point, such a process reduces the computational load of K-means algorithm as the number of representatives, at each iteration, is meant to be much smaller than the number of instances of the data set. On the other hand, both phases of the algorithm are embarrasingly parallel. From the theoretical standpoint, and in spite of the selected partition strategy, one can guarantee the non-repetition of the clusterings generated at each RPKM iteration, which ultimately implies the reduction of the total amount of K-means algorithm iterations, as well as leading, in most of the cases, to a monotone decrease of the overall error function. Afterwards, we report on a RPKM-type approach, the Boundary Weighted K-means algorithm (BWKM). For this technique the data set partition is based on an adaptative mesh, that adjusts the size of each grid cell to maximize the chances of each cell to have only instances of the same cluster. The goal is to focus most of the computational resources on those regions where it is harder to determine the correct cluster assignment of the original instances (which is the main source of error for our approximation). For such a construction, it can be proved that if all the cells of a spatial partition are well assigned (have instances of the same cluster) at the end of a BWKM step, then the obtained clustering is actually a fixed point of the K-means algorithm over the entire data set, which is generated after using only a small number of representatives in comparison to the actual size of the data set. Furthermore, if, for a certain step of BWKM, this property can be verified at consecutive weighted Lloyds iterations, then the error of our approximation also decreases monotonically. From the practical stand point, BWKM was compared to the state-of-the-art: K-means++, Forgy K-means, Markov Chain Monte Carlo K-means and Minibatch K-means. The obtained results show that BWKM commonly converged to solutions, with a relative error of under 1% with respect to the considered methods, while using a much smaller amount of distance computations (up to 7 orders of magnitude lower). Even when the computational cost of BWKM is linear with respect to the dimensionality, its error quality guarantees are mainly related to the diagonal length of the grid cells, meaning that, as we increase the dimensionality of the problem, it will be harder for BWKM to have such a competitive performance. Taking this into consideration, we developed a fully-parellelizable feature selection technique intended for the K-means algorithm, the Bounded Dimensional Distributed K-means algorithm (BDDKM). This approach consists of applying any heuristic for the K-means problem over multiple subsets of dimensions (each of which is bounded by a predefined constant, m<<d) and using the obtained clusterings to upper-bound the increase in the K-means error when deleting a given feature. We then select the features with the m largest error increase. Not only can each step of BDDKM be simply parallelized, but its computational cost is dominated by that of the selected heuristic (on m dimensions), which makes it a suitable dimensionality reduction alternative for BWKM on large data sets. Besides providing a theoretical bound for the obtained solution, via BDDKM, with respect the optimal K-means clustering, we analyze its performance in comparison to well-known feature selection and feature extraction techniques. Such an analysis shows BDDKM to consistently obtain results with lower K-means error than all the considered feature selection techniques: Laplacian scores, maximum variance and random selection, while also requiring similar or lower computational times than these approaches. Even more interesting, BDDKM, when compared to feature extraction techniques, such as Random Projections, also shows a noticeable improvement in both error and computational time. As a response to the high dependency of K-means algorithm to its initialization, we finally introduce a cheap Split-Merge step that can be used to re-start the K-means algorithm after reaching a fixed point, Split-Merge K-means (SMKM). Under some settings, one can show that this approach reduces the error of the given fixed point without requiring any further iteration of the K-means algorithm. Moreover, experimental results show that this strategy is able to generate approximations with an associated error that is hard to reach for different multi-start methods, such as multi-start Forgy K-means, K-means++ and Hartigan K-means. In particular,SMKM consistently generated the local minima with the lowest K-means error, reducing, on average, over 1 and 2 orders of magnitude of relative error with respect to K-means++ and Hartigan K-means and Forgy K-means, respectively. Not only does the quality of the solution obtained by SMKM tend to be much lower than the previously commented methods, but, in terms of computational resources, SMKM also required a much lower number of distance computations (about an order of magnitude less) to reach the lowest error that they achieved.
Ver más...
CAPO RANGEL, MARCO VINICIO
Cloud point labelling in optical motion capture systems
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
This Thesis deals with the task of point labeling involved in the overall workflow of Optical Motion Capture Systems. Human motion capture by optical sensors produces at each frame snapshots of the motion as a cloud of points that need to be labeled in order to carry out ensuing motion analysis. The problem of labeling is tackled as a classification problem, using machine learning techniques as AdaBoost or Genetic Search to train a set of weak classifiers, gathered in turn in an ensemble of partial solvers. The result is used to feed an online algorithm able to provide a marker labeling at a target detection accuracy at a reduced computational cost. On the other hand, in contrast to other approaches the use of misleading temporal correlations has been discarded, strengthening the process against failure due to occasional labeling errors. The effectiveness of the approach is demonstrated on a real dataset obtained from the measurement of gait motion of persons, for which the ground truth labeling has been verified manually. In addition to the above, a broad sight regarding the field of Motion Capture and its optical branch is provided to the reader: description, composition, state of the art and related work. Shall it serve as suitable framework to highlight the importance and ease the understanding of the point labeling.
Ver más...
JIMENEZ BASCONES, JUAN LUIS
Ikasketa automatikoan oinarritutako ekarpenak pertsona-konputagailu elkarrekintza hobetzeko/contributions to improve human-computer interaction using machine learning
- Dirección:
- ARBELAIZ GALLEGO, OLATZ;
- MUGUERZA RIVERO, JAVIER FRANCISCO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
This PhD thesis contributes on designing and applying data mining techniques targeting the improvement of Human Computer Interaction (HCI) in different contexts. The main objectives of the thesis are to design systems based on data mining methods for modelling behaviour on interaction and use data. Moreover, having to work often in unsupervised learning contexts has lead to contribute methodologically to clustering validation regardless of the context; an unsolved problem in machine learning. Cluster Validity Indexes (CVIs) partially solve this problem by providing a quality score of the partitions, but none of them has proven to robustly face the broad range of conditions. In this regard, in the first contribution several CVI decision fusion (voting) approaches are proposed, showing that they are promising strategies for clustering validation.In the Human-Computer Interaction context, the contributions are structured in three different areas. The accessibility area is analysed in the first one where an efficient system to automatically detect navigation problems of users, with and without disabilities, is presented. The next contribution is focused on the medical informatics and it analyses the interaction in a medical dashboard used to support the decision-making of clinicians (SMASH). On the one hand, connections between visual and interaction behaviours on SMASH are studied. On the other hand, based on the interaction behaviours observed in SMASH, two main cohorts of users are automatically detected and characterised: primary (pharmacists) vs secondary (non-pharmacists).Finally, two contributions on the e-Services area are made, focusing on their interaction and use respectively. In the first one, potential students aiming to enrol the University of the Basque Country (UPV/EHU) are satisfactorily modelled based on the interactive behaviours they showed in the web of this university. The second one, empirically analyses and characterises the use of e-Government services in different European countries based on survey data provided by Eurostat.LABURPENA:Doktorego-tesi honek, hainbat testuingurutan, Pertsona-Konputagailu Elkarrekintzaren (PKE) hobekuntzarako datuen meatzaritzako teknikak diseinatzen eta aplikatzen laguntzen du. Tesiaren helburu nagusiak datu-meatzaritzako metodoetan oinarritutako sistemak diseinatzea da, elkarrekintza- eta erabilera-datuen portaera modelatzeko. Gainera, gainbegiratu gabeko ikasketa-testuinguruekin sarritan lan egin behar izanak, datuen testuinguru guztiei zuzendutako clusteringa baliozkotzeari buruzko ekarpen metodologikoa egitera bultzatu gaitu. Kluster baliozkotze indizeek (CVI) partizioen kalitate-neurri bat ematen duten heinean, arazo hau partzialki ebazten dute, baina horietako batek ere ez du erakutsi egoeren espektro handiari aurre egiteko gaitasuna. Ildo honetatik, lehen kontribuzioan CVIen arteko erabaki-fusioen (bozketa) hainbat sistema proposatzen ditugu, eta klusteringa baliozkotzeko estrategia eraginkorrak direla erakusten dugu.Pertsona-Konputagailu Elkarrekintzaren testuinguruan, ekarpenak hiru arlotan egituratuta daude. Irisgarritasun arloa lehenengo kontribuzioan aztertzen da, sistema eraginkor bat aurkeztuz, desgaitasuna duten eta desgaitasuna ez duten erabiltzaileen nabigazio-arazoak automatikoki detektatzen dituena.Hurrengo ekarpena informatika-medikoan zentratzen da eta medikuei erabakiak hartzeko jardueretan laguntzeko erabiltzen den osasun-arbela mediko baten (SMASH) elkarrekintza aztertzen du. Batetik, SMASH arbelean portaera bisualen eta interaktiboen arteko loturak aztertzen dira. Bestalde, SMASH arbelean antzemandako portaera interaktiboen arabera, bi erabiltzaile talde nagusi detektatu eta ezaugarritu dira: lehen mailakoak (farmazialariak) eta bigarren mailakoak (ez farmazialariak).Azkenik, bi kontribuzio egiten dira zerbitzu elektronikoen (e-Zerbitzuen) arloan, elkarrekintza eta erabileran oinarrituz, hurrenez hurren. Lehenengoan, Euskal Herriko Unibertsitatean (UPV/EHU) izena eman nahi duten ikasle potentzialak modu eraginkorrean modelatu dira unibertsitate honen webgunean erakutsitako jokabide interaktiboen arabera. Bigarrenean, gobernuko e-Zerbitzuen erabilera aztertu da Europako hainbat herrialdetan, Eurostatek emandako inkesta-datuetan oinarrituz.RESUMEN:Esta tesis doctoral contribuye al diseño y la aplicación de técnicas de minería de datos dirigidas a la mejora de la Interacción Persona-Computadora (IPC) en diferentes contextos. Los objetivos principales de la tesis son diseñar sistemas basados en métodos de minería de datos para modelar el comportamiento en datos de interacción y uso. Además, como los contextos de aprendizaje no supervisado han sido una constante en nuestro trabajo, hemos contribuido metodológicamente a la validación de clustering independientemente del contexto de los datos; problema no resuelto en el aprendizaje automático. Los índices de validación de cluster (CVI) resuelven parcialmente este problema al proporcionar un valor cuantitativo de calidad de las particiones, pero ninguno de ellos ha demostrado poder enfrentarse de manera robusta en una amplia gama de condiciones. En este sentido, en la primera contribución se proponen varios sistemas de fusión de decisiones (votaciones) entre CVIs, demostrando que son estrategias prometedoras para la validación de cluster.En el contexto de Interacción-Persona Computador, las contribuciones están estructuradas en tres áreas diferentes. En la primera de ellas se analiza el área de accesibilidad, presentando un sistema eficiente para detectar automáticamente los problemas de navegación de los usuarios, con y sin discapacidad.La siguiente contribución se centra en la informática médica y analiza la interacción en una pizarra médica web (SMASH) utilizada para asistir en la toma de decisiones de los médicos. Por un lado, se estudian las conexiones entre los comportamientos visuales y de interacción en SMASH. Por otro lado, en base a los comportamientos de interacción observados en SMASH, se detectan y caracterizan automáticamente dos grupos principales de usuarios: primario (farmacéuticos) y secundario (no farmacéuticos).Finalmente, se realizan dos contribuciones en el área de servicios electrónicos, centrándose en su interacción y uso, respectivamente. En la primera, se modelan satisfactoriamente los estudiantes que potencialmente desean matricularse en la Universidad del País Vasco (UPV / EHU), en función de los comportamientos interactivos que muestran en la web de esta universidad. La segunda contribución, analiza empíricamente y caracteriza el uso de los servicios de gobierno electrónico en diferentes países europeos en base a datos de encuestas proporcionados por Eurostat.
Ver más...
YERA GIL, AINHOA
Long Life Application dedicated to smart-* usage.
- Dirección:
- ILLARRAMENDI ECHAVE, MARIA ARANZAZU
- Menciones:
- Tésis Internacional
- Tésis en Cotutela
- Calificación:
- Notable
- Año:
- 2017
- Resumen:
Nowadays, mobile devices host many applications that are directly downloaded and installed from mobile application stores. The existence of such a large amount of apps for a myriad of purposes imposes a huge overhead on users, who are in charge of selecting, installing, and executing the appropiate apps, as well as deleting them when no longer needed.Moreover, these applications have mostly neglected to take into account the user¿s context, as they porpose static non-evolving scenarios. These applications serve for specific purposes and get deleted or forgotten most of the time after the first use. Furthermore, these apps fail to consider the, soon coming, connected world due to theri monolithic architecture implemented to work on single devices.
Ver más...
KARCHOUD , RIADH
Contributions to Vine-Copula Modeling
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- SANTANA HERMIDA, ROBERTO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
Regular vine-copula models (R-vines) are a powerful statistical tool for modeling thedependence structure of multivariate distribution functions. In particular, they allow modelingdierent types of dependencies among random variables independently of their marginaldistributions, which is deemed the most valued characteristic of these models. In this thesis, weinvestigate the theoretical properties of R-vines for representing dependencies and extend theiruse to solve supervised classication problems. We focus on three research directions.!In the rst line of research, the relationship between the graphical representations of R-vines!ÁREA LÍNEA1 2 0 3 0 4ÁREA LÍNEA1 2 0 3 1 7ÁREA LÍNEAÁREA LÍNEA!and Bayesian polytree networks is analyzed in terms of how conditional pairwise independence!relationships are represented by both models. In order to do that, we use an extended graphical!representation of R-vines in which the R-vine graph is endowed with further expressiveness,being possible to distinguish between edges representing independence and dependencerelationships. Using this representation, a separation criterion in the R-vine graph, called Rseparation,is dened. The proposed criterion is used in designing methods for building thegraphical structure of polytrees from that of R-vines, and vice versa. Moreover, possiblecorrespondences between the R-vine graph and the associated R-vine copula as well as dierentproperties of R-separation are analyzed. In the second research line, we design methods forlearning the graphical structure of R-vines from dependence lists. The main challenge of thistask lies in the extremely large size of the search space of all possible R-vine structures. Weprovide two strategies to solve the problem of learning R-vines that represent the largestnumber of dependencies in a list. The rst approach is a 0 -1 linear programming formulation forbuilding truncated R-vines with only two trees. The second approach is an evolutionaryalgorithm, which is able to learn complete and truncated R-vines. Experimental results show thesuccess of this strategy in solving the optimization problem posed. In the third research line, weintroduce a supervised classication approach where the dependence structure of the problemfeatures is modeled through R-vines. The ecacy of these classiers is validated in a mentaldecoding problem and in an image recognition task. While Rvines have been extensivelyapplied in elds such as economics, nance and statistics, only recently have they found theirplace in classication tasks. This contribution represents a step forward in understanding R-vinesand the prospect of extending their use to other machine learning tasks.
Ver más...
CARRERA SOTO, DIANA MARIA
Towards a fully mobile publish/subscribe system
- Dirección:
- LARREA ALAVA, MIKEL
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
This PhD thesis makes contributions to support mobility and fault tolerance in a publish/subscribe system. Two protocols are proposed in order to support mobility of all devices in the system, including inside the event notification service. The protocols are designed with the idea that any change due to mobility is completely beyond our control and ability to predict. Moreover, the proposed solutions do not need to know neither the amount of nodes in the system nor their identities before starting, the system is able to adapt to new devices or disconnections and is able to keep operating correctly in a partitioned network. To do so we extend a previously proposed framework called Phoenix that already supported client mobility. Both protocols use a leader election mechanism to create a communication tree in a highly dynamic environment, and use a characteristic of that algorithm to detect topology changes and migrate nodes accordingly.
Ver más...
AMOZARRAIN PEREZ, UGAITZ
Semantic technologies for supporting KDD processes
- Dirección:
- BERMUDEZ DE ANDRES, JESUS;
- FERNANDEZ GONZALEZ, IZASKUN
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
Achieving a comfortable thermal situation within buildings with an efficient use of energy remains still an open challenge for most buildings. In this regard, IoT (Internet of Things) and KDD (Knowledge Discovery in Databases) processes may be combined to solve these problems, even though data analysts may feel overwhelmed by heterogeneity and volume of the data to be considered. Data analysts could benefit from an application assistant that supports them throughout the KDD process. This research work aims at supporting data analysts through the different KDD phases towards the achievement of energy efficiency and thermal comfort in tertiary buildings. To do so, the EEPSA (Energy Efficiency Prediction Semantic Assistant) is proposed, which aids data analysts discovering the most relevant variables for the matter at hand, and informs them about relationships among relevant data. This assistant leverages Semantic Technologies such as ontologies, ontology-driven rules and ontology-driven data access. More specifically, the EEPSA ontology is the cornerstone of the assistant. This ontology is developed on top of three ODPs (Ontology Design Patterns) and it is designed so that its customization to address similar problems in different types of buildings can be approached methodically.
Ver más...
ESNAOLA GONZALEZ, IKER
Contributions from computational intelligence to healthcare data processing
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA;
- LOPEZ GUEDE, JOSE MANUEL
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2016
- Resumen:
The increasing ability to gather, store and process health care information, through the electronic health records and improved communication methods opens the door for new applications intended to improve health care in many different ways. Crucial to this evolution is the development of new computational intelligence tools, related to machine learning and statistics. In this thesis we have dealt with two case studies involving health data. The first is the monitoring of children with respiratory diseases in the pediatric intensive care unit of a hospital. The alarm detection is stated as a classification problem predicting the triage selected by the nurse or medical doctor. The second is the prediction of readmissions leading to hospitalization in an emergency department of a hospital. Both problems have great impact in economic and personal well being. We have tackled them with a rigorous methodological approach, obtaining results that may lead to a real life implementation. We have taken special care in the treatment of the data imbalance. Finally we make propositions to bring these techniques to the clinical environment.
Ver más...
GARMENDIA MUJICA, ASIER
Contributions to Natural Language Processing and Hierarchical Classification.
- Dirección:
- CALVO MOLINOS, BORJA;
- INZA CANO, IÑAKI;
- LOZANO ALONSO, JOSE ANTONIO;
- SANTANA HERMIDA, ROBERTO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
El envejecimiento de la población se define como el aumento progresivo de la proporción de personas de 65años o más con respecto a la población total. En Europa, se prevé que el porcentaje de población mayor de 65años aumente del 16% en 2010 al 29% en 2060. En este contexto, enfrentar la alta demanda deinfraestructuras y servicios para satisfacer las necesidades de atención es un desafío difícil de asumir sin eluso de soluciones tecnológicas. Por este motivo, esta tesis doctoral tiene como objetivo contribuir al desarrollode un Coach Virtual diseñado para ofrecer cuidados y atención personalizados. Como resultado de estainvestigación, a lo largo de esta tesis se exponen diferentes contribuciones al desarrollo del Coach Virtualcreado en el proyecto EMPATHIC (Empathic, Expressive, Advanced Virtual Coach to Improve IndependentHealthy-Life-Years of the Elderly) (http://www.empathic-project.eu/). La tesis está dividida en dos partes, dondela primera introduce el ámbito de los asistentes virtuales y el procesamiento del lenguaje natural, y presentados contribuciones específicas en el ámbito de los asistentes virtuales. Como consecuencia de la taxonomíapropuesta en la segunda contribución de la primera parte, la segunda parte introduce el paradigma de laclasificación jerárquica y presenta dos contribuciones en este ámbito, que son más generales y, por lo tanto,aplicables en ámbitos más allá de los asistentes virtuales. La primera contribución de la segunda partepresenta el paradigma de la clasificación jerárquica con etiquetado débil, donde se proponen una serie demétodos que tienen la capacidad de resolver problemas de gran tamaño en menos tiempo. La últimacontribución de la tesis se centra en el paradigma de la clasificación jerárquica multi-dimensional, donde seproponen medidas y métodos para resolver dichos problemas de manera eficiente, explotando las relacionesentre las diferentes dimensiones.
Ver más...
MONTENEGRO PORTILLO, CESAR
Contributions to the Modelling of Auditory Hallucinations, Social robotics, and Multiagent Systems
- Dirección:
- CHYZHYK , DARYA;
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Tésis Internacional
- Calificación:
- Sobresaliente
- Año:
- 2021
- Resumen:
The Thesis covers three diverse lines of work that have been tackled with the central endeavor of modeling and understanding the phenomena under consideration. Firstly, the Thesis works on the problem of finding brain connectivity biomarkers of auditory hallucinations, a rather frequent phenomena that can be related some pathologies, but which is also present in healthy population. We apply machine learning techniques to assess the significance of effective brain connections extracted by either dynamical causal modeling or Granger causality. Secondly, the Thesis deals with the usefulness of social robotics strorytelling as a therapeutic tools for children at risk of exclussion. The Thesis reports on the observations gathered in several therapeutic sessions carried out in Spain and Bulgaria, under the supervision of tutors and caregivers. Thirdly, the Thesis deals with the spatio-temporal dynamic modeling of social agents trying to explain the phenomena of opinion survival of the social minorities. The Thesis proposes a eco-social model endowed with spatial mobility of the agents. Such mobility and the spatial perception of the agents are found to be strong mechanisms explaining opinion propagation and survival.
Ver más...
OZAETA RODRIGUEZ, LEIRE
Contributions to virtual reality
- Dirección:
- FLOREZ ESNAL, JULIAN;
- GARCIA ALONSO MONTOYA, ALEJANDRO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
The thesis contributes in three Virtual Reality areas: ¿ Visual perception: a calibration algorithm is proposed to estimate stereo projection parameters in head-mounted displays, so that correct shapes and distances can be perceived, and calibration and control procedures are proposed to obtain desired accommodation stimuli at different virtual distances.¿ Immersive scenarios: the thesis analyzes several use cases demanding varying degrees of immersion and special, innovative visualization solutions are proposed to fulfil their requirements. Contributions focus on machinery simulators, weather radar volumetric visualization and manual arc welding simulation.¿ Ubiquitous visualization: contributions are presented to scenarios where users access interactive 3D applications remotely. The thesis follows the evolution of Web3D standards and technologies to propose original visualization solutions for volume rendering of weather radar data, e-learning on energy efficiency, virtual e-commerce and visual product configurators.
Ver más...
SEGURA LASA,ALVARO
Contributions to Attributed Probabilistic Finite State Bi-Automata for Dialogue Management
- Dirección:
- POZO ECHEZARRETA,MARIA ARANZAZU, DEL;
- TORRES BARAÑANO, MARIA INES
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Task-oriented Spoken Dialogue Systems (SDSs), also known as Conversational Assistants, have been generating a great deal of interest in recent years, as they can be used to automate repetitive and low-value tasks and processes which use a natural communication channel. One basic component of every task-oriented SDS is the Dialogue Manager (DM), which is responsible for tracking the current state of the conversation and for deciding the next action of the system.This dissertation intends to improve a data-driven framework based in stochastic finite-state transducers for DM modelling in task-oriented SDSs: the Attributed Probabilistic Finite State Bi-Automata (A-PFSBA). Several contributions are presented that enhance the A-PFSBA based DM in different aspects. First, its model generalisation mechanism is improved to better employ context, the semantic relation between dialogue states and the spatial relations of the dialogue state space. Second, the A-PFSBA theoretical framework is extended for policy-making. In the same way, multiple policies with different degrees of complexity are implemented following this formulation. Third, a simple-yet-effective algorithm is proposed to incrementally learn an initial DM, which can be adjusted to work under uncertainty. Finally, the potential of the A-PFSBA framework to be deployed in data scarcity and zero-data scenarios and its capability to bridge the gap between data-driven and rule-based paradigms for DM development is tested.The presented contributions have been validated using two well-known corpora: the Let¿s Go corpus and the Dialogue State Tracking Challenge 2 corpus. In order to validate the viability of the A-PFSBA framework in industrial scenarios, three applications that employ the A-PFSBA formulation and which have been validated by real users are also presented.
Ver más...
SERRAS SAENZ, MANEX
Ubiquitous volume rendering in the web platform
- Dirección:
- GARCIA ALONSO MONTOYA, ALEJANDRO;
- MORENO GUERRERO,AITOR
- Calificación:
- Sobresaliente
- Año:
- 2019
- Resumen:
The main thesis hypothesis is that ubiquitous volume rendering can be achieved using WebGL. The thesis enumerates the challenges that should be met to achieve that goal. The results allow web content developers the integration of interactive volume rendering within standard HTML5 web pages. Content developers only need to declare the X3D nodes that provide the rendering characteristics they desire. In contrast to the systems that provide specific GPU programs, the presented architecture creates automatically the GPU code required by the WebGL graphics pipeline. This code is generated directly from the X3D nodes declared in the virtual scene. Therefore, content developers do not need to know about the GPU.The thesis extends previous research on web compatible volume data structures for WebGL, ray-casting hybrid surface and volumetric rendering, progressive volume rendering and some specific problems related to the visualization of medical datasets. Finally, the thesis contributes to the X3D standard with some proposals to extend and improve the volume rendering component. The proposals are in an advance stage towards their acceptance by the Web3D Consortium.
Ver más...
ARBELAIZ ARANZASTI ANDER
Camera perspective distortion in model-based visual localisation.
- Dirección:
- GARCIA ALONSO MONTOYA, ALEJANDRO;
- SANCHEZ TAPIA, JAIRO ROBERTO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
This thesis starts with a proposal for a collaborative global visual localization system. Then, it centres in a specific visual localisation problem: perspective distortion in template matching.The thesis enriches 3D point cloud models with a surface normal associated with each 3D point. These normals are computed using a minimization algorithm.Based in this new model, the thesis proposes an algorithm to increase the accuracy of visual localisation. The algorithm improves for template matching processes using surface normals.The hypothesis, `Given a 3D point cloud, surface orientation of the 3D points in a template matching process increases the number of inliers points found by the localisation system, that is, perspective compensation.' is objectively proved using a ground truth model.The ground truth is achieved through the design of a framework which using computer vision and computer graphics techniques carries out experiments without the noise of a real system, and prove in an objective way the hypothesis.
Ver más...
BARRENA ORUEECHEBARRIA, NAGORE
Computationally efficient deformable 3D object tracking with a monocular RGB camera
- Dirección:
- DORNAIKA , FADI;
- UNZUETA IRURTIA, LUIS
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
Monocular RGB cameras are present in most scopes and devices, including embedded environments like robots, cars and home automation. Most of these environments have in common a significant presence of human operators with whom the system has to interact. This context provides the motivation to use the captured monocular images to improve the understanding of the operator and the surrounding scene for more accurate results and applications.However, monocular images do not have depth information, which is a crucial element in understanding the 3D scene correctly. Estimating the three-dimensional information of an object in the scene using a single two-dimensional image is already a challenge. The challenge grows if the object is deformable (e.g., a human body or a human face) and there is a need to track its movements and interactions in the scene.Several methods attempt to solve this task, including modern regression methods based on Deep NeuralNetworks. However, despite the great results, most are computationally demanding and therefore unsuitable for several environments. Computational efficiency is a critical feature for computationally constrained setups like embedded or onboard systems present in robotics and automotive applications, among others.This study proposes computationally efficient methodologies to reconstruct and track three-dimensional deformable objects, such as human faces and human bodies, using a single monocular RGB camera. To model the deformability of faces and bodies, it considers two types of deformations: non-rigid deformations for face tracking, and rigid multi-body deformations for body pose tracking. Furthermore, it studies their performance on computationally restricted devices like smartphones and onboard systems used in the automotive industry. The information extracted from such devices gives valuable insight into human behaviour a crucial element in improving human-machine interaction.We tested the proposed approaches in different challenging application fields like onboard driver monitoring systems, human behaviour analysis from monocular videos, and human face tracking on embedded devices.
Ver más...
GOENETXEA IMAZ JON
Enriching remote labs with computer vision and drones
- Dirección:
- DORNAIKA , FADI;
- LUTHON , FRANCK
- Menciones:
- Tésis Internacional
- Tésis en Cotutela
- Calificación:
- Sobresaliente
- Año:
- 2018
- Resumen:
With the technological advance, new learning technologies are being developed in order to contribute to better learning experience. In particular, remote labs constitute an interesting and a practical way that can motivate nowadays students to learn. The studen can at anytime, and from anywhere, access the remote lab and do his lab-work. Despite many advantages, remote tecnologies in education create a distance between the student and the teacher. Without the presence of a teacher, students can have difficulties, if no appropriate interventions can be taken to help them. In this thesis, we aim to enrich an existing remote electronic lab made for engineering students called "LaboREM" (for remote Laboratory) in two ways: first we enable the student to send high level commands to a mini-drone available in the remote lab facility. The objective is to examine the front panels of electronic measurement instruments, by the camera embedded on the drone. Furthermore, we allow remote student-teacher communication using the drone, in case there is a teacher present in the remote lab facility. Finally, the drone has to go back home when the mission is over to land on a platform for automatic recharge of the batteries. Second, we propose an automatic system that estimates the affective state of the student (frustrated/confused/flow) in order to take appropriate interventions to ensure good learning outcomes. For example, if the studen is having major difficulties we can try to give him hints or to reduce the difficulty level of the lab experiment. We propose to do this by using visual cues (head pose estimation and facil expression analysis). Many evidences on the state of the student can be acquired, however these evidences are incomplete, sometims inaccurate, and do not cover all the aspects of the state of the student alone. This is why we propose to fuse evidences using the theory of Dempster-Shafer that allows the fusion of incomplete evidence.
Ver más...
KHATTAR , FAWZI
Implicación de usuarios en proyectos de investigación tecnológica (ImUPITec): análisis de procedimientos éticos, metodologías y herramientas y propuesta de mejora orientada a personas mayores
- Dirección:
- GARAY VITORIA, NESTOR
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Hoy en día es habitual implicar a los usuarios finales en los proyectos tecnológicos de investigación con la finalidad de mejorar la usabilidad, aceptación y utilidad de los sistemas o dispositivos a desarrollar. Existen numerosas técnicas y metodologías para la participación e implicación de usuarios y stakeholders, pero la selección de las más adecuadas no siempre es sencilla. Es muy importante identificar estas herramientas para trabajar con los usuarios objetivo, así como las dificultades que nos podemos encontrar con cada una de ellas.En este proyecto de tesis se parte de la hipótesis de que algunas herramientas no son adecuadas para ser utilizadas con personas mayores sin antes haber realizado ciertas adaptaciones. Por ello, en este trabajo se presenta un análisis de las diferentes metodologías de implicación de usuarios o stakeholders para la mejora del diseño y la usabilidad de desarrollos tecnológicos, así como una nueva metodología y clasificación de las herramientas asociadas a dicha metodología. A partir de esta propuesta se ha analizado el uso de algunas de las herramientas con la población mayor para realizar una serie de propuestas de mejora cuando se utilizan con dichas personas. Asimismo, se ha generado un repositorio web donde consultar las características de las herramientas.Adicionalmente, en este proyecto se discuten los aspectos éticos y legales que se deben tener en cuenta a la hora de implicar seres humanos en una investigación, y por tanto las dificultades que se encuentran los investigadores, específicamente en la rama tecnológica, a la hora de interpretar la documentación relacionada con esta temática. Para ello, se ha analizado la documentación acerca de los aspectos éticos y legales que aplican y se han desarrollado diferentes mecanismos que ayuden a los investigadores a interpretar las directivas, regulaciones, recomendaciones, buenas prácticas y legislación aplicable en cada caso. Por un lado, se han desarrollado una serie de plantillas para facilitar la tarea de completar el diseño metodológico que implica a seres humanos en la investigación, incluyendo el proceso de consentimiento informado. Por otro lado, se ha propuesto un diagrama de flujo de ayuda a la toma de decisiones a realizar. Por último, se ha creado una herramienta que da soporte a dicho diagrama. La herramienta desarrollada ha sido evaluada para mejorar su usabilidad y estos materiales se han puesto a disposición de los investigadores para que puedan ser utilizados en el día a día con proyectos reales.El trabajo realizado plantea una serie de líneas futuras de investigación que también se esbozan en esta memoria.
Ver más...
GARZO MANZANARES,AINARA
Theoretical and methodological advances in semi-supervised learning and the class-imbalance problem.
- Dirección:
- INZA CANO, IÑAKI;
- LOZANO ALONSO, JOSE ANTONIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2018
- Resumen:
Este trabajo se centra en la generalización teórica y práctica de dos situaciones desafiantes y conocidas del campo del aprendizaje automático a problemas de clasificación en los cuales la suposición de tener una única clase binaria no se cumple.Aprendizaje semi-supervisado es una técnica que usa grandes cantidades de datos no etiquetados para, así, mejorar el rendimiento del aprendizaje supervisado cuando el conjunto de datos etiquetados es muy acotado. Concretamente, este trabajo contribuye con metodologías potentes y computacionalmente eficientes para aprender, de forma semi-supervisada, clasificadores para múltiples variables clase. También, se investigan, de forma teórica, los límites fundamentales del aprendizaje semi-supervisado en problemas multiclase.El problema de desbalanceo de clases aparece cuando las variables objetivo presentan una distribución de probabilidad lo suficientemente desbalanceada como para desvirtuar las soluciones propuestas por los algoritmos de aprendizaje supervisado tradicionales. En este proyecto, se propone un marco teórico para separar la desvirtuación producida por el desbalanceo de clases de otros factores que afectan a la precisión de los clasificadores. Este marco es usado principalmente para realizar una recomendación de métricas de evaluación de clasificadores en esta situación. Por último, también se propone una medida del grado de desbalanceo de clases en un conjunto de datos correlacionada con la pérdida de precisión ocasionada.
Ver más...
ORTIGOSA HERNANDEZ, JONATHAN
Framework para el desarrollo y entrenamiento de sistemas de indeferencia difusa siguiendo métodos de desarrollo dirigido por modelos
- Dirección:
- PEREZ FERNANDEZ, TOMAS ANTONIO;
- PIKATZA ATXA, JUAN MANUEL
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2017
- Resumen:
Este trabajo de tesis doctoral presenta un modelo independiente de la computación de un Diagnóstico Diferencial (DD), así como un modelo independiente de la plataforma de un Sistema de Inferencia Difusa. Se han utilizado los Métodos de Desarrollo Dirigido por Modelos (MDDM) en la concepción de los modelos, los cuales, además de facilitar la definición de los modelos, ofrecen herramientas para la realización de transformaciones entre ellos. Así, en el presente trabajo también se exponen las transformaciones entre los modelos de DD y SID y las transformaciones para la generación automática de SID expresados en lenguajes concretos a partir de los modelos de SID independientes de la plataforma. Los SID dependientes de la plataforma pueden ser incluidos en el formalismo de representación de Guías Clínicas Informatizadas (GCI) Aide. Así mismo, en la tesis también se incluye una descripción de las herramientas que facilitan la definición de modelos de DD y SID, así como la generación automática de SID en lenguajes concretos utilizables en distintos motores de razonamiento. Es de reseñar la adición de un módulo de aprendizaje automático mediante un Algoritmo Genético que permite adaptar algunas características de los modelos de SID a los datos reales de entrenamiento. Las herramientas y modelos se han validado en dos ámbitos. Por un lado, se han utilizado en el cribado neonatal, una prueba diagnóstica dirigida a la identificación presintomática de enfermedades graves con el fin de tratarlas precozmente y así prevenir y minimizar minusvalías neurológicas, orgánicas y psíquicas. Por otro lado, se han utilizado en el diagnóstico de la hiperamonemia, una Enfermedad Rara que se debe tratar de forma urgente para evitar graves secuelas neurológicas e incluso la muerte. En ambos casos, los SID creados se han integrado en unas GCI para ser evaluados.
Ver más...
SEGUNDO SANTAMARIA, UNAI
Speech technologies for the audiovisual and multimedia interaction environments
- Dirección:
- ARRUTI ILLARRAMENDI, ANTONIO;
- POZO ECHEZARRETA,MARIA ARANZAZU, DEL
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2016
- Resumen:
En esta memoria de tesis, se analiza el estado actual de algunas tecnologías de análisis del audio y procesamiento del habla aplicadas a sectores como el audiovisual y el de interacción persona-maquina, y se describen tanto su aportación a las mismas como las nuevas contribuciones realizadas al estado del arte. Finalmente, se describen soluciones tecnológicas desarrolladas y su transferencia a diferentes entidades para su uso en la Industria.
Ver más...
ALVAREZ MUNIAIN, AITOR
Aplicación de modelos matemáticos para el mantenimiento predictivo.
- Dirección:
- BOTO SANCHEZ,FERNANDO;
- IRIGOYEN GARBIZU, ITZIAR
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
La presente memoria de tesis presenta una revisión sobre la actividad de investigación aplicada que se ha realizado mediante variosproyectos relacionados con el mantenimiento predictivo asociado a procesos industriales. Uno de los resultados principales es la realización de una herramienta web que permite al operador consultar eltiempo estimado hasta el fallo en un proceso de mecanizado y junto a ello un histórico de datos del sistema.Se han obtenido otros resultados que generan una evolución en el mantenimiento de los sistemas estudiados, lo que reduce el coste y aumenta la productividad de estos. Para ello se han aplicadometodologías híbridas donde el objetivo principal radicaba en la creación de una metodología demantenimiento predictivo para cada uno de los procesos y en algún caso la posibilidad de generalizaciónde esta a procesos similares.
Ver más...
JIMENEZ CORTADI, ALBERTO
Computational intelligence contributions to readmisision risk prediction in Healthcare systems
- Dirección:
- BERISTAIN IRAOLA, ANDONI;
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2017
- Resumen:
The Thesis tackles the problem of readmission risk prediction in healthcare systems from a machine learning and computational intelligence point of view. Readmission has been recognized as an indicator of healthcare quality with primary economic importance. We examine two specific instances of the problem, the emergency department (ED) admission and heart failure (HF) patient care using anonymized datasets from three institutions to carry real-life computational experiments validating the proposed approaches. The main difficulties posed by this kind of datasets is their high class imbalance ratio, and the lack of informative value of the recorded variables. This thesis reports the results of innovative class balancing approaches and new classification architectures.
Ver más...
ARTETXE BALLEJO, ARKAITZ
High performance scientific computing in applications with direct finite element simulation
- Dirección:
- JANSSON , JOHAN OLOF
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
La predicción del flujo separado, incluida la pérdida de un avión completo mediantela dinámica de fluidos computacional (CFD) se considera uno de los grandes desaf¿¿os que seresolverán en 2030, según NASA. Las ecuaciones no lineales de Navier-Stokes proporcionan laformulación matemática para flujo de fluidos en espacios tridimensionales. Sin embargo, todaviafaltan soluciones clásicas, existencia y singularidad. Ya que el cálculo de la fuerza bruta esintratable para realizar simulación predictiva para un avión completo, uno puede usar la simulaciónnumérica directa (DNS); sin embargo, prohibitivamente caro ya que necesita resolver laturbulencia a escala de magnitud Re power (9/4). Considerando otros métodos como el estad¿¿sticopromedio Reynolds¿s Average Navier Stokes (RANS), spatial average Large Eddy Simulation(LES), y Hybrid Detached Eddy Simulation (DES), que requieren menos cantidad de grados delibertad. Todos estos métodos deben ajustarse a los problemas de referencia y, además, cerca las paredes, la malla tieneque ser muy fina para resolver las capas l¿¿mite (lo cual significa que el costo computacional es muycostoso). Por encima de todo, los resultados son sensibles a, por ejemplo, parámetros expl¿¿citos enel método, la malla, etc.Como una solución al desaf¿¿o, aqu¿¿ presentamos la adaptación Metodolog¿¿a de solución directa deFEM (DFS) con resolución numérica disparo, como una familia predictiva, libre de parámetros demétodos para flujo turbulento. Resolvimos el modelo de avión JAXA Standard Model (JSM) ennúmero realista de Reynolds, presentado como parte del High Lift Taller de predicción 3.Predijimos un aumento de Cl dentro de un error de 5 % vs experimento, arrastre Cd dentro de 10 %error y detenga 1 ¿ dentro del ángulo de ataque.El taller identificó un probable experimento error depedido 10 % para los resultados de arrastre. La simulación es 10 veces más rápido y más barato encomparación con CFD tradicional o existente enfoques. La eficiencia proviene principalmente dell¿¿mite de deslizamiento condición que permite mallas gruesas cerca de las paredes, orientada aobjetivos control de error adaptativo que refina la malla solo donde es necesario y grandes pasos detiempo utilizando un método de iteración de punto fijo tipo Schur, sin comprometer la precisión delos resultados de la simulación.También presentamos una generalización de DFS a densidad variable y validado contra el problemade referencia MARIN bien establecido. los Los resultados muestran un buen acuerdo con losresultados experimentales en forma de sensores de presión. Más tarde, usamos esta metodolog¿¿apara resolver dos aplicaciones en problemas de flujo multifásico. Uno tiene que ver con un flashtanque de almacenamiento de agua de lluvia (consorcio de agua de Bilbao), y el segundo es sobre eldiseño de una boquilla para impresión 3D. En el agua de lluvia tanque de almacenamiento,predijimos que la altura del agua en el tanque tiene un influencia significativa sobre cómo secomporta el flujo aguas abajo de la puerta del tanque (válvula). Para la impresión 3D,desarrollamos un diseño eficiente con El flujo de chorro enfocado para evitar la oxidación y elcalentamiento en la punta del boquilla durante un proceso de fusión.Finalmente, presentamos aqu¿¿ el paralelismo en múltiples GPU y el incrustado sistema dearquitectura Kalray. Casi todas las supercomputadoras de hoy tienen arquitecturas heterogéneas,1 See the UNESCO Internacional Standard nomenclature for fields of Science and Technologyacomo CPU+GPU u otros aceleradores, y, por lo tanto, es esencial desarrollar marcoscomputacionales para aprovecha de ellos. Como lo hemos visto antes, se comienza a desarrollar eseCFD más tarde en la década de 1060 cuando podemos tener poder computacional, por lo tanto, Esesencial utilizar y probar estos aceleradores para los cálculos de CFD. Las GPU tienen unaarquitectura diferente en comparación con las CPU tradicionales. Técnicamente, la GPU tienemuchos núcleos en comparación con las CPU que hacen de la GPU una buena opción para elcómputo paralelo.Para múltiples GPU, desarrollamos un cálculo de plantilla, aplicado a simulación depliegues geológicos. Exploramos la computación de halo y utilizamos Secuencias CUDA paraoptimizar el tiempo de computación y comunicación. La ganancia de rendimiento resultante fue de23 % para cuatro GPU con arquitectura Fermi, y la mejora correspondiente obtenida en cuatro LasGPU Kepler fueron de 47 %.
Ver más...
KRISHNASAMY , EZHILMATHI
Advances in Branch-and-Fix methods to solve the Hamiltonian cycle problem in manufacturing optimization
- Dirección:
- GALAR PASCUAL, DIEGO JESUS;
- SANTANA HERMIDA, ROBERTO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
Esta tesis parte del problema de la optimización de la ruta de la herramienta donde se contribuye con unsistema de soporte para la toma de decisiones que genera rutas óptimas en la tecnología de FabricaciónAditiva. Esta contribución sirve como punto de partida o inspiración para analizar el problema del cicloHamiltoniano (HCP). El HCP consiste en visitar todos los vértices de un grafo dado una única vez odeterminar que dicho ciclo no existe. Muchos de los métodos propuestos en la literatura sirven paragrafos no dirigidos y los que se enfocan en los grafos dirigidos no han sido implementados ni testeados.Uno de los métodos para resolver el problema es el Branch-and-Fix (BF), un método exacto que utiliza latranformación del HCP a un problema continuo. El BF es un algoritmo de ramificación que consiste enconstruir un árbol de decisión donde en cada vértice dos problemas lineales son resueltos. Este método hasido testeado en grafos de tamaño pequeño y por ello, no se ha estudiado en profundidad las limitacionesque puede presentar. Por ello, en esta tesis se proponen cuatro contribuciones metodológicasrelacionadas con el HCP y el BF: 1) mejorar la enficiencia del BF en diferentes aspectos, 2) proponer unmétodo de ramificación global, 3) proponer un método del BF colapsado, 4) extender el HCP a unescenario multi-objetivo y proponer un método para resolverlo.
Ver más...
MURUA ETXEBERRIA MAIALEN
Mobility mining for time-dependent urban network modeling
- Dirección:
- ARBELAIZ GALLEGO, OLATZ;
- OTAEGUI MADURGA, OIHANA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Mobility planning, monitoring and analysis in such a complex ecosystem as a city are very challenging.Our contributions are expected to be a small step forward towards a more integrated vision of mobilitymanagement. The main hypothesis behind this thesis is that the transportation offer and the mobilitydemand are greatly coupled, and thus, both need to be thoroughly and consistently represented in a digitalmanner so as to enable good quality data-driven advanced analysis. Data-driven analytics solutions relyon measurements. However, sensors do only provide a measure of movements that have already occurred(and associated magnitudes, such as vehicles per hour). For a movement to happen there are two mainrequirements: i) the demand (the need or interest) and ii) the offer (the feasibility and resources). Inaddition, for good measurement, the sensor needs to be located at an adequate location and be able tocollect data at the right moment. All this information needs to be digitalised accordingly in order to applyadvanced data analytic methods and take advantage of good digital transportation resource representation.Our main contributions, focused on mobility data mining over urban transportation networks, can besummarised in three groups. The first group consists of a comprehensive description of a digitalmultimodal transport infrastructure representation from global and local perspectives. The second groupis oriented towards matching diverse sensor data onto the transportation network representation,including a quantitative analysis of map-matching algorithms. The final group of contributions covers theprediction of short-term demand based on various measures of urban mobility.
Ver más...
ARREGUI MARTIARENA,HARBIL
Optimisation of the user experience across-multi-screen media services.
- Dirección:
- FLOREZ ESNAL, JULIAN;
- LAFUENTE ROJO, JULIAN ALBERTO;
- ZORRILLA BERASATEGUI, MIKEL JOSEBA
- Menciones:
- Cum Laude
- Tésis Industrial
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
La evolución de los dispositivos conectados a Internet, ha provocado la transformación del sector audiovisual en un ecosistema híbrido en el que el contenido se distribuye a través de múltiples dispositivos. Este nuevo contexto trae experiencias muy flexibles donde el contenido no solo tiene que ser adaptado a cualquier dispositivo, sino que también requiere una adaptación a entornos multi-dispositivo en los que uno o múltiples usuarios utilizan varios dispositivos de manera simultánea. De este modo, la interfaz de usuario se convierte en un factor clave para facilitar la comprensión de la aplicación y proveer una interacción intuitiva a través de las múltiples pantallas. Sin embargo, no existen modelos de adaptación para adaptar tal cantidad de contenido a contextos multi-dispositivo y multi-usuario de una manera dinámica y continua.Para abordar esta necesidad, esta investigación propone una metodología que provee como resultado un modelo de adaptación, implementado y validado, para la interfaz de usuario de servicios multimedia multi-dispositivo, suficientemente general como para adaptarlo facilmente a diferentes casos y escenarios y preparado para cualquier actualización tecnológica.
Ver más...
DOMINGUEZ FANLO ANA
Data analysis and machine learning approaches for time series pre- and post- processing pipelines
- Dirección:
- QUARTULLI , MARCO FRANCESCO;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
En el ámbito industrial, las series temporales suelen generarse de forma continua mediante sensores quecaptan y supervisan constantemente el funcionamiento de las máquinas en tiempo real. Por ello, esimportante que los algoritmos de limpieza admitan un funcionamiento casi en tiempo real. Además, amedida que los datos evolución, la estrategia de limpieza debe cambiar de forma adaptativa eincremental, para evitar tener que empezar el proceso de limpieza desde cero cada vez.El objetivo de esta tesis es comprobar la posibilidad de aplicar flujos de aprendizaje automática a lasetapas de preprocesamiento de datos. Para ello, este trabajo propone métodos capaces de seleccionarestrategias óptimas de preprocesamiento que se entrenan utilizando los datos históricos disponibles,minimizando las funciones de perdida empíricas.En concreto, esta tesis estudia los procesos de compresión de series temporales, unión de variables,imputación de observaciones y generación de modelos subrogados. En cada uno de ellos se persigue laselección y combinación óptima de múltiples estrategias. Este enfoque se define en función de lascaracterísticas de los datos y de las propiedades y limitaciones del sistema definidas por el usuario.
Ver más...
GIL LERCHUNDI, AMAIA
Diagnóstico de fallos y optimización de la planificación en un marco de e-mantenimiento.
- Dirección:
- ARNAIZ IRIGARAY,SATUR AITOR;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
El objetivo principal es demostrar el potencial de mejora que las técnicas y metodologías relacionadas con la analítica prescriptiva, pueden proporcionar en aplicaciones de mantenimiento industrial. Las tecnologías desarrolladas se pueden agrupar en tres ámbitos: - El e-mantenimiento, relacionado fundamentalmente con el desarrollo de plataformas colaborativas e inteligentes que permiten la integración de nuevos sensores, sistemas de comunicaciones, estándares y protocolos, conceptos, métodos de almacenamiento y análisis etc. que entran continuamente en nuestro abanico de posibilidades y nos ofrecen la posibilidad de seguir una tendencia de mejora en la optimización de activos y procesos, y en la interoperabilidad entre sistemas.- Las Redes Bayesianas (Bayesian Networks ¿ BNs) junto con otras metodologías de recogida de información utilizadas en ingeniería nos ofrecen la posibilidad de automatizar la tarea de diagnóstico y predicción de fallos.- La optimización de las estrategias de mantenimiento, mediante simulaciones de fallos y análisis coste-efectividad, que ayudan a la toma de decisiones a la hora de seleccionar una estrategia de mantenimiento adecuada para el activo. Además, mediante el uso de algoritmos de optimización logramos mejorar la planificación del mantenimiento, reduciendo los tiempos y costes para realizar las tareas en un parque de activos.
Ver más...
GILABERT GARCIA PELAYO, EDUARDO
Contributions to neuronal architecture search in generative and multitask modeling
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- MENDIBURU ALBERRO, ALEXANDER;
- SANTANA HERMIDA, ROBERTO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Esta tesis se enmarca dentro del ámbito de la inteligencia artificial, más concretamente, en el delaprendizaje automático (AA). Dentro del extenso conjunto de técnicas y algoritmos que conforman elárea del AA, el trabajo ha sido enfocado en los modelos denominados redes neuronales profundas (RNP).En la última década, los resultados que han obtenido estos modelos han poblado el estado del arte paravarios problemas, entre los cuales destacan los relacionados con el tratamiento de imágenes.El origen de esta repentina aparición de los modelos neuronales entre los más potentes en distintosparadigmas del aprendizaje automático se debe, en gran parte, a la especialización de la estructuraneuronal que los define. Un claro ejemplo de este efecto es la aplicación de operaciones convolucionalessi el problema está relacionado con imágenes. Tradicionalmente, el diseño de estas estructuras se hallevado a cabo de forma manual, por expertos tanto en el problema como en los modelos neuronales.En los últimos años, la especialización de las RNP ha venido a costa de altos crecimientos en lascomplejidades de los modelos, especialmente en redes dedicadas a tratar problemas de procesado delenguaje natural. En este contexto, el desarrollo automático de estructuras neuronales ha sido propuestacomo una alternativa a el malgasto de tiempo de los expertos. Además, el avance conseguido en loscomponentes físicos que se encargan de procesar estos modelos ha resultado en un aumento del interés enestas técnicas. A pesar de esto, el aumento en la complejidad de los modelos (llegando a 175 mil millonesde parámetros en casos extremos), ha hecho que la eficiencia computacional de estas técnicas sea unaspecto a tener en cuenta. En esta tesis, se recogen diferentes técnicas y métodos para analizar procesosde búsqueda estructural pasados con el fin de mejorar futuras búsquedas de características similares.
Ver más...
GARCIARENA HUALDE, UNAI
On the Study of Crowdsourced Labelled Data and Annotators: Beyond Noisy Labels.
- Dirección:
- HERNANDEZ GONZALEZ, JERONIMO;
- PEREZ MARTINEZ, ARITZ
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La presente tesis incluye 3 contribuciones al área llamada "learning from crowds", que estudia losmétodos de aprendizaje basados en datos etiquetados por medio del "crowdsourcing". Estas etiquetas secaracterizan por tener una incertidumbre asociada debido a que la fiabilidad de las personas anotadorasno está garantizada. En primer lugar, se propone un nuevo método de "label aggregation", llamado"domain aware voting", una extensión del popular y simple método "majority voting" que tiene en cuentala variable descriptiva, obteniendo resultados mejores especialmente cuando hay una mayor escasez deetiquetas. La segunda contribución consiste en la propuesta de un nuevo marco de etiquetado, "candidatelabelling", que permite a las personas anotadoras expresar sus dudas acerca de las etiquetas que otorgan,pudiendo otorgar varias etiquetas a cada instancia. Se proponen 2 métodos de "label aggregation"asociados a este tipo de etiquetado, y se muestra, mediante un marco experimental que auna el etiquetadotradicional y el propuesto, que el "candidate labelling" consigue extraer más información con un mismonúmero de personas anotadoras. Por último, se desarrolla un modelo de persona anotadora y 2 métodosde aprendizaje adaptados a este nuevo etiquetado, basados en el algoritmo EM, que obtienen mejoresresultados en general que los métodos análogos en el marco de etiquetado tradicional.
Ver más...
BEÑARAN MUÑOZ IKER
Soluciones innovadoras basadas en manipuladores móviles para el nuevo paradigma de fabricación flexible en el marco de la Industria 4.0
- Dirección:
- SIERRA ARAUJO, BASILIO;
- VILLAVERDE DE LA NAVA, IVAN
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Al analizar la situación actual y las tendencias futuras de la industria, en particular en las plantas de producción y fabricación, se pueden identificar diversos factores que están cambiando la industria tal y como la conocemos. Existe un cambio de paradigma en las necesidades actuales de la fabricación que está provocando una transición del enfoque actual basado en la producción en masa a un enfoque de gran personalización (mass costumization), donde los volúmenes de producción son más pequeños y variables. Los procesos actuales están muy adaptados al paradigma anterior y carecen de la flexibilidad necesaria para adaptarse a las nuevas necesidades de producción. Además, se ha de añadir una disminución en la disponibilidad de opera- dores capacitados debido al envejecimiento de la población. Adaptarse a este nuevo escenario representa un desafío para las empresas, especialmente las pequeñas y medianas empresas (Pymes), que están experimentando cómo su especialización se vuelve en su contra de manera evidente. El objetivo de este trabajo es mitigar los efectos de este cambio de paradigma en la industria mediante la inclusión de soluciones robotizadas flexibles en los procesos productivos. Concretamente se presenta inicialmente una revisión de la literatura sobre manipuladores móviles autónomos y sus aplicaciones en diferentes campos industriales que sirve como base para el trabajo desarrollado. Este trabajo realiza contribuciones en los siguientes campos de estudio, avalados por publicaciones en revistas de alto impacto: Industria 4.0, Robótica móvil, Percepción artificial, Navegación autónoma, etc.
Ver más...
OUTON MENDEZ, JOSE LUIS
Harnessing customizationinWeb Annotation: ASoftwareProduct Line approach
- Dirección:
- AZANZA SESE, MAIDER;
- DIAZ GARCIA, OSCAR
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
La anotación web ayuda a mediar la interacción de lectura y escritura al transmitir información, agregar comentarios e inspirar conversaciones en documentos web. Se utiliza en áreas de Ciencias Sociales y Humanidades, Investigación Periodística, Ciencias Biológicas o Educación, por mencionar algunas. Las actividades de anotación son heterogéneas, donde los usuarios finales (estudiantes, periodistas, conservadores de datos, investigadores, etc.) tienen requisitos muy diferentes para crear, modificar y reutilizar anotaciones. Esto resulta en una gran cantidad de herramientas de anotación web y diferentes formas de representar y almacenar anotaciones web. Para facilitar la reutilización y la interoperabilidad, se han realizado varios intentos durante las últimas décadas para estandarizar las anotaciones web (por ejemplo, Annotea u Open Annotation), lo que ha dado como resultado las recomendaciones de anotaciones del W3C publicadas en 2017. Las recomendaciones del W3C proporcionan un marco para la representación de anotaciones (modelo de datos y vocabulario) y transporte (protocolo). Sin embargo, todavía hay una brecha en cómo se desarrollan los clientes de anotación (herramientas e interfaces de usuario), lo que hace que los desarrolladores vuelvan a re-implementar funcionalidades comunes (esdecir, resaltar, comentar, almacenar,¿) para crear su herramienta de anotación personalizada.Esta tesis tiene como objetivo proporcionar una plataforma de reutilización para el desarrollo de herramientas de anotación web para la revisión. Con este fin, hemos desarrollado una línea de productos de software llamada WACline. WACline es una familia de productos de anotación que permite a los desarrolladores crear extensiones de navegador de anotación web personalizadas, lo que facilita la reutilización de los activos principales y su adaptación a su contexto de revisión específico. Se ha creado siguiendo un proceso de acumulación de conocimientos en el que cada producto de anotación aprende de los productos de anotación creados previamente. Finalmente, llegamos a una familia de clientes de anotación que brinda soporte para tres prácticas de revisión: extracción de datos de revisión sistemática de literatura (Highlight&Go), revisión de tareas de estudiantes en educación superior (Mark&Go), y revisión por pares de conferencias y revistas (Review&Go). Para cada uno de los contextos de revisión, se ha llevado a cabo una evaluación con partes interesadas reales para validar las mejoras de eficiencia y eficacia aportadas por las herramientas de anotación personalizadas en su práctica.
Ver más...
MEDINA CAMACHO, HARITZ
Interconnected Services for Time-Series Data Management in Smart Manufacturing Scenarios
- Dirección:
- BLANCO ARBE, JOSE MIGUEL;
- ILLARRAMENDI ECHAVE, MARIA ARANZAZU
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
The rise of Smart Manufacturing, together with the strategic initiatives carried out worldwide, have promoted its adoption among manufacturers who are increasingly interested in boosting data-driven applications for different purposes, such as product quality control, predictive maintenance of equipment, etc. However, the adoption of these approaches faces diverse technological challenges with regard to the data-related technologies supporting the manufacturing data life-cycle. The main contributions of this dissertation focus on two specific challenges related to the early stages of the manufacturing data life-cycle: an optimized storage of the massive amounts of data captured during the production processes and an efficient pre-processing of them. The first contribution consists in the design and development of a system that facilitates the pre-processing task of the captured time-series data through an automatized approach that helps in the selection of the most adequate pre-processing techniques to apply to each data type. The second contribution is the design and development of a three-level hierarchical architecture for time-series data storage on cloud environments that helps to manage and reduce the required data storage resources (and consequently its associated costs). Moreover, with regard to the later stages, a thirdcontribution is proposed, that leverages advanced data analytics to build an alarm prediction system that allows to conduct a predictive maintenance of equipment by anticipating the activation of different types of alarms that can be produced on a real Smart Manufacturing scenario.
Ver más...
VILLALOBOS RODRIGUEZ, KEVIN
Méthodes de sélection de variables pour l,anlyse de données provenant de sources différentes et présentant une structure de groupe de variables.
- Dirección:
- CALVO MOLINOS, BORJA
- Menciones:
- Tésis Internacional
- Tésis en Cotutela
- Calificación:
- Notable
- Año:
- 2019
- Resumen:
During the last decades, the amount of available genetic data on populations has grown drastically. From one side, a refinement of chemical technologies have made possible the extraction of the human genome of individuals at an accessible cost. From the other side, consortia of institutions and laboratories around the world have permitted the collection of data on a variety of individuals and population. This amount of data raised hope on our ability to understand the deepest mechanisms involved in the functioning of our cells. Notably, genetic epidemiology is a field that studies the relation between the genetic features and the onset of a disease. Specific statistical methods have been necessary for those analyses, especially due to the dimensions of available data: in genetics, information is contained in a high number of variables compared to the number of observations. In this dissertation, two contributions are presented. The first project called PIGE (Pathway Interaction Gene Environment) deals with gene-environment interaction assessments. The second one aims at developing variable selection methods for data which has group structures in both the variables and the observations.
Ver más...
BROC , CAMILO LUCIEN
Application of machine learning techniques to weather forecasting
- Dirección:
- INZA CANO, IÑAKI;
- LOZANO ALONSO, JOSE ANTONIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
El pronóstico del tiempo es, incluso hoy en día, una actividad realizada principalmente por humanos. Si bien las simulaciones por computadora desempeñan un papel importante en el modelado del estado y la evolución de la atmósfera, faltan metodologías para automatizar la interpretación de la información generada por estos modelos. Esta tesis doctoral explora el uso de metodologías de aprendizaje automático para resolver problemas específicos en meteorología y haciendo especial énfasis en la exploración de metodologías para mejorar la precisión de los modelos numéricos de predicción del tiempo. El trabajo presentado en este manuscrito comprende dos enfoques diferentes a la aplicación de algoritmos de aprendizaje automático a problemas de predicción meteorológica. En la primera parte, las metodologías clásicas, como la regresión multivariada no paramétrica y los árboles binarios, se utilizan para realizar regresiones en datos meteorológicos. Esta primera parte, está centrada particularmente en el pronóstico del viento, cuya naturaleza circular crea desafíos interesantes para los algoritmos clásicos de aprendizaje automático. La segunda parte de esta tesis explora el análisis de los datos meteorológicos como un problema de predicción estructurado genérico utilizando redes neuronales profundas. Las redes neuronales, como las redes convolucionales y recurrentes, proporcionan un método para capturar la estructura espacial y temporal inherente en los modelos de predicción del tiempo. Esta parte explora el potencial de las redes neuronales convolucionales profundas para resolver problemas difíciles en meteorología, como el modelado de la precipitación a partir de campos de modelos numéricos básicos. La investigación que sustenta esta tesis sirve como un ejemplo de cómo la colaboración entre las comunidades de aprendizaje automático y meteorología puede resultar mutuamente beneficiosa y conducir a avances en ambas disciplinas. Los modelos de pronóstico del tiempo y los datos de observación representan ejemplos únicos de conjuntos de datos grandes (petabytes), estructurados y de alta calidad, que la comunidad de aprendizaje automático exige para desarrollar la próxima generación de algoritmos escalables.
Ver más...
ROZAS LARRAONDO, PABLO
Contributions to automatic learning of kernel functions
- Dirección:
- MENDIBURU ALBERRO, ALEXANDER;
- SANTANA HERMIDA, ROBERTO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
Muchos algoritmos de aprendizaje automático se basan en funciones de kernel para resolverlas tareas propuestas. Entre estos algoritmos podemos encontrar métodos de kernel, como lasMáquinas de vectores de soporte (SVMs), o métodos de inferencia bayesianos, como losProcesos de Gauss (GPs). Sin embargo, la validez de estos algoritmos para resolver problemasdepende en gran medida de la función del kernel, y no hay ninguna función del kernel que seaóptima para todos los dominios de aplicación. La elección del kernel requiere conocimiento delalgoritmo y del dominio de aplicación y hay un gran interés en automatizar este proceso.En esta tesis estudiamos el uso de la programación genética para aprender kernels tanto paraSVMs como para GPs. En primer lugar, describimos el análisis realizado en el campo de las SVM,donde hemos estudiado las diferentes interacciones entre los componentes de las SVM durantela evolución de los kernels, y proporcionamos algunas pautas para mejorar el proceso deaprendizaje del kernel. A continuación, proponemos un método basado en expresionesmatemáticas básicas para aprender kernels para GPs a través de la programación genética, yprobamos la validez de este método en varias aplicaciones, como la predicción de seriestemporales o tareas de procesamiento de lenguaje natural.
Ver más...
ROMAN TXOPITEA, IBAI
Application-driven visual computing towards industry 4.0
- Dirección:
- GARCIA ALONSO MONTOYA, ALEJANDRO;
- POSADA VELAZQUEZ JORGE LEON
- Calificación:
- Sobresaliente
- Año:
- 2018
- Resumen:
La Tesis recoge contribuciones en tres campos: ¿ Agentes Virtuales Interactivos: autónomos, modulares, escalables, ubicuos y atractivos para el usuario. Estos IVA pueden interactuar con los usuarios de manera natural.¿ Entornos de RV/RA Inmersivos: RV en la planificación de la producción, el diseño de producto, la simulación de procesos, pruebas y verificación. El Operario Virtual muestra cómo la RV y los Co-bots pueden trabajar en un entorno seguro. En el Operario Aumentado la RA muestra información relevante al trabajador de una manera no intrusiva.¿ Gestión Interactiva de Modelos 3D: gestión online y visualización de modelos CAD multimedia, mediante conversión automática de modelos CAD a la Web. La tecnología Web3D permite la visualización e interacción de estos modelos en dispositivos móviles de baja potencia.Además, estas contribuciones han permitido analizar los desafíos presentados por Industry 4.0. La tesis ha contribuido a proporcionar una prueba de concepto para algunos de esos desafíos: en factores humanos, simulación, visualización e integración de modelos.
Ver más...
DIEZ MCCREADY, HELEN VICTORIA
Supporting the grow-and-prune model for evolving software product lines
- Dirección:
- DIAZ GARCIA, OSCAR
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2018
- Resumen:
Software Product Lines (SPLs) aim at supporting the development of a whole family of software products through a systematic reuse of shared assets. To this end, SPL development is separated into two interrelated processes: (1) domain engineering (DE), where the scope and variability of the system is defined and reusable core-assets are developed; and (2) application engineering (AE), where products are derived by selecting core assets and resolving variability. Evolution in SPLs is considered to be more challenging than in traditional systems, as both core-assets and products need to co-evolve. The so-called grow-and-prune model has proven great flexibility to incrementally evolve an SPL by letting the products grow, and later prune the product functionalities deemed useful by refactoring and merging them back to the reusable SPL core-asset base. This Thesis aims at supporting the grow-and-prune model as for initiating and enacting the pruning. Initiating the pruning requires SPL engineers to conduct customization analysis, i.e. analyzing how products have changed the core-assets. Customization analysis aims at identifying interesting product customizations to be ported to the core-asset base. However, existing tools do not fulfill engineers needs to conduct this practice. To address this issue, this Thesis elaborates on the SPL engineers' needs when conducting customization analysis, and proposes a data-warehouse approach to help SPL engineers on the analysis. Once the interesting customizations have been identified, the pruning needs to be enacted. This means that product code needs to be ported to the core-asset realm, while products are upgraded with newer functionalities and bug-fixes available in newer core-asset releases. Herein, synchronizing both parties through sync paths is required. However, the state of-the-art tools are not tailored to SPL sync paths, and this hinders synchronizing core-assets and products. To address this issue, this Thesis proposes to leverage existing Version Control Systems (i.e. git/Github) to provide sync operations as first-class constructs.
Ver más...
MONTALVILLO MENDIZABAL, LETICIA
Towards a framework for socially interactive robots
- Dirección:
- LAZKANO ORTEGA, ELENA;
- RUIZ VAZQUEZ, MARIA CONSUELO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2018
- Resumen:
En las últimas décadas, la investigación en el campo de la robótica social ha crecidoconsiderablemente. El desarrollo de diferentes tipos de robots y sus roles dentro de la sociedad seestán expandiendo poco a poco. Los robots dotados de habilidades sociales pretenden ser utilizadospara diferentes aplicaciones; por ejemplo, como profesores interactivos y asistentes educativos, paraapoyar el manejo de la diabetes en niños, para ayudar a personas mayores con necesidadesespeciales, como actores interactivos en el teatro o incluso como asistentes en hoteles y centroscomerciales.El equipo de investigación RSAIT ha estado trabajando en varias áreas de la robótica, en particular,en arquitecturas de control, exploración y navegación de robots, aprendizaje automático y visión porcomputador. El trabajo presentado en este trabajo de investigación tiene como objetivo añadir unanueva capa al desarrollo anterior, la capa de interacción humano-robot que se centra en lascapacidades sociales que un robot debe mostrar al interactuar con personas, como expresar ypercibir emociones, mostrar un alto nivel de diálogo, aprender modelos de otros agentes, establecery mantener relaciones sociales, usar medios naturales de comunicación (mirada, gestos, etc.),mostrar personalidad y carácter distintivos y aprender competencias sociales.En esta tesis doctoral, tratamos de aportar nuestro grano de arena a las preguntas básicas que surgencuando pensamos en robots sociales: (1) ¿Cómo nos comunicamos (u operamos) los humanos conlos robots sociales?; y (2) ¿Cómo actúan los robots sociales con nosotros? En esa línea, el trabajo seha desarrollado en dos fases: en la primera, nos hemos centrado en explorar desde un punto de vistapráctico varias formas que los humanos utilizan para comunicarse con los robots de una maneranatural. En la segunda además, hemos investigado cómo los robots sociales deben actuar con elusuario.Con respecto a la primera fase, hemos desarrollado tres interfaces de usuario naturales quepretenden hacer que la interacción con los robots sociales sea más natural. Para probar talesinterfaces se han desarrollado dos aplicaciones de diferente uso: robots guía y un sistema de controlde robot humanoides con fines de entretenimiento. Trabajar en esas aplicaciones nos ha permitidodotar a nuestros robots con algunas habilidades básicas, como la navegación, la comunicación entrerobots y el reconocimiento de voz y las capacidades de comprensión.Por otro lado, en la segunda fase nos hemos centrado en la identificación y el desarrollo de losmódulos básicos de comportamiento que este tipo de robots necesitan para ser socialmente creíblesy confiables mientras actúan como agentes sociales. Se ha desarrollado una arquitectura(framework) para robots socialmente interactivos que permite a los robots expresar diferentes tiposde emociones y mostrar un lenguaje corporal natural similar al humano según la tarea a realizar y lascondiciones ambientales.La validación de los diferentes estados de desarrollo de nuestros robots sociales se ha realizadomediante representaciones públicas. La exposición de nuestros robots al público en esas actuacionesse ha convertido en una herramienta esencial para medir cualitativamente la aceptación social de losprototipos que estamos desarrollando. De la misma manera que los robots necesitan un cuerpo físicopara interactuar con el entorno y convertirse en inteligentes, los robots sociales necesitan participarsocialmente en tareas reales para las que han sido desarrollados, para así poder mejorar susociabilidad.
Ver más...
RODRIGUEZ RODRIGUEZ, IGOR
Traductor de consultas SPARQL, formuladas sobre fuentes de datos incompletamente alineadas, que aporta una estimación de la calidad de la traducción.
- Dirección:
- BERMUDEZ DE ANDRES, JESUS;
- ILLARRAMENDI ECHAVE, MARIA ARANZAZU
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
EXTRACTO/RESUMENHoy en día existe en la Web un número cada vez mayor de conjuntos de datos enlazados de distinta procedencia, referentes a diferentes dominios y que se encuentran accesibles al público en general para ser libremente explotados. Esta tesis doctoral centra su estudio en el ámbito del procesamiento de consultas sobre dicha nube de conjuntos de datos enlazados, abordando las dificultades en su acceso por aspectos relacionados con su heterogeneidad. La principal contribución reside en el planteamiento de una nueva propuesta que permite traducir la consulta realizada sobre un conjunto de datos enlazado a otro sin que estos se encuentren completamente alineados y sin que el usuario tenga que conocer las características técnicas inherentes a cada fuente de datos. Esta propuesta se materializa en un traductor que transforma una consulta SPARQL, adecuadamente expresada en términos de los vocabularios utilizados en un conjunto de datos de origen, en otra consulta SPARQL adecuadamente expresada para un conjunto de datos objetivo que involucra diferentes vocabularios. La traducción se basa en alineaciones existentes entre términos en diferentes conjuntos de datos. Cuando el traductor no puede producir una consulta semánticamente equivalente debido a la escasez de alineaciones de términos, elsistema produce una aproximación semántica de la consulta para evitar devolver una respuesta vacía al usuario. La traducción a través de los distintos conjuntos de datos se logra gracias a la aplicación de un variado grupo de reglas de transformación. En esta tesis se han definido cinco tipos de reglas, dependiendo de la motivación de la transformación, que son: equivalencia, jerarquía, basadas en las respuestas de la consulta, basadas en el perfil de los recursos que aparecen en la consulta y basadas en las características asociadas a los recursos que aparecen en la consulta.Además, al no garantizar el traductor la preservación semántica debido a la heterogeneidad de los vocabularios se vuelve crucial el obtener una estimación de la calidad de la traducción producida. Por ello otra de las contribuciones relevantes de la tesis consiste en la definición del modo en que informar al usuario sobre la calidad de la consulta traducida, a través de dos indicadores: un factor de similaridad que se basa en el proceso de traducción en sí, y un indicador de calidad de los resultados, estimado gracias a un modelo predictivo.Finalmente, esta tesis aporta una demostración de la viabilidad estableciendo un marco de evaluación sobre el que se ha validado un prototipo del sistema.
Ver más...
TORRE BASTIDA,ANA ISABEL
Personalizing the web: A tool for empowering end-users to customize the web through browser-side modification
- Dirección:
- DIAZ GARCIA, OSCAR
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2017
- Resumen:
Web applications Web applications delegate to the browser the final rendering of their pages. Thispermits browser-based transcoding (a.k.a. Web Augmentation) that can be ultimately singularized for eachbrowser installation. This creates an opportunity for Web consumers to customize their Web experiences.This vision requires provisioning adequate tooling that makes Web Augmentation affordable to laymen.We consider this a special class of End-User Development, integrating Web Augmentation paradigms.The dominant paradigm in End-User Development is scripting languages through visual languages.This thesis advocates for a Google Chrome browser extension for Web Augmentation. This is carried outthrough WebMakeup, a visual DSL programming tool for end-users to customize their own websites.WebMakeup removes, moves and adds web nodes from different web pages in order to avoid tabswitching, scrolling, the number of clicks and cutting and pasting. Moreover, Web Augmentationextensions has difficulties in finding web elements after a website updating. As a consequence, browserextensions give up working and users might stop using these extensions. This is why two differentlocators have been implemented with the aim of improving web locator robustness.
Ver más...
ALDALUR CEBERIO, IÑIGO
Contributions to comprehensible classification
- Dirección:
- MUGUERZA RIVERO, JAVIER FRANCISCO;
- PEREZ DE LA FUENTE, JESUS MARIA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
La tesis doctoral descrita en esta memoria ha contribuido a la mejora de dos tipos de algoritmos declasificación comprensibles: algoritmos de \'arboles de decisión consolidados y algoritmos de inducciónde reglas tipo PART.En cuanto a las contribuciones a la consolidación de algoritmos de árboles de decisión, se hapropuesto una nueva estrategia de remuestreo que ajusta el número de submuestras para permitir cambiarla distribución de clases en las submuestras sin perder información. Utilizando esta estrategia, la versiónconsolidada de C4.5 (CTC) obtiene mejores resultados que un amplio conjunto de algoritmoscomprensibles basados en algoritmos genéticos y clásicos. Tres nuevos algoritmos han sido consolidados:una variante de CHAID (CHAID*) y las versiones Probability Estimation Tree de C4.5 y CHAID* (C4.4y CHAIC). Todos los algoritmos consolidados obtienen mejores resultados que sus algoritmos de\'arboles de decisión base, con tres algoritmos consolidados clasificándose entre los cuatro mejores en unacomparativa. Finalmente, se ha analizado el efecto de la poda en algoritmos simples y consolidados de\'arboles de decisión, y se ha concluido que la estrategia de poda propuesta en esta tesis es la que obtiene mejores resultados.En cuanto a las contribuciones a algoritmos tipo PART de inducción de reglas, una primerapropuesta cambia varios aspectos de como PART genera \'arboles parciales y extrae reglas de estos, locual resulta en clasificadores con mejor capacidad de generalizar y menor complejidad estructuralcomparando con los generados por PART. Una segunda propuesta utiliza \'arboles completamentedesarrollados, en vez de parcialmente desarrollados, y genera conjuntos de reglas que obtienen aúnmejores resultados de clasificación y una complejidad estructural menor. Estas dos nuevas propuestas y elalgoritmo PART original han sido complementadas con variantes basadas en CHAID* para observar siestos beneficios pueden ser trasladados a otros algoritmos de \'arboles de decisión y se ha observado, dehecho, que los algoritmos tipo PART basados en CHAID* también crean clasificadores más simples ycon mejor capacidad de clasificar que CHAID*.
Ver más...
IBARGUREN ARRIETA, IGOR
A context -and template- based data compression approach to improve resource-constrained IoT systems interoperability.
- Dirección:
- CORTIÑAS RODRIGUEZ, ROBERTO;
- GARDEAZABAL MONTON, PEDRO JOSE LUIS
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
El objetivo del Internet de las Cosas (the Internet of Things, IoT) es el de interconectar todo tipo de cosas, desde dispositivos simples, como una bombilla o un termostato, a elementos más complejos y abstractoscomo una máquina o una casa. Estos dispositivos o elementos varían enormemente entre sí, especialmente en las capacidades que poseen y el tipo de tecnologías que utilizan. Esta heterogeneidad produce una gran complejidad en los procesos integración en lo que a la interoperabilidad se refiere.Un enfoque común para abordar la interoperabilidad a nivel de representación de datos en sistemas IoT es el de estructurar los datos siguiendo un modelo de datos estándar, así como formatos de datos basados en texto (e.g., XML). Sin embargo, el tipo de dispositivos que se utiliza normalmente en sistemas IoT tiene capacidades limitadas, así como recursos de procesamiento y de comunicación escasos. Debido a estas limitaciones no es posible integrar formatos de datos basados en texto de manera sencilla y e1ciente en dispositivos y redes con recursos restringidos. En esta Tesis, presentamos una novedosa solución de compresión de datos para formatos de datos basados en texto, que está especialmente diseñada teniendo en cuenta las limitaciones de dispositivos y redes con recursos restringidos. Denominamos a esta solución Context- and Template-based Compression (CTC). CTC mejora la interoperabilidad a nivel de los datos de los sistemas IoT a la vez que requiere muy pocos recursos en cuanto a ancho de banda de las comunicaciones, tamaño de memoria y potencia de procesamiento.
Ver más...
BERZOSA MACHO, JORGE
Assisted Interaction for Improving Web Accessibility: An Approach Driven and Tested by Userswith Disabilities
- Dirección:
- ABASCAL GONZALEZ, JULIO;
- ARRUE RECONDO, MYRIAM
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
Un porcentaje cada vez mayor de la población mundial depende de la Web para trabajar, socializar, opara informarse entre otras muchas actividades. Los beneficios de la Web son todavía más cruciales paralas personas con discapacidades ya que les permite realizar un sinfín de tareas que en el mundo físico lesestán restringidas debido distintas barreras de accesibilidad. A pesar de sus ventajas, la mayoría depáginas web suelen ignoran las necesidades especiales de las personas con discapacidad, e incluyen undiseño único para todos los usuarios. Existen diversos métodos para combatir este problema, como porejemplo los sistemas de ¿transcoding¿, que transforman automáticamente páginas web inaccesibles enaccesibles. Para mejorar la accesibilidad web a grupos específicos de personas, estos métodos requiereninformación sobre las técnicas de adaptación más adecuadas que deben aplicarse.En esta tesis se han realizado una serie de estudios sobre la idoneidad de diversas técnicas de adaptaciónpara mejorar la navegación web para dos grupos diferentes de personas con discapacidad: personas conmovilidad reducida en miembros superiores y personas con baja visión. Basado en revisionesbibliográficas y estudios observacionales, se han desarrollado diferentes adaptaciones de interfaces web ytécnicas alternativas de interacción, que posteriormente han sido evaluadas a lo largo de varios estudioscon usuarios con necesidades especiales. Mediante análisis cualitativos y cuantitativos del rendimiento yla satisfacción de los participantes, se han evaluado diversas adaptaciones de interfaz y métodosalternativos de interacción. Los resultados han demostrado que las técnicas probadas mejoran el acceso ala Web y que los beneficios varían según la tecnología asistiva usada para acceder al ordenador.
Ver más...
PEREZ LOPEZ, JUAN EDUARDO
Linked data wrapper curation: A platform perspective
- Dirección:
- DIAZ GARCIA, OSCAR;
- ITURRIOZ SANCHEZ, JUAN IGNACIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2017
- Resumen:
Linked Data Wrappers (LDWs) turn Web APIs into RDF end-points, leveraging the LOD cloud with current data. This potential is frequently undervalued, regarding LDWs as mere by-products of larger endeavors, e.g. developing mashup applications. However, LDWs are mainly data-driven, not contaminated by application semantics, hence with an important potential for reuse. If LDWs could be decoupled from their breakout projects, this would increase the chances of LDWs becoming truly RDF end-points. But this vision is still under threat by LDW fragility upon API upgrades, and the risk of unmaintained LDWs. LDW curation might help. Similar to dataset curation, LDW curation aims to clean up datasets but, in this case, the dataset is implicitly described by the LDW definition, and ¿stains¿ are not limited to those related with the dataset quality but also include those related to the underlying API. This requires the existence of LDW Platforms that leverage existing code repositories with additional functionalities that cater for LDW definition, deployment and curation. This dissertation contributes to this vision through: (1) identifying a set of requirements for LDW Platforms; (2) instantiating these requirements in SYQL, a platform built upon Yahoo's YQL; (3) evaluating SYQL through a fully-developed proof of concept; and (4), validating the extent to which this approach facilitates LDW curation.
Ver más...
AZPEITIA LAKUNTZA, IKER AITOR
Paradigmas de aprendizaje automático aplicados a la teledetección: imágenes RGB e imágenes multiespectrales.
- Dirección:
- ALARCON MARTINEZ, TERESA EFIGENIA;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2019
- Resumen:
La tendencia actual en el uso de sensores para recopilar datos georreferenciados con una alta redundancia, se basa en la aplicación de métodos robustos y automatizados para extraer información geoespacial. Los resultados derivan en un cambio de paradigmas en tecnologías geoespaciales, que hasta este momento no han generado un límite en su aplicación. Sumado a ello, los avances en tecnologías sobre ordenadores, aprendizaje máquina, detección de patrones y visión computacional muestran una clara tendencia a la generación de estudios avanzados sobre imágenes, lo cual impulsa a la investigación de la información geoespacial con un progreso exponencial.El presente trabajo realiza un recorrido sobre paradigmas de aprendizaje automático aplicados en imágenes aéreas (RGB) y satelitales (multiespectrales), metodologías que han sido aplicadas en campo con interesantes resultados.
Ver más...
CALVARIO SANCHEZ, GABRIELA
Distributed eventual leader election in the crash-recovery and general omission failure models.
- Dirección:
- CORTIÑAS RODRIGUEZ, ROBERTO;
- LARREA ALAVA, MIKEL
- Calificación:
- Sobresaliente
- Año:
- 2020
- Resumen:
Distributed applications are present in many aspects of everyday life. Banking, healthcare or transportation are examples of such applications. These applications are built on top of distributed systems. Roughly speaking, a distributed system is composed of a set of processes that collaborate among them to achieve a common goal. When building such systems, designers have to cope with several issues, such as different synchrony assumptions and failure occurrence. Distributed systems must ensure that the delivered service is trustworthy.Agreement problems compose a fundamental class of problems in distributed systems. All agreement problems follow the same pattern: all processes must agree on some common decision. Most of the agreement problems can be considered as a particular instance of the Consensus problem. Hence, they can be solved by reduction to consensus. However, a fundamental impossibility result, namely (FLP), states that in an asynchronous distributed system it is impossible to achieve consensus deterministically when at least one process may fail. A way to circumvent this obstacle is by using unreliable failure detectors. A failure detector allows to encapsulate synchrony assumptions of the system, providing (possibly incorrect) information about process failures. A particular failure detector, called Omega, has been shown to be the weakest failure detector for solving consensus with a majority of correct processes. Informally, Omega lies on providing an eventual leader election mechanism.
Ver más...
FERNANDEZ CAMPUSANO, CHRISTIAN ROBERT
Promoting End-User Involvement in Web-based tasks: a Model-Driven Engineering Approach to Form-filling and User-Acceptance Testing
- Dirección:
- DIAZ GARCIA, OSCAR
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Many applications which formerly were designed for the desktop have gradually made atransition to the Web. Accordingly, an increasing number of tasks can now be conductedthrough the Web. As a result, opportunities arise to achieve a higher level of automation thatthe one being previously possible with proprietary, OS-anchored desktop applications. Thisresulted in an emerging interest in empowering users to check, adapt and customize the waythey navigate and make use of these applications. Web automation, Web augmentation, orWeb mashups are performant approaches that pursuit this aim.This work explores the use of scripting for two tasks, namely, Web-form filling and WebapplicationUser-Acceptance Testing (UAT). In both cases, the challenge rests on abstractingfrom scripting code to higher models that permit the notion of scripting to be hidden intomore-affordable representations. Accordingly, this work abstracts scripts into platformindependentmodels. For Web-form filling, we tackle the problem of repetitive form-fillingfrom external sources. The solution is realized through WebFeeder, a plugin for iMacros thatintroduces autofilling-script models as first-class artifacts in iMacros. As for UAT, we tackle theissue of the need for the regular physical-presence of stakeholders for UAT in Agilemethodologies. In this case, we resort to mind-maps as the model representation. These ideasare fleshed out in TestMind, an editor for FitNesse that permits to capture UAT sessions as testmaps. Summing it up, the bottom line is that WebFeeder and TestMind showcase the benefitsthat Model-Driven Engineering can bring to Web Automation. By moving away from code tohigh-level models, Model-Driven Engineering reduces the entry barrier for the participation ofend-users.
Ver más...
OTADUY IGARTUA, ITZIAR
Certificates for decision problems in temporal logic using context-based tableaux and sequent calculi.
- Dirección:
- HERMO HUGUET, MONTSERRAT;
- LUCIO CARRASCO, FRANCISCA;
- PARRA MOLINA, JORGE
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Esta tesis trata de resolver problemas de Satisfactibilidad y Model Checking, aportando certificados del resultado. En ella, se trabaja con tres lógicas temporales: Propositional Linear Temporal Logic (PLTL), Computation Tree Logic (CTL) y Extended Computation Tree Logic (ECTL). Primero se presenta el trabajo realizado sobre Certified Satisfiability. Ahí se muestra una adaptación del ya existente método dual de tableaux y secuentes basados en contexto para satisfactibilidad de fórmulas PLTL en Negation Normal Form. Se ha trabajado la generación de certificados en el caso en el que las fórmulas son insactisfactibles. Por último, se aporta una prueba de soundness del método. Segundo, se ha optimizado con Sat Solvers el método de Certified Satisfiability para el contexto de Certified Model Checking. Se aportan varios ejemplos de sistemas y propiedades. Tercero, se ha creado un nuevo método dual de tableaux y secuentes basados en contexto para realizar Certified Satisfiability para fórmulas CTL yECTL. Se presenta el método y un algoritmo que genera tanto el modelo en el caso de que las fórmulas son satisfactibles como la prueba en el caso en que no lo sean. Por último, se presenta una implementación del método para CTL y una experimentación comparando el método propuesto con otro método de similares características.
Ver más...
ABUIN YEPES ALEX
Contributions to autonomous robust navigation of mobile robots in industrial applications
- Dirección:
- ANSUATEGUI COBO, ANDER;
- LAZKANO ORTEGA, ELENA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Un aspecto en el que las plataformas móviles actuales se quedan atrás en comparación con el punto quese ha alcanzado ya en la industria es la precisión. La cuarta revolución industrial trajo consigo laimplantación de maquinaria en la mayor parte de procesos industriales, y una fortaleza de estos es surepetitividad. Los robots móviles autónomos, que son los que ofrecen una mayor flexibilidad, carecen deesta capacidad, principalmente debido al ruido inherente a las lecturas ofrecidas por los sensores y aldinamismo existente en la mayoría de entornos. Por este motivo, gran parte de este trabajo se centra encuantificar el error cometido por los principales métodos de mapeado y localización de robots móviles,ofreciendo distintas alternativas para la mejora del posicionamiento.Asimismo, las principales fuentes de información con las que los robots móviles son capaces de realizarlas funciones descritas son los sensores exteroceptivos, los cuales miden el entorno y no tanto el estadodel propio robot. Por esta misma razón, algunos métodos son muy dependientes del escenario en el que sehan desarrollado, y no obtienen los mismos resultados cuando este varía. La mayoría de plataformasmóviles generan un mapa que representa el entorno que les rodea, y fundamentan en este muchos de suscálculos para realizar acciones como navegar. Dicha generación es un proceso que requiere deintervención humana en la mayoría de casos y que tiene una gran repercusión en el posteriorfuncionamiento del robot. En la última parte del presente trabajo, se propone un método que pretendeoptimizar este paso para así generar un modelo más rico del entorno sin requerir de tiempo adicional paraello.
Ver más...
LLUVIA HERMOSILLA IKER
Robust Laser-Based Optical Measurement in Industrial Harsh Environments.
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
This thesis reports on the design and experimental assessment of reliable dimensional control using laser based optical devices. Modeling and calibration of such systems, as well as the filtering of the delivered data, has been one of the primary motivations. In particular, modern AI-based algorithms such as Deep Learning and Machine Learning have made these processes faster and easier. Two scenarios were chosen to validate experimentally this work. The former consists of an in-line inspection where complex warm forged revolution parts for automotive propulsion systems are measured. The latter computes the flatness and the surface quality of metal sheets produced by a cut to length production line, where the entire process of unwinding, fattening, cutting, and stacking metal sheets takes place.
Ver más...
ALONSO NIETO, MARCOS
Data-centric Design and Training of Deep Neural Networks with Multiple Data Modalities for Vision-basedPerception Systems
- Dirección:
- ARGANDA CARRERAS, IGNACIO;
- UNZUETA IRURTIA, LUIS
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Los avances en visión artificial y aprendizaje automático han revolucionado lacapacidad de construir sistemas que procesen e interpreten datos digitales, permitiéndoles imitar la percepción humana y abriendo el camino a un amplio rangode aplicaciones. En los últimos años, ambas disciplinas han logrado avances significativos,impulsadas por los progresos en las técnicas de aprendizaje profundo(deep learning). El aprendizaje profundo es una disciplina que utiliza redes neuronalesprofundas (DNNs, por sus siglas en inglés) para enseñar a las máquinasa reconocer patrones y hacer predicciones basadas en datos. Los sistemas depercepción basados en el aprendizaje profundo son cada vez más frecuentes endiversos campos, donde humanos y máquinas colaboran para combinar sus fortalezas.Estos campos incluyen la automoción, la industria o la medicina, dondemejorar la seguridad, apoyar el diagnóstico y automatizar tareas repetitivas sonalgunos de los objetivos perseguidos.
Ver más...
ARANJUELO ANSA NEREA
Visual computing techniques for automated LIDAR annotation with application to intelligent transport systems
- Dirección:
- GARCIA ALONSO MONTOYA, ALEJANDRO;
- GRAÑA ROMAY, MANUEL MARIA;
- OTAEGUI MADURGA, OIHANA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
The concept of Intelligent Transport Systems (ITS) refers to the application of communication and information technologies to transport with the aim of making it more efficient, sustainable, and safer. Computer vision is increasingly being used for ITS applications, such as infrastructure management or advanced driver-assistance systems. The latest progress in computer vision, thanks to the Deep Learning techniques, and the race for autonomous vehicle, have created a growing requirement for annotated data in the automotive industry. The data to be annotated is composed by images captured by the cameras of the vehicles and LIDAR data in the form of point clouds. LIDAR sensors are used for tasks such as object detection and localization. The capacity of LIDAR sensors to identify objects at long distances and to provide estimations of their distance make them very appealing sensors for autonomous driving.This thesis presents a method to automate the annotation of lane markings with LIDAR data. The state of the art of lane markings detection based on LIDAR data is reviewed and a novel method is presented. The precision of the method is evaluated against manually annotated data. Its usefulness is also evaluated, measuring the reduction of the required time to annotate new data thanks to the automatically generated pre-annotations. Finally, the conclusions of this thesis and possible future research lines are presented.
Ver más...
BARANDIARAN MARTIRENA,JOSE JAVIER
Advances in Streaming Novelty Detection.
- Dirección:
- INZA CANO, IÑAKI;
- LOZANO ALONSO, JOSE ANTONIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
En primer lugar, en esta tesis se aborda un problema de confusión entre términos y problemas en el cualel mismo término es utilizado para referirse a diferentes problemas y, de manera similar, el mismoproblema es llamado con diferentes términos indistintamente. Esto motiva una dificultad de avance en elcampo de conocimiento dado que es difícil encontrar literatura relacionada y propicia la repetición detrabajos. En la primera contribución se propone una asignación individual de términos a problemas y unaformalización de los escenarios de aprendizaje para tratar de estandarizar el campo.En segundo lugar, se aborda el problema de Streaming Novelty Detection. En este problema, partiendo deun conjunto de datos supervisado, se aprende un modelo. A continuación, el modelo recibe nuevasinstancias no etiquetadas para predecir su clase de manera online o en stream. El modelo debeactualizarse para hacer frente al concept-drift. En este escenario de clasificación, se asume que puedensurgir nuevas clases de forma dinámica. Por lo tanto, el modelo debe ser capaz de descubrir nuevas clasesde manera automática y sin supervisión. En este contexto, esta tesis propone 2 contribuciones. En primerlugar una solución basada en mixturas de Guassianas donde cada clase en modelada con una de lascomponentes de la mixtura. En segundo lugar, se propone el uso de redes neuronales, tales como lasredes Autoencoder, y las redes Deep Support Vector Data Description para trabajar con seriestemporales.
Ver más...
CARREÑO LOPEZ, ANDER
Visión artificial aplicada a los sistemas de transporte inteligentes: aplicaciones prácticas
- Dirección:
- NIETO DONCEL, MARCOS;
- RODRIGUEZ LAFUENTE, CLEMENTE
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Esta tesis se focaliza en diferentes investigaciones y desarrollos llevados a cabo en el ámbito de los sistemas de transporte inteligente a diferentes niveles. Se han enfrentado problemas como la segmentación de vehículos, la detección y reconocimiento de elementos intrínsecamente relacionados con la infraestructura vial contemplando la posibilidad de extender esta detección a elementos ajenos a la infraestructura que pudieran generar situaciones de peligro si irrumpiesen de manera fortuita en las vías de transporte y se han realizado también, estudios teóricos sobre temas concretos que pueden actuar de guía para investigaciones realizadas en las líneas analizadas.En lo referente a los campos de aplicación, se proponen soluciones en diferentes áreas relacionadas con los sistemas de transporte inteligente. En concreto, soluciones para el peaje en sombra, donde se perseguían los objetivos de detección, clasificación y estimación de velocidad de los vehículos que transitaban una vía, soluciones para sistemas de asistencia avanzada a la conducción como el reconocimiento de señales de tráfico para ajustar la velocidad del vehículo e informar al conductor.
Ver más...
CORTES VIDAL,ANDONI
Técnicas de Visión e Inteligencia Artificial para Aplicaciones Industriales en Producción
- Dirección:
- AGINAKO BENGOA, NAIARA;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La Visión Artificial (VA) o Computer Vision (CV) está muy presente tanto en aplicaciones personales cotidianas como en la industria productiva, donde es una de las tecnologías fundacionales de la automatización de muchos de los procesos visuales. La elección de las arquitecturas SW y HW, así como su configuración/modificación para los casos de uso concretos, requieren nuevas líneas y tareas de investigación para poder garantizar la Fiabilidad, Disponibilidad, Mantenibilidad, Escalabilidad (FDME), y en último caso, y si la funcionalidad así lo requiere, la Seguridad de los productos/servicios para que al final sistemas basados en estas tecnologías puedan ser comercializados. Este proyecto de tesis tiene como objetivo proporcionar conocimientos y herramientas basados en sistema de Visión e Inteligencia Artificial (VA&IA) para el desarrollo de:*Prototipos funcionales y accesibles para cualquier tipo de empresa.*Productos comerciales en producción.*Productos para sistemas embebidos.*Funcionalidades de tipo Nivel de Integridad de Seguridad (NIS) o Safety Integrity Level (SIL).
Ver más...
LABAYEN ESNAOLA, MIKEL
On the use of context information for an improved application of data-based algorithms in condition monitoring.
- Dirección:
- FERREIRO DEL RIO, SUSANA;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
En el campo de la monitorización de la condición, los algoritmos basados en datos cuentan con un amplio recorrido. Desde el uso de los gráficos de control de calidad que se llevan empleando durante casi un siglo a técnicas de mayor complejidad como las redes neuronales o máquinas de soporte vectorial que se emplean para detección, diagnóstico y estimación de vida remanente de los equipos. Sin embargo, la puesta en producción de los algoritmos de monitorización requiere de un estudio exhaustivo de un factor que es a menudo obviado por otros trabajos de la literatura: el contexto. El contexto, que en este trabajo es considerado como el conjunto de factores que influencian la monitorización de un bien, tiene un gran impacto en la algoritmia de monitorización y su aplicación final. Por este motivo, es el objeto de estudio de esta tesis en la que se han analizado tres casos de uso. Se ha profundizado en sus respectivos contextos, tratando de generalizar a la problemática habitual en la monitorización de maquinaria industrial, y se ha abordado dicha problemática de monitorización de forma que solucionen el contexto en lugar de cada caso de uso. Así, el conocimiento adquirido durante el desarrollo de las soluciones puede ser transferido a otros casos de uso que cuenten con contextos similares.
Ver más...
LOPEZ DE CALLE ETXABE, KERMAN
Contribuciones al modelado semántico de las comunidades de práctica en línea.
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA;
- RIOS PEREZ, SEBASTIAN
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2018
- Resumen:
Esta tesis está dirigida al estudio de un tipo especifico de redes sociales, las comunidades de practica, que se caracterizan por poseer un interés común que aglutina a los miembros. Consideramos la construcción de los grafos de relación de estas redes sociales en base a las comunicaciones que se realizan entre sus miembros mediante la publicación en los foros internos. Para mejorar la representación eliminando información espuria utilizamos herramientas de modelado semántico. La identificación de los miembros centrales en esta representación mejorada se ajusta mucho mejor a la realidad de la comunidad, usando como informacio ¿n de validación la identificación de miembros relevantes realizada por el administrador de la red. Utilizamos dos comunidades de práctica reales, de las que disponemos tanto de los datos como de la identificación de los miembros relevantes dada por los administradores de la red.
Ver más...
AGUILERA VALENZUELA, FELIPE IGNACIO
Contribution to supervised representation learning: algorithms and applications.
- Dirección:
- DORNAIKA , FADI;
- MOUJAHID MOUJAHID, ABDELMALIK
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
In this thesis, we focus on supervised learning methods for pattern categorization. In this context, itremains a major challenge to establish efficient relationships between the discriminant properties of theextracted features and the inter-class sparsity structure.Our first attempt to address this problem was to develop a method called "Robust Discriminant Analysiswith Feature Selection and Inter-class Sparsity" (RDA_FSIS). This method performs feature selectionand extraction simultaneously. The targeted projection transformation focuses on the most discriminativeoriginal features while guaranteeing that the extracted (or transformed) features belonging to the sameclass share a common sparse structure, which contributes to small intra-class distances.In a further study on this approach, some improvements have been introduced in terms of theoptimization criterion and the applied optimization process. In fact, we proposed an improved version ofthe original RDA_FSIS called "Enhanced Discriminant Analysis with Class Sparsity using GradientMethod" (EDA_CS). The basic improvement is twofold: on the first hand, in the alternatingoptimization, we update the linear transformation and tune it with the gradient descent method, resultingin a more efficient and less complex solution than the closed form adopted in RDA_FSIS.On the other hand, the method could be used as a fine-tuning technique for many feature extractionmethods. The main feature of this approach lies in the fact that it is a gradient descent based refinementapplied to a closed form solution. This makes it suitable for combining several extraction methods andcan thus improve the performance of the classification process.In accordance with the above methods, we proposed a hybrid linear feature extraction scheme called"feature extraction using gradient descent with hybrid initialization" (FE_GD_HI). This method, basedon a unified criterion, was able to take advantage of several powerful linear discriminant methods. Thelinear transformation is computed using a descent gradient method. The strength of this approach is thatit is generic in the sense that it allows fine tuning of the hybrid solution provided by different methods.Finally, we proposed a new efficient ensemble learning approach that aims to estimate an improved datarepresentation. The proposed method is called "ICS Based Ensemble Learning for Image Classification"(EM_ICS). Instead of using multiple classifiers on the transformed features, we aim to estimate multipleextracted feature subsets. These were obtained by multiple learned linear embeddings. Multiple featuresubsets were used to estimate the transformations, which were ranked using multiple feature selectiontechniques. The derived extracted feature subsets were concatenated into a single data representationvector with strong discriminative properties.Experiments conducted on various benchmark datasets ranging from face images, handwritten digitimages, object images to text datasets showed promising results that outperformed the existing state-ofthe-art and competing methods.
Ver más...
KHODER , AHMAD
Konputazio fisiologikorako ekarpenak ikasketa automatikoaren bidez/Contributions to physiological computing by means of automatic learning.
- Dirección:
- ARRUTI ILLARRAMENDI, ANTONIO;
- MARTIN ARAMBURU, JOSE IGNACIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
El trabajo presentado en esta tesis se enmarca dentro de dos áreas dentro de la computación fisiológica, que a su vez forma parte de las ciencias de la computación. La primera área trabajada corresponde a la de la detección de fenómenos psicológicos y estados mentales mediante la monitorización de las variables fisiológicas de las personas. La segunda área que se estudia en esta tesis forma parte del estudio de formas alternativas de interacción: los interfaces cerebro-computador.La primera contribución mejora un sistema de lógica difusa que, mediante la monitorización de las señales fisiológicas, es capaz de dar una estimación continuada en el tiempo del nivel del estrés mental. La segunda contribución continua con esta línea y estudia la detección de las respuestas fisiológicas del fenómeno opuesto al estrés: la relajación. En esta contribución se presentan características innovadoras que facilitan dicha detección y la pone en práctica con métodos de aprendizaje automático.Finalmente, la tercera contribución estudia diferentes técnicas de aprendizaje para distinguir entre cuatro clases de movimiento más una quinta clase de no intencionalidad de movimiento en un problema de BCI.
Ver más...
SALAZAR RAMIREZ, ASIER
Contribution to Graph-based Manifold Learning with Application to Image Categorization.
- Dirección:
- DORNAIKA , FADI
- Menciones:
- Cum Laude
- Tésis Internacional
- Tésis en Cotutela
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
Los algoritmos de aprendizaje de variedades basados en grafos (Graph,based manifold) son técnicas que han demostrado ser potentes herramientas para la extracción de características y la reducción de la dimensionalidad en los campos de reconomiento de patrones, visión por computador y aprendizaje automático. Estos algoritmos utilizan información basada en las similitudes de pares de muestras y del grafo ponderado resultante para revelar la estructura geométrica intrínseca de la variedad.
Ver más...
ZHU , RUIFENG
Efficient meta-heuristics for spacecraft trajectory optimization
- Dirección:
- CEBERIO URIBE, JOSU;
- LOZANO ALONSO, JOSE ANTONIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
Uno de los problemas más difíciles de la ingeniería espacial es la optimización de la trayectoria de las naves espaciales. Dicha optimización puede formularse como un problema de optimización que dependiendo del tipo de trayectoria, puede contener además restricciones de diversa índole. El principal objetivo de esta tesis fue el desarrollo de algoritmos metaheurísticos eficientes para la optimización de la trayectoria de las naves espaciales. Concretamente, nos hemos centrado en plantear soluciones a maniobras de naves espaciales que contemplan cambios de orbitas de largo y coto alcance. En lo que respecta a la investigación llevada a cabo, inicialmente se ha realizado una revisión de estado del arte sobre optimización de cambios de orbitas de naves espaciales. Según el estudio realizado, la optimización de trayectorias para el cambio de orbitas cuenta con cuatro claves, que incluyen la modelización matemática del problema, la definición de las funciones objetivo, el diseño del enfoque a utilizar y la obtención de la solución del problema. Una vez realizada la revisión del estado del arte, se han desarrollado dos algoritmos metaheurísticos. En primer lugar, se ha desarrollado un algoritmo evolutivo híbrido auto-adaptativo para problemas de cambio de orbitas de largo alcance y multi-impulso. El algoritmo es un método híbrido, combinado con técnicas de autoajuste y un procedimiento derefinamiento individual basado en el uso de distribuciones de probabilidad. Posteriormente, en lo que respecta a los problemas de optimización de trayectoria de los encuentros espaciales de corto alcance, se desarrolla un algoritmo de estimación de distribuciones con mecanismos de conservación de viabilidad. Los mecanismos propuestos aplican métodos innovadores de inicialización, aprendizaje y mapeo dentro del proceso de optimización. Incluyen mixturas de modelos probabilísticos, algoritmos de detección de soluciones atípicas y algunas técnicas heurísticas dentro del proceso de mapeo. Paralelamente al desarrollo de los algoritmos, se ha desarrollado un software de simulación para la visualización de los resultados obtenidos en el cambio de orbitas de las naves espaciales.
Ver más...
SHIRAZI , ABOLFAZL
Contribution to Graph-based Semi-supervised Learning: Joint Label and Latent Space Estimation
- Dirección:
- DORNAIKA , FADI
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Graph-based semi-supervised learning is a model from the field of machine learningthat focuses on developing algorithms that allow computers to learn from data andmake predictions or decisions. Datasets play a critical role in semi-supervisedlearning as they are used to train, evaluate, and validate models. These datasetscontain both labeled and unlabeled data, and techniques such as graph-basedmethods and label propagation leverage both types of data. By leveraging theunderlying graph structure, these methods aim to improve performance on learningtasks. Graph-based embedding approaches are effective in reducing dimensionalityand extracting relevant features. Graphs provide valuable structural information atlocal and global levels. In scenarios where data lacks labels, graph-based semisupervisedlearning (GBSSL) is particularly valuable.This work focuses on investigating and proposing different methods for developingrobust models in the field of graph-based semi-supervised learning. Throughout theresearch, we have explored various approaches and techniques to improve theperformance and effectiveness of these models. By exploiting the inherent structureand relationships in graph data, we aimed to improve the accuracy and reliability ofpredictions.The main contributions of the thesis are as follows.Firstly, this thesis presents a model for joint inference of soft labels and linearmetric learning. This type of criterion, which simultaneously computes the classindicator matrix (soft labels) and the linear projection (latent space), would lead tobetter discriminative SSL models. The methods maximize the local margins withinthe projection space. In addition, both the estimated labels and the transformed dataare subject to smoothing constraints. Secondly, we introduce a new method forgraph-based semi-supervised learning that estimates labels and lineartransformations simultaneously. This is achieved by combining two types of graphs:the data graph based on the data samples and an additional label graph derived fromthe predicted soft labels. By using these hybrid and adaptive graphs, the inclusion ofmonitoring information is improved, resulting in an improved discriminative lineartransformation. This model applies two types of regularization: one for the labelsand one for the transformed data. We refer to this as automatic weighted graphfusion, which involves a weighted combination without explicit coefficients. Thefusion coefficients are estimated automatically during the iterative optimization ofthe objective function. Thirdly, we propose a unified semi-supervised model inwhich a low-rank data graph, the soft labels, and the latent subspace are jointlyestimated with an objective function. The proposed system exploits the synergybetween the graph structure and the data representation in terms of soft labels andlatent features. This improves the monitoring information and leads to a betterdiscriminative linear transformation.We extensively tested and validated our hypotheses in several studies and extendedour experiments and analyzes to demonstrate the robustness of our results. It isworth noting that our hypotheses outperformed many competing semi-supervisedmethods. Through extensive experiments and comparisons with other approaches onvarious benchmark datasets, we validated the superiority of our proposal overnumerous state-of-the-art graph-based semi-supervised algorithms, including thosethat perform joint estimation of labels and latent space. In addition, we evaluated theperformance of our model against other methods on large datasets to provide acomprehensive assessment of its capabilities.Keywords: Graph-based embedding, discriminant embedding, soft labels, semisupervisedlearning, pattern recognition, image categorization, auto-weighted graphfusion, structured data.
Ver más...
BARADAAJI , ABDULLAH
Contributions for the exploitation of Semantic Technologies in Industry 4.0
- Dirección:
- BERGES GONZALEZ, IDOIA;
- ILLARRAMENDI ECHAVE, MARIA ARANZAZU
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2021
- Resumen:
En este trabajo de investigación se promueve la utilización de las tecnologías semánticas, en el entorno de la Industria 4.0, a través de tres contribuciones enfocadas en temas correspondientes a la fabricación inteligente: las descripciones enriquecidas de componentes, la visualización y el análisis de los datos, y la implementación de la Industria 4.0 en PyMEs.La primera contribución es una ontología llamada ExtruOnt, la cual contiene descripciones semánticas de un tipo de máquina de fabricación (la extrusora). En esta ontología se describen los componentes, sus conexiones espaciales, sus características, sus representaciones en tres dimensiones y, finalmente, los sensores utilizados para capturar los datos. La segunda contribución corresponde a un sistema de consulta visual en el cual se utiliza la ontología ExtruOnt y una representación en 2D de la extrusora para facilitar a los expertos de dominio la visualización y la extracción de conocimiento sobre el proceso de fabricación de una manera rápida y sencilla. La tercera contribución consiste en una metodología para la implementación de la Industria 4.0 en PyMEs, orientada al ciclo de vida del cliente y potenciada por el uso de tecnologías Semánticas y tecnologías de renderizado 3D.Las contribuciones han sido desarrolladas, aplicadas y validadas bajo un escenario de fabricación real.
Ver más...
RAMIREZ DURAN, VICTOR JULIO
Estrategias de visión por computador para la estimación de pose en el contexto de aplicaciones robóticas industriales: avances en el uso de modelos tanto clásicos como de Deep Learning en imágenes 2D y nubes de puntos
- Dirección:
- REMAZEILLES , ANTHONY JACKY;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La visión por computador es una tecnogía habilitadora que permite a los robots y sistemas autónomospercibir su entorno. Dentro del contexto de la industria 4.0 y 5.0, la visión por ordenador es esencial parala automatización de procesos industriales. Entre las técnicas de visión por computador, la detección deobjetos y la estimación de la pose 6D son dos de las más importantes para la automatización de procesosindustriales. Para dar respuesta a estos retos, existen dos enfoques principales: los métodos clásicos y losmétodos de aprendizaje profundo. Los métodos clásicos son robustos y precisos, pero requieren de unagran cantidad de conocimiento experto para su desarrollo. Por otro lado, los métodos de aprendizajeprofundo son fáciles de desarrollar, pero requieren de una gran cantidad de datos para su entrenamiento.En la presente memoria de tesis se presenta una revisión de la literatura sobre técnicas de visión porcomputador para la detección de objetos y la estimación de la pose 6D. Además se ha dado respuesta alos siguientes retos: (1) estimación de pose mediante técnicas de visión clásicas, (2) transferencia deaprendizaje de modelos 2D a 3D, (3) la utilización de datos sintéticos para entrenar modelos deaprendizaje profundo y (4) la combinación de técnicas clásicas y de aprendizaje profundo. Para ello, sehan realizado contribuciones en revistas de alto impacto que dan respuesta a los anteriores retos.
Ver más...
MERINO BERMEJO, IBON
OPTIMIZING DEEP NEURAL NETWORK DEPLOYMENT FOR INTELLIGENT SECURITY VIDEO ANALYTICS.
- Dirección:
- ARGANDA CARRERAS, IGNACIO;
- UNZUETA IRURTIA, LUIS
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La vídeo analítica inteligente para la seguridad actualmente aplica algoritmos de Inteligencia Artificial (IA) que permiten dar solución a las limitaciones de la vídeo vigilancia tradicional, que hasta ahora se basa meramente en la monitorización manual y con una capacidad muy limitada para detectar amenazas de seguridad en tiempo real.Las redes neuronales profundas (Deep Neural Networks, DNNs, en inglés) han demostrado ser altamente efectivas para el análisis de vídeo, pero su implementación en las infraestructuras actuales de sistemas inteligentes implican un reto importante debido a sus altos requisitos computacionales. Estas redes son grafos complejos de neuronas interconectadas con un gran número de parámetros y operaciones aritméticas, lo que resulta en cuellos de botella en el procesamiento. Además, las aplicaciones de visión basadas en DNNs involucran múltiples operaciones de inferencia de DNN y de pre- y post-procesamiento de datos, lo que lleva a una mayor sobrecarga de procesamiento. Aunque se han propuesto numerosas técnicas de optimización de DNNs, se necesitan nuevas estrategias de optimización en aplicaciones de extremo-a-extremo (end-to-end) basados en sistemas inteligentes de visión basados en DNNs.Con objetivo de dar respuesta a los requisitos computacionales de los DNNs, los nuevos aceleradores deIA han ido apareciendo en el mercado como (Las TPUs de Google, VPUs de Intel, etc., que se pueden denominar de manera generica como genérica "xPU", así como arquitecturas mejoradas de CPU, GPU y FPGA), diseñados para ser energéticamente eficientes y con un incremento de rendimiento muy considerable para la inferencia DNN. Sin embargo, desplegar de forma eficiente las aplicaciones basadas en DNNs dentro de estos dispositivos requiere de un expertise y know-how significativos. Además, el coste económico de estos dispositivos puede no estar justificado a menos que se utilicen eficientemente. Los sistemas de ISVA pueden estar integrados en plataformas de computación heterogéneas, descentralizadas y distribuidas como entornos en la nube (cloud), la niebla (fog) y dispositivos en extremo (edge) sin conexión o en el contexto de Internet de las Cosas (Internet of Things, IoT, en inglés). Estas plataformas requieren de un análisis exhaustivo en decidir la estrategia óptima de despliegue debido a su diversidad, incluyendo múltiples dispositivos, arquitecturas de aplicaciones y entornos virtualizados de ejecución. Desafortunadamente, estos entornos virtualizados y sus dispositivos hardware asociados no están diseñados para la inferencia DNN, y por lo tanto, no existe un soporte para desplegar estos sistemas entre la diversas opciones de los aceleradores de IA.Esta tesis tiene como objetivo optimizar el despliegue de aplicaciones de visión basadas en DNN dentro de las infraestructuras de sistemas inteligentes teniendo en cuenta los últimos avances en técnicas de optimización y estrategias de despliegue personalizadas de DNNs para visión por computador (Computer Vision, CV, en inglés). La investigación de este trabajo tiene como objetivo mejorar la eficiencia y la eficacia de los sistemas de vídeo analítica, habilitando un proceso de despliegue optimo para los sistemas inteligentes y entornos IoT. Basandose en estas técnicas y estrategias de despliegue de DNNs para CV, esta tesis pretende dar solucion a los desafíos asociados a los requisitos computacionales de las aplicaciones de visión artificial basadas en DNNs.Para lograr estos objetivos, este estudio propone diferentes estrategias de despliegue de DNN para análisis de videoen diferentes entornos de ejecución. Estos entornos incluyen (1) entornos en la nube serverless para delegar procesos a gran escala con una gran variabildad, (2) plataformas IoT heterogéneas y (3) dispositivos edge con recursos computacionales limitados con procesos computacionales exigentes.La primera estrategia proporciona una evaluación integral del rendimiento de la inferencia de DNN en entornos en la nube serverless y estrategias de despliegue de múltiples DNN en el contexto de la video analítica. La segunda estrategia analiza el despliegue óptimo de algoritmos de reconocimiento facial basados en múltiples DNN en entornos de IoT heterogéneos, que incluyen evaluación de calidad facial, anti-suplantación de identidad, verificación facial y gestión de datos biométricos seguros. Finalmente, la tercera estrategia optimiza un flujo proceso constante de vídeo analítica desplegado con múltiples DNNs ejecutándose en dispositivos de bajos recursos para solventar la problemática de la correcta posición del equipaje de mano en la cabina del aviónLos resultados de esta tesis revelan que el despliegue de soluciones basadas en DNN para ISVA pueden beneficiarse de evaluaciones comparativas in-situ y de procedimientos basados en el conocimiento para aprovechar las capacidades computacionales de las plataformas en cada caso de uso.Objetivos y contribucionesEl objetivo principal de esta tesis es aportar ideas y contribuciones al despliegue óptimo de aplicaciones de visión basadas en DNN para sistemas ISVA. Más concretamente, las aportaciones de esta tesis se centran en la generación y despliegue de un pipeline de procesamiento modular en las actuales infraestructuras de sistemas inteligentes. El diseño modular de este pipeline pretende aprovechar la fortaleza de los despliegues personalizados y los factores clave para maximizar el rendimiento. Esta tesis no sólo se centra en la investigación de cómo mejorar los factores clave para el rendimiento, sino que también tiene como objetivo ampliarlos para mejorar el rendimiento de las aplicaciones ISVA como el reconocimiento y seguimiento de personas y objetos.Más concretamente, los objetivos de esta Tesis son los siguientes:Desarrollar un pipeline modular para generar y desplegar modelos DNN de forma óptima:- Adaptado a las necesidades de las infraestructuras de sistemas inteligentes (es decir, centralizado,descentralizado, distribuido con edge/cloud Computing).- Adaptado a las especificaciones de software/hardware de los dispositivos de bajos recursos a los que va dirigido (RAM, CPU, tamaño de almacenamiento, sistema operativo, etc.).- Ajustado a los motores de inferencia DNN disponibles y a las herramientas de despliegueanalizando las estructuras DNN y cómo mejorar sus índices de rendimiento.- Extraer los factores clave para mejorar la eficiencia de los procesos de reconocimiento visual de ISVA como la detección, reconocimiento y seguimiento de objetos y sujetos.Las contribuciones de esta tesis son:- Una metodología para analizar los factores clave en el diseño de las DNNs para mejorar las métricas de rendimiento considerando las arquitecturas DNN propuestas y los diferentes tipos de técnicas de optimización. Este método se presenta en el capítulo 2.- Un método para evaluar el rendimiento de procesamiento de los modelos DNN en entornos serverless. Concretamente, este trabajo propone una técnica de desacoplamiento sobre el actual benchmark de MLPerf para poder ser aplicado al modelo de ejecución de funciones sin servidor. Esta contribución se presenta en la primera parte del capítulo 3.- Una técnica de generación óptima y el despliegue de modelos DNN para arquitecturas sin servidor en la nube para sistemas inteligentes de videovigilancia. Esta contribución también se presenta en el capítulo 3.- Una metodología de despliegue automático de DNNs basado en técnicas de knowledge-driven para soluciones de reconocimiento facial en un entorno IoT heterogéneo. Todo ello, teniendo en cuenta las especificidades de la interacción del usuario, la seguridad del sistema y cuestiones de privacidad. Esta contribución se presenta en el capítulo 4.- Una metodología de despliegue de un sistema de vídeo analítica multi-DNN para entornos de ejecución de bajos recursos ejecutados en el edge. El escenario de despliegue se basa en aplicar algoritmos de reconocimiento de patrones donde el sistema analiza el correcto posicionamiento del equipaje dentro de la cabina de un avión para preservar la seguridad de las personas en el proceso de vuelo como el despegue, aterrizaje y taxi (TTL).-ConclusionesNuestras observaciones finales y las estrategias correspondientes propuestas en este trabajo de investigación son las siguientes:Observación 1: El modelo de computación en la nube serverless es una alternativa adecuada para desplegar aplicaciones de visión basadas en DNN a gran escala.\textit{Estrategia 1}: La gestión óptima de la memoria asignada a las instancias de funciones sin servidor es un factor crucial para maximizar el rendimiento del procesamiento DNN al mínimo costo. Además, el cuello de botella reside en la tarea de procesamiento DNN de cada instancia de función sin servidor. Mientras que los modelos DNN ligeros se pueden implementar eficazmente en entornos serverless, la implementación de modelos DNN grandes no es factible actualmente debido a las restricciones de estos entornos virtualizados.A través de diferentes estudios experimentales realizados en el capítulo 3, concluimos que definir la asignación óptima de memoria para cada función influye en la latencia y el costo económico. En particular, la cantidad asignada funciona mejor entre 768MB y 1536MB en nuestro conjunto de experimentos. Finalmente, los resultados indican que la latencia del procesamiento DNN tiene una influencia insignificante en los resultados del rendimiento proporcionando 51-83 consultas por segundo en Amazon LambdaObservación 2: Desplegar aplicaciones de visión basadas en DNN en plataformas IoT requiere lidiar con la heterogeneidad del dispositivo hardware y la optimización de la inferencia de DNN. Además de ello, este despliegue también requiere centrarse en el procesamiento óptimo de otros componentes, como el pre procesamiento y la interacción con el usuario, mientras se preserva la privacidad y se mejora laseguridad.Estrategia 2: Crear estrategias de implementación adaptadas a las especificidades del hardware y software objetivo (sistema operativo (SO), RAM, aceleradores de IA), enfocadas en el entorno DNN (número de modelos DNN, configuraciones de modelos DNN, estrategias de delegación de tareas) y diseñadas para los requisitos de la aplicación ISVA (algoritmo de cifrado, equilibrio de red y flujo de trabajo de interacción con el usuario).La heterogeneidad del dispositivo se lleva a cabo mediante un optimizador de implementación inteligente, capaz de seleccionar el enfoque adecuado para la inferencia DNN para las especificaciones del hardware del dispositivo objetivo. La seguridad de los datos se refuerza mediante un esquema que evita la transmisión y almacenamiento de datos biométricos en la nube y emplea un cifrado homomórfico completo para realizar todas las operaciones de similitud facial directamente en el dominio cifrado. Una comparación cualitativa y experimentos preliminares) revelan su potencial para lograr el objetivo final deseado.Observación 3: Desplegar de manera óptima aplicaciones de visión basadas en múltiples DNNs para sistemas de vídeo analítica inteligente integradas en dispositivos de bajos requiere la optimización de los pipelines procesamiento. Esto implica maximizar el uso constante del hardware en ejecución y la minimización del consumo de energía. Para esto, es necesario realizar un análisis profundo de las optimizaciones del modelo DNN, los algoritmos de procesamiento de imágenes previas y posteriores, la programación de recursos y las estrategias de paralelización.Estrategia 3: Para abordar eficazmente esta observación, se deben tener en cuenta los siguientes factores clave: (1) Identificar los requisitos y métricas de rendimiento de la aplicación de visión ISVA de extremo a extremo para diseñar la tubería de procesamiento, (2) Crear un método óptimo de programación para la tubería analítica de vídeo que maximice las capacidades heterogéneas del hardware para la inferencia DNN, reduzca la complejidad de los modelos DNN, minimice la latencia del procesamiento y mantenga la precisión de la predicción.En el Capítulo 5 se propone una metodología utiliza redes prototípicas adversarias multi-tarea guiadas por métricas (MMDAPN) y un pipeline de proceso de paralelización. Esto aprovecha las capacidades de computación heterogéneas de los procesadores del sistema. El algoritmo de procesamiento del pipeline encuentra automáticamente el equilibrio óptimo entre latencia y consumo energético. Basándonos en los experimentos, concluimos que tamaños mayores y más hilos DNN para trabajadores son más eficientes para el procesamiento óptimo del pipeline.Trabajo futuroLa computación serverless y su alta capacidad de escalado ofrecen un futuro prometedor para las aplicaciones y servicios de visión ISVA. Sin embargo, para superar las limitaciones de la computación sin servidor, se necesita más investigación para reducir la complejidad del modelo y el cálculo de DNN. Una solución potencial es distribuir el procesamiento de DNN en sistemas multi-tenant. El objetivo es expandir nuestras evaluaciones de benchmarking a plataformas populares de funciones serverless y explorar el benchmarking de sistemas ML más complejos.A medida que avancen las arquitecturas y optimizaciones de DNN, la naturaleza diversa de la infraestructura del sistema inteligente abordará más desafíos y problemas. Por ejemplo, hay un creciente interés en la investigación sobre sistemas de IA explicables, lo que requiere la integración de procesos adicionales para interpretar los resultados de las cajas negras DNN. Esto puede representar un desafío para los sistemas en tiempo real. Por lo tanto, es esencial realizar más experimentos con una gama más amplia de usuarios y equipos y estudiar en profundidad los problemas de interacción con estas técnicas.La comunidad de investigadores y desarrolladores está sugiriendo buenas prácticas para el ciclo de vida del despliegue del ML, desde el entrenamiento hasta el procesamiento de inferencias en el contexto del MLOps. A medida que continúen desarrollándose el hardware AI, las herramientas y arquitecturas de implementación DNN, la comunidad investigadora propondrá nuevos enfoques para estandarizar lasestrategias de implementación para la comunidad MLOps.
Ver más...
ELORDI HIDALGO, UNAI
Anomaly Detection in Multivariate Time Series
- Dirección:
- LOJO NOVO, AIZEA;
- LOZANO ALONSO, JOSE ANTONIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La investigación presentada en esta memoria se centra en la detección de anomalías en series temporales multivariantes. A pesar de ser un problema general con diversas aplicaciones, en este caso, nos centraremos en la detección de fallos en el funcionamiento de componentes de sistemas industriales. Teniendo en cuenta que en estos escenarios industriales es habitual disponer de un conjunto de series temporales de ejemplo donde se identifican series temporales de funcionamiento correcto y de funcionamiento anómalo, la manera de plantear el problema de detección de anomalías en series temporales multivariantes será enfocándolo como un problema de clasificación supervisada. Así pues, el objetivo será aprender un clasificador que sea capaz de distinguir las series temporales de funcionamiento correcto de las de funcionamiento anormal o inesperado.Esta tesis incluye tres capítulos principales que presentan las contribuciones realizadas para dar solución a los diferentes retos que surgen al abordar el problema de detección de anomalías con el enfoque propuesto. En el Capítulo 1, se presenta el desarrollo realizado para abordar el problema de la alta dimensionalidad en los problemas de clasificacion de series temporales multivariantes. Se propone unmétodo de filtrado para reducir el número de variables de las series temporales multivariantes. Es decir, un método para seleccionar subconjuntos de series temporales relevantes y así reducir el total de series que componen las series temporales multivariantes. En el Capítulo 2, se abordan los retos de escenario streaming, degradación y desbalanceo de los datos. Para ello, el desarrollo se centra en el caso de uso de la predicción de errores en discos duros. En este caso, el objetivo es detectar cuándo un disco duro comienza a funcionar de manera anómala indicando una futura avería. El problema se modela como un problema de clasificación supervisada de series temporales multidimensionales basado en ventanas deslizantes. Con el fin de poder identificar los momentos en los que los discos empiezan a funcionar de manera irregular o anómala y así poder anticipar los fallos, se desarrolla una metodología de aprendizaje que tiene la degradación de los discos en cuenta. Además, como solución a la situación de gran desequilibrio entre las dos clases (no se dispone de muchos discos duros fallidos), se desarrolla una técnica novedosa que permite al clasificador maximizar el recall mínimo de las clases. El Capítulo 3 se centra en el problema de clasificación desbalanceada de series temporales. En particular, se mejora y refina la solución propuesta en el capítulo anterior para este problema. Se propone el aprendizaje de clasificadores de series temporales basados en redes neuronales que maximicen el mínimo recall de las clases en lugar del accuracy.
Ver más...
IRCIO FERNANDEZ JOSU
Survival analysis and classification study of software process improvement initiatives and their implications in small companies/Software prozesuen hobekuntzarako ekimenen biziraupen-analisia eta sailkapen-ikasketa, eta horien ondorioak enpresa txikietan.
- Dirección:
- FERNANDEZ GAUNA, BORJA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2020
- Resumen:
Softwareak funtsezko papera dauka negozio gehienetan. Hain zuzen ere, edozein negozioren abantaila lehiakorraren gako nagusietako bat dela esan daiteke. Software hori enpresa handi, ertain edo txikiek sor dezakete. Testuinguru horretan, erakunde mota horiek prozesuak hobetzeko ekimenak martxan jartzeko hautua egiten dute, merkatuan eskaintzen dituzten zerbitzuen edo azken produktuen kalitatea hobetzeko helburuarekin. Hortaz, ohikoa izaten da enpresa handi eta ertainek azken produktuen garapen-prozesuak zehaztea, are eredugarriak diren kalitate-ereduak erabiltzea, industriatik eratorritako jardunbide egokiekin. Izan ere, hobekuntza-ekimen bat aurrera eramaten laguntzeko erreferentziazko eredu eta estandar asko daude. Hortaz, erakundeek hainbat eredutako eskakizunak bete behar izaten dituzte aldi berean. Estandar horien barruan antzekoak diren praktika edo eskakizunak egon ohi dira (bikoiztasunak), edo neurri handiko erakundeentzat pentsatuta daudenak. Erakunde txikien esparruan, bikoiztasun horiek gainkostua eragiten dute ekimen hauetan. Horren ondorioz, erreferentziazko ereduekin loturiko prozesuak zehazteko orduan, burokrazia-lana handitu egiten da. Horrez gain, eredu hauen bikoiztasunak ezabatzera eta bere prozesuak hainbat arau aldi berean aintzat hartuta berraztertzera behartzen ditu. Egoera hori bereziki delikatua da 25 langiletik behera dituzten erakunde txikientzat, Very Small Entities (VSE) izenez ere ezagunak direnak. Erakunde mota hauek ahal duten modurik onenean erabiltzen dituzte haien baliabideak, eta, haien ikuspegitik, erreferentziazko eredu hauek gastu bat dira inbertsio bat baino gehiago. Hortaz, ez dute prozesuak hobetzeko ekimenik martxan jartzen. Ildo horretatik, erakunde horiei VSE-en beharretara egokituko zen eredu bat eskaintzeko sortu zen ISO/IEC 29110.ISO/IEC 29110 arauaren lehen edizioa 2011n sortu zen eta, ordutik, zenbait ikerketa-lan eta industria-esperientzia garatu dira testuinguru horren barruan. Batetik, ez dago VSE-ekin loturik dauden nahikoa industria-esperientzia, eta, beraz, ez da erraza jakitea zein den VSE-en portaera. 2011tik, ISO/IEC29110 arauarekin zerikusia duten hainbat lan argitaratu dira, baina, orain arte, lan horien tipologia oso desberdina izan da. Horrenbestez, ezinbestekoa da lehen esperientzia hauek aztertu eta ezagutzea, egindako lehen lan horiek sailkatu ahal izateko. Bestetik, prozesuak hobetzeko ekimenek ez dute beti arrakastarik izaten, eta mota honetako ekimen baten iraupena zein izango den ere ez da gauza ziurra izaten. Hartara, ekimen hauek testuinguru hauetan daukaten biziraupen maila zein den aztertu behar da, bai eta VSE-etan prozesuak hobetzeko ekimenak garatu eta ezarri bitartean eman daitezkeen lan-ereduak identifikatzea ere. Azkenik, garatzen dituzten produktuen segurtasun-arloarekin kezka berezia izan ohi dute VSEk. Hortaz, segurtasun-alderdi nagusiak kudeatzeko mekanismoak ezarri behar izaten dituzte.Lehenik eta behin, lan honetan, ISO/IEC 29110 arauarekin loturiko artikuluen azterketa metodiko bat egin dugu, eta ikerketa-esparru nagusiak eta egindako lan mota garrantzitsuenak jaso ditugu. Bigarrenik, VSEk prozesuak hobetzeko martxan jarritako mota honetako ekimenen biziraupena aztertzeko marko bat proposatu dugu. Hirugarrenik, haien portaeraren ezaugarriak zehazteko, ekimen hauetan ematen diren ereduak identifikatzeko ikuspegia landu dugu. Laugarrenik, VSEn softwarearen garapenaren bizi-zikloan segurtasun-arloko alderdiak gehitzeko eta zor teknikoa kudeatzeko proposamena egin dugu.
Ver más...
LARRUCEA URIARTE, XABIER
Artificial Intelligence-based contributions to the detection of threats against information systems
- Dirección:
- MIGUEL ALONSO, JOSE;
- MORI CARRASCAL, USUE
- Menciones:
- Tésis Internacional
- Calificación:
- Sobresaliente
- Año:
- 2023
- Resumen:
Esta tesis se centra en identificar los factores que hacen poco realistas las propuestas de detección de ataques en red (NIDS) y detectores de malware en Android. En el area de NIDS, se han estudiado la aplicabilidad en entornos reales de las tecnicas de IA propuestas hasta 2019. Todo ello siguiendo el proceso de descubrimiento de conocimiento en bases de datos (KDD) como guía. En la detección de malware en Android, hemos propuesto un marco de evaluación común, inexistente hasta ahora en la literatura, basado en cinco factores determinantes del realismo de estos sistemas. Se han comparado 10 detectores del estado del arte usando este marco como referencia y concluyendo que representan propuestas optimistas e irrealistas. En base a estos hallazgos, este trabajo ha contribuido en la propuesta de detectores de malware realistas centrándose en dos ejes fundamentales: la actualizacion eficiente de modelos de IA para el manejo del concept drift, y la propuesta de un detector basado en IA y robusto a ofuscación, cuyo objetivo es evadir la detección. Todo este trabajo ha derivado hacia una conclusión principal, la falta de reproducibilidad en éstas dos áreas de la detección de amenazas en sistemas de información, lo que ralentiza el avance científico hacia soluciones mas realistas.
Ver más...
MOLINA CORONADO, BORJA
Intelligent road lane mark extraction using a Mobile Mapping System
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA;
- LOPEZ GUEDE, JOSE MANUEL
- Menciones:
- Cum Laude
- Tésis Industrial
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
During the last years, road landmark in- ventory has raised increasing interest in different areas: the maintenance of transport infrastructures, road 3d modelling, GIS applications, etc. The lane mark detection is posed as a two-class classification problem over a highly class imbalanced dataset. To cope with this imbalance we have applied Active Learning approaches. This Thesis has been divided into two main com- putational parts. In the first part, we have evaluated different Machine Learning approaches using panoramic images, obtained from image sensor, such as Random Forest (RF) and ensembles of Extreme Learning Machines (V-ELM), obtaining satisfactory results in the detection of road continuous lane marks. In the second part of the Thesis, we have applied a Random Forest algorithm to a LiDAR point cloud, obtaining a georeferenced road horizontal signs classification. We have not only identified continuous lines, but also, we have been able to identify every horizontal lane mark detected by the LiDAR sensor.
Ver más...
IZQUIERDO PEREZ, ASIER
Contributions to time series data mining towards the detection of outliers/anomalies
- Dirección:
- CONDE MANJON, ANGEL;
- MORI CARRASCAL, USUE
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
Los recientes avances tecnológicos han supuesto un gran progreso en la recogida de datos, permitiendo recopilar una gran cantidad de datos a lo largo del tiempo. Estos datos se presentan comúnmente en forma de series temporales, donde las observaciones se han registrado de forma cronológica y están correlacionadas en el tiempo. A menudo, estas dependencias temporales contienen información significativa y útil, por lo que, en los últimos años, ha surgido un gran interés por extraer dicha información. En particular, el área de investigación que se centra en esta tarea se denomina minería de datos de series temporales.La comunidad de investigadores de esta área se ha dedicado a resolver diferentes tareas como por ejemplo la clasificación, la predicción, el clustering o agrupamiento y la detección de valores atípicos/anomalías. Los valores atípicos o anomalías son aquellas observaciones que no siguen el comportamiento esperado en una serie temporal. Estos valores atípicos o anómalos suelen representar mediciones no deseadas o eventos de interés, y, por lo tanto, detectarlos suele ser relevante ya que pueden empeorar la calidad de los datos o reflejar fenómenos interesantes para el analista.Esta tesis presenta varias contribuciones en el campo de la minería de datos de series temporales, más específicamente sobre la detección de valores atípicos o anomalías. Estas contribuciones se pueden dividir en dos partes o bloques. Por una parte, la tesis presenta contribuciones en el campo de la detección de valores atípicos o anomalías en series temporales. Para ello, se ofrece una revisión de las técnicas en la literatura, y se presenta una nueva técnica de detección de anomalías en series temporales univariantes para la detección de fugas de agua, basada en el aprendizaje autosupervisado. Por otra parte, la tesis también introduce contribuciones relacionadas con el tratamiento de las series temporales con valores perdidos y demuestra su aplicabilidad en el campo de la detección de anomalías.
Ver más...
BLAZQUEZ GARCIA, ANE
Contributions to the Mathematical Modeling of Estimation of Distribution Algorithms and Pseudo-Boolean Functions
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- MERINO MAESTRE, MARIA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
maximice o minimice una función objetivo definida sobre un espacio discreto. Dado que la mayoría dedichos problemas no pueden ser resueltos mediante una búsqueda exhaustiva, su resolución se aproximafrecuentemente mediante algoritmos heurísticos. Sin embargo, no existe ningún algoritmo que secomporte mejor que el resto de algoritmos para resolver todas las instancias de cualquier problema. Porello, el objetivo ideal es, dado una instancia de un problema, saber cuál es el algoritmo cuya resoluciónes más eficiente. Las dos líneas principales de investigación para lograr dicho objetivo son estudiar lasdefiniciones de los problemas y las posibles instancias que cada problema puede generar y el estudio delos diseños y características de los algoritmos. En esta tesis, se han tratado ambas lineas. Por un lado,hemos estudiado las funciones pseudo-Booleanas y varios problemas binarios específicos. Por otro lado,se ha presentado un modelado matemático para estudiar Algoritmos de Estimación de Distribucionesdiseñados para resolver problemas basados en permutaciones. La principal motivación ha sido seguirprogresando en este campo para comprender mejor las relaciones entre los Problemas de OptimizaciónCombinatoria y los algoritmos de optimización.
Ver más...
UNANUE GUAL, IMANOL
Solving Fishing Routing Problems with Metaheuristics
- Dirección:
- FERNANDES SALVADOR, JOSE ANTONIO;
- HERNANDO RODRIGUEZ, LETICIA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
The current climate change crisis, coupled with fuel price volatility, and the loss of efficiency in the fishing industry, is jeopardising the sustainability of the fishing sector. One potential approach to tackle such challenges is to explore novel methods for planning their fishing routes. This dissertation proposed the formulation of two novel fishing routing problems based on real needs of the fisheries sector. The first problem focuses on the dynamic fishing routing problem of a tuna purse seiner, while the second problem expands the previous one by considering multiple vessels and the deployment of new drifting fish aggregation devices (dFADs). To solve these problems, two metaheuristics are proposed. The first algorithm, designed to solve the single vessel routing problem, couples a genetic algorithm (GA) with a time-dependent A* algorithm, known as GA-TDA*. For the multiple vessel routing problem, a multi-objective greedy randomized adaptive search procedure (MO-GRASP) algorithm is proposed. Computational experiments conducted on historical data prove the feasibility of applying metaheuristics algorithms in a real context and explore the benefits of routing methods to improve the sustainability and feasibility of the fisheries sector.
Ver más...
GRANADO DOMINGUEZ, IGOR
Advances in flexible manipulation through the application of AI-based techniques
- Dirección:
- ANSUATEGUI COBO, ANDER;
- LAZKANO ORTEGA, ELENA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Objektuak hartu eta uztea oinarrizko bi eragiketa dira ia edozein aplikazio robotikotan. Gaur egun, "pick and place" aplikazioetarako erabiltzen diren robot industrialek zeregin sinpleak eta errepikakorrak egiteko duten eraginkortasuna dute ezaugarri. Hala ere, sistema horiek oso zurrunak dira, erabat kontrolatutako inguruneetan lan egiten dute, eta oso kostu handia dakarte beste zeregin batzuk egiteko birprogramatzeak. Gaur egun, industria-ingurune desberdinetako zereginak daude (adibidez, logistika-ingurune batean eskaerak prestatzea), zeinak objektuak malgutasunez manipulatzea eskatzen duten, eta oraindik ezin izan dira automatizatu beren izaera dela-eta. Automatizazioa zailtzen duten botila-lepo nagusiak manipulatu beharreko objektuen aniztasuna, roboten trebetasun falta eta kontrolatu gabeko ingurune dinamikoen ziurgabetasuna dira.Adimen artifizialak (AA) gero eta paper garrantzitsuagoa betetzen du robotikaren barruan, robotei zeregin konplexuak betetzeko beharrezko adimena ematen baitie. Gainera, AAk benetako esperientzia erabiliz portaera konplexuak ikasteko aukera ematen du, programazioaren kostua nabarmen murriztuz. Objektuak manipulatzeko egungo sistema robotikoen mugak ikusita, lan honen helburu nagusia manipulazio-sistemen malgutasuna handitzea da AAn oinarritutako algoritmoak erabiliz, birprogramatu beharrik gabe ingurune dinamikoetara egokitzeko beharrezko gaitasunak emanez.
Ver más...
IRIONDO AZPIRI ANDER
Contributions to the study of Austism Spectrum Brain conectivity
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA
- Calificación:
- Sobresaliente
- Año:
- 2021
- Resumen:
Autism Spectrum Disorder (ASD) is a largely prevalent neurodevelopmental condition with a big social and economical impact affecting the entire life of families. There is an intense search for biomarkers that can be assessed as early as possible in order to initiate treatment and preparation of the family to deal with the challenges imposed by the condition. Brain imaging biomarkers have special interest. Specifically, functional connectivity data extracted from resting state functional magnetic resonance imaging (rs-fMRI) should allow to detect brain connectivity alterations. Machine learning pipelines encompass the estimation of the functional connectivity matrix from brain parcellations, feature extraction and building classification models for ASD prediction. The works reported in the literature are very heterogeneous from the computational and methodological point of view. In this Thesis we carry out a comprehensive computational exploration of the impact of the choices involved while building these machine learning pipelines.
Ver más...
SILVA CHOQUE, MOISES MARTIN
Contributions to LiDAR based SLAM and Computational Ethology.
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
This Thesis deals with two different topics centered about applications of Computational Intelligence techniques. The first topic is the implementation of simultaneous localization and mapping (SLAM) algorithms that are appropriate for low-cost LiDAR sensors, specifically the Quanergy M8. Conventional and Deep Learning algorithms have shown shortcomings dealing with this data, hence this Thesis proposes a novel hybrid SLAM algorithm that achieves good results over in-house datasets captured with the low cost LiDAR sensor. The second topic tackled in this Thesis is the discrimination of animal models on the basis of pressure signals. For this task, we work on real experimental data provided by a collaborating neurosciences team. The Thesis deals with the selection of signal features and the experimentation with a diversity of state of the art machine learning algorithms. The application of transfer deep learning upon signal spectrogram images improves significantly over conventional machine learning algorithms, concluding that it is feasible to discriminate animal models on the basis of pressure signal captured during locomotion periods.
Ver más...
AGUILAR MORENO, MARINA
Machine Learning Approaches to Video Activity Recognition: from Computer Vision to Signal Processing
- Dirección:
- MARTINEZ OTZETA, JOSE MARIA;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La investigación presentada se centra en técnicas de clasificación para dos tareas diferentes, aunque relacionadas, de tal forma que la segunda puede ser considerada parte de la primera: el reconocimiento de acciones humanas en vídeos y el reconocimiento de lengua de signos.En la primera parte, la hipótesis de partida es que la transformación de las señales de un vídeo mediante el algoritmo de Patrones Espaciales Comunes (CSP por sus siglas en inglés, comúnmente utilizado en sistemas de Electroencefalografía) puede dar lugar a nuevas características que serán útiles para la posterior clasificación de los vídeos mediante clasificadores supervisados. Se han realizado diferentes experimentos en varias bases de datos, incluyendo una creada durante esta investigación desde el punto de vista de un robot humanoide, con la intención de implementar el sistema de reconocimiento desarrollado para mejorar la interacción humano-robot.En la segunda parte, las técnicas desarrolladas anteriormente se han aplicado al reconocimiento de lengua de signos, pero además de ello se propone un método basado en la descomposición de los signos para realizar el reconocimiento de los mismos, añadiendo la posibilidad de una mejor explicabilidad. Elobjetivo final es desarrollar un tutor de lengua de signos capaz de guiar a los usuarios en el proceso de aprendizaje, dándoles a conocer los errores que cometen y el motivo de dichos errores.
Ver más...
RODRIGUEZ MORENO, ITSASO
Nerbio-sistemaren aktibatzaileak identifikatzeko seinale fisiologikoen prozesamenduari aplikatutako Ikaskuntza Automatikoko teknikak
- Dirección:
- MARTINEZ RODRIGUEZ, RAQUEL;
- MUGUERZA RIVERO, JAVIER FRANCISCO;
- SALAZAR RAMIREZ, ASIER
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Tesiak bi ikerketa-ildo nagusi aurkezten ditu. Lehenengoan, Ikaskuntza Automatikoko sistema bat garatzea bilatzen da, bizkarrezur-muineko lesioak dituzten pazienteen disreflexia autonomoa detektatzeko, hasierako diagnostikoan metodo inbaditzaileen beharra murriztearren. Helburu horrekin, sailkapen hierarkikoko sistema bat proposatzen da, hainbat seinale fisiologikotatik ateratako ezaugarriak modu ez-inbaditzailean erabiltzen dituena. Ikerketa honek erakusten du bideragarria dela Ikaskuntza Automatiko Gainbegiratuko algoritmoek ezaugarri ez-inbaditzaileekin lan egitea gaixotasunaren hasierako diagnostikoan. Bestalde, bigarren ikerketa-ildoa egoera mentalen detekzio automatikoan zentratzen da, batez ere estres- eta erlaxazio-egoeretan, aldaketa emozionalek nerbio-sistema autonomoan duten eragin zuzena aitortuz. Ikaskuntza Automatikoko sistema bat garatu nahi da, erlaxazio-egoeraren barruan azpiegoera emozionalak identifikatzeko, Gainbegiratutako Ikaskuntzako teknikak hainbat seinale fisiologikotatik ateratako ezaugarrietara aplikatuz.
Ver más...
SAGASTIBELTZA GALARRAGA, NAGORE
Optimization for Deep Learning Systems Applied to Computer Vision
- Dirección:
- AGINAKO BENGOA, NAIARA;
- NIETO DONCEL, MARCOS;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Since the DL revolution and especially over the last years (2010-2022), DNNs have become an essentialpart of the CV field, and they are present in all its sub-fields (video-surveillance, industrialmanufacturing, autonomous driving, ...) and in almost every new state-of-the-art application that isdeveloped. However, DNNs are very complex and the architecture needs to be carefully selected andadapted in order to maximize its efficiency. In many cases, networks are not specifically designed for theconsidered use case, they are simply recycled from other applications and slightly adapted, without takinginto account the particularities of the use case or the interaction with the rest of the system components,which usually results in a performance drop.This research work aims at providing knowledge and tools for the optimization of systems based on DeepLearning applied to different real use cases within the field of Computer Vision, in order to maximizetheir effectiveness and efficiency.
Ver más...
MONTERO MARTIN, DAVID
From Visualization to Decision-Making: Enhacing Software Product Line Evolution with Visual Interventions.
- Dirección:
- DIAZ GARCIA, OSCAR
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Las líneas de productos de software (SPL) permiten reutilizar eficientemente una familia de productos desoftware para crear versiones personalizadas para cada cliente. Sin embargo, evolucionar las SPL es undesafío por la complejidad de los diferentes activos y la variabilidad. A pesar de la importancia de estaevolución, hay pocas herramientas de visualización como apoyo.Esta tesis aborda este problema proponiendo soluciones que incluyen una herramienta llamadaCustomDIFF que permite analizar la personalización durante la evolución de las SPL, un panel de controlllamado PortfolioScan que ayuda a tomar decisiones sobre el alcance de la línea de productos, y unproceso y herramienta denominados IF4SPLE y FEACKER para recopilar y utilizar el feedback implícitode los usuarios. Estas soluciones se desarrollaron y evaluaron en colaboración con empresas,demostrando su utilidad práctica para respaldar la evolución de las SPL en entornos reales.
Ver más...
MEDEIROS PEREZ, RAUL
A NOVEL ARCHITECTURE FOR COLLABORATIVE AUGMENTED REALITY EXPERIENCES FOR EDUCATION
- Dirección:
- ARRUARTE LASA, ANA JESUS;
- ZORRILLA BERASATEGUI, MIKEL JOSEBA
- Menciones:
- Cum Laude
- Tésis Industrial
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
La Realidad Aumentada tiene un enorme potencial para revolucionar el sector de la educación. Aunque ya existen aplicaciones de aprendizaje basadas en la Realidad Aumentada, su creación es compleja y están destinadas principalmente a un uso individual. La falta de herramientas para sincronizar las experiencias de Realidad Aumentada entre varios usuarios, los problemas relacionados con la adaptación de los contenidos aumentados en diferentes dispositivos, la dificultad de incorporar aplicaciones en los sistemas de gestión del aprendizaje utilizados en las escuelas han limitado, hasta ahora, la adopción de la Realidad Aumentada en las aulas. Para abordar estas cuestiones, esta investigación presenta cleAR, una novedosa arquitectura que permite el desarrollo de aplicaciones de Realidad Aumentada interoperables y colaborativas. La arquitectura se ha diseñado teniendo en cuenta tanto aspectos técnicos como educativos. cleAR es una arquitectura modular que también proporciona a los profesores herramientas para analizar los datos sobre el uso de las aplicaciones de Realidad Aumentada, así como los resultados de los estudiantes. Para evaluar el diseño de la arquitectura, se ha desarrollado y probado una aplicación de Realidad Aumentada multiplataforma y colaborativa en tres centros educativos. La evaluación incluyó la recogida de respuestas a encuestas de los alumnos que participaron en las pruebas, entrevistas a sus profesores y un análisis cuantitativo de los datos recogidos a través de la aplicación.
Ver más...
MASNERI , STEFANO
Técnicas bio-inspiradas para el diseño y aplicación de modelos cognitivos en la industria digital
- Dirección:
- GALAR PASCUAL, DIEGO JESUS;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
La investigación presentada se centra en el uso de técnicas bio-inspiradas para el diseño y aplicación demodelos cognitivos en problemas complejos planteados por la industria digital.En la primera parte, se realiza un estudio exhaustivo de los tipos de algoritmos y estrategias de análisis dedatos más comúnmente utilizados a la hora de llevar a cabo tareas de prognosis industrial, tanto desde elpunto de vista descriptivo como predictivo y prescriptivo. Una de las principales conclusiones del estudioradica en la existencia de una gran cantidad de técnicas y métodos que se basan en los organismosbiológicos y en cómo interactúan con el entorno que les rodea.En la segunda parte, se muestra el desarrollo y aplicación de algunos de estos métodos para abordar casosde estudio concretos en la industria aeronáutica y petrolífera. Los sistemas inteligentes propuestos poseencapacidades para evolucionar y razonar, para crear y generar nuevo conocimiento y para detectar cambiosen el entorno y adaptarse de manera autónoma. El objetivo final es desarrollar modelos cognitivosentendidos como una modelización inteligente de las principales capacidades biológicas y evolutivas delser humano.
Ver más...
DIEZ OLIVAN, ALBERTO
Deep Learning for Bioimage Analysis: novel user- and developer-oriented approaches
- Dirección:
- ARGANDA CARRERAS, IGNACIO;
- MUÑOZ BARRUTIA, MARIA ARRATE
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Esta tesis doctoral explora la integración y el avance de la visión artificial y el aprendizaje automáticodentro del campo del análisis de bioimágenes, particularmente mediante la aplicación de técnicas deaprendizaje profundo. La visión artificial, un área crucial de la inteligencia artificial (IA), permite que lasmáquinas interpreten y analicen datos visuales de manera similar a la visión humana pero con mayorvelocidad y precisión. Utiliza métodos diversos como el procesamiento de imágenes y el aprendizajeautomático para imitar la percepción humana, permitiendo a las máquinas reconocer y responder aestímulos visuales. El aprendizaje profundo, un subcampo del aprendizaje automático, utiliza redesneuronales complejas para aprender de grandes conjuntos de datos, mejorando significativamente laprecisión de las tareas sobre los métodos tradicionales. El aprendizaje profundo ha revolucionado lavisión artificial, especialmente en tareas que requieren reconocimiento visual detallado.ÁREA LÍNEA2 2 0 9 9 0Los rápidos avances en el aprendizaje automático, especialmente en el aprendizaje profundo, han influidosustancialmente en las capacidades de los sistemas de visión artificial, ampliando los límites de lo que lasmáquinas pueden lograr. Este progreso es crucial en el ámbito de la imagen biológica, donde la capacidadde analizar grandes cantidades de datos de imágenes es vital para el avance del descubrimiento científico.Esta tesis profundiza en cómo estos avances tecnológicos se aplican al análisis de bioimágenes, ayudandoa los investigadores en ciencias de la vida a monitorear e interpretar fenómenos biológicos complejos adiferentes escalas y resoluciones. Al aprovechar las herramientas de IA más avanzadas, este trabajo buscamejorar la extracción y análisis de datos en las ciencias de la vida, transformando desafíos enoportunidades para lograr avances científicos significativos.En esta tesis, se examina el potencial transformador del aprendizaje profundo en el análisis debioimágenes a través de múltiples aplicaciones innovadoras y el desarrollo de metodologías robustas queabordan los desafíos fundamentales dentro del campo. En la última década, las técnicas de aprendizajeprofundo han avanzado significativamente en la medición automática de células y orgánulos en imágenesde microscopía. Sin embargo, la falta de puntos de referencia estándar para la comparación de métodos,combinada con problemas en la reproducibilidad y el intercambio de datos, sigue obstaculizando elprogreso. Esta investigación aborda estas preocupaciones proponiendo modelos de aprendizaje profundoestables y robustos y reimplementando modelos establecidos para un conjunto de datos de referenciaclave en la segmentación de mitocondrias. Esta iniciativa tiene como objetivo mejorar la reproducibilidady estabilidad de los modelos, proporcionando un marco fiable para estudios futuros.Además, los modelos de aprendizaje profundo a menudo sufren una caída en el rendimiento cuando seaplican a nuevos conjuntos de datos no vistos debido a su especialización en el entrenamiento. Lasegunda contribución principal de esta tesis es el desarrollo de nuevas estrategias de adaptación dedominio que mejoran el rendimiento del modelo en diversos conjuntos de datos de imágenes biomédicassin necesidad de anotaciones adicionales. Estas estrategias ayudan a cerrar la brecha entre diferentesmodalidades de imágenes y condiciones experimentales.Reconociendo las limitaciones impuestas por la simplicidad y la escala de los conjuntos de datosexistentes, esta tesis introduce el conjunto de datos MitoEM: una colección integral de imágenes demitocondrias de mamíferos obtenidas con microscopía electrónica, diseñada para desafiar y refinar losmétodos de segmentación actuales. Este conjunto de datos no solo sirve como herramienta para avanzaren la investigación, sino que también forma la base de una competición internacional, alentando a lacomunidad científica a participar en la mejora competitiva y colaborativa de las técnicas de análisis debioimágenes.Un tema central de esta tesis es la democratización de las técnicas avanzadas de aprendizaje profundopara usuarios no especializados. La creación de BiaPy, una librería de código abierto, es la cuartacontribución principal. BiaPy proporciona una amplia gama de tareas de análisis de bioimágenesintegrando modelos de aprendizaje profundo tradicionales y avanzados, haciendo que análisis sofisticadossean accesibles para investigadores sin un conocimiento computacional avanzado.Por último, se demuestran las aplicaciones prácticas de la librería BiaPy a través de su uso en escenariosprácticos, abordando preguntas biológicas. En concreto, se desarrollaron nuevas metodologías parasegmentar quistes epiteliales y mejorar las técnicas de pintura celular. Estos últimos métodos aprovechanla librería BiaPy para predecir imágenes óptimamente enfocadas a partir de datos no etiquetados,mostrando la utilidad de la librería en el análisis de imagen biológica y ofreciendo nuevas vías paraconseguir mejoras en la investigación con coste-beneficio rentables.Juntas, estas contribuciones subrayan el gran potencial del aprendizaje profundo para transformar elcampo del análisis de imagen biológica, proporcionando tanto soluciones innovadoras como herramientasfundamentales que abordan tanto las necesidades actuales como los desafíos futuros en el campo.
Ver más...
FRANCO BARRANCO, DANIEL
Contributions to time series analysis, modelling and forecasting to increase reliability in industrial environments.
- Dirección:
- FERREIRO DEL RIO, SUSANA;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Tésis Industrial
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La integración del Internet of Things en el sector industrial es clave para alcanzar la inteligencia empresarial. Este estudio se enfoca en mejorar o proponer nuevos enfoques para aumentar la confiabilidad de las soluciones de IA basadas en datos de series temporales en la industria. Se abordan tres fases: mejora de la calidad de los datos, modelos y errores. Se propone una definición estándar de métricas de calidad y se incluyen en el paquete dqts de R. Se exploran los pasos del modelado de series temporales, desde la extracción de características hasta la elección y aplicación del modelo de predicción más eficiente. El método KNPTS, basado en la búsqueda de patrones en el histórico, se presenta como un paquete de R para estimar datos futuros. Además, se sugiere el uso de medidas elásticas de similitud para evaluar modelos de regresión y la importancia de métricas adecuadas en problemas de clases desbalanceadas. Las contribuciones se validaron en casos de uso industrial de diferentes campos: calidad de producto, previsión de consumo eléctrico, detección de porosidad y diagnóstico de máquinas.
Ver más...
GOMEZ OMELLA, MERITXELL
Broadening the Horizon of Adversarial Attacks in Deep Learning
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- SANTANA HERMIDA, ROBERTO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Los modelos de Aprendizaje Automático como las Redes Neuronales Profundas son actualmente elnúcleo de una amplia gama de tecnologías aplicadas en tareas críticas, como el reconocimiento facial o laconducción autónoma, en las que tanto la capacidad predictiva como la fiabilidad son requisitosfundamentales. Sin embargo, estos modelos pueden ser fácilmente engañados por inputs manipulados deforma imperceptible para el ser humano, denominados ejemplos adversos (adversarial examples), lo queimplica una brecha de seguridad que puede ser explotada por un atacante con fines ilícitos. Dado queestas vulnerabilidades afectan directamente a la integridad y fiabilidad de múltiples sistemas que,progresivamente, están siendo desplegados en aplicaciones del mundo real, es crucial determinar elalcance de dichas vulnerabilidades para poder garantizar así un uso más responsable, informado y segurode esos sistemas. Por estos motivos, esta tesis doctoral tiene como objetivo principal investigar nuevasnociones de ataques adversos y vulnerabilidades en las Redes Neuronales Profundas. Como resultado deesta investigación, a lo largo de esta tesis se exponen nuevos paradigmas de ataque que exceden oamplían las capacidades de los métodos actualmente disponibles en la literatura, ya que son capaces dealcanzar objetivos más generales, complejos o ambiciosos. Al mismo tiempo, se exponen nuevas brechasde seguridad en casos de uso y escenarios en los que las consecuencias de los ataques adversos no habíansido investigadas con anterioridad. Nuestro trabajo también arroja luz sobre diferentes propiedades deestos modelos que los hacen más vulnerables a los ataques adversos, contribuyendo a una mejorcomprensión de estos fenómenos.
Ver más...
VADILLO JUEGUEN, JON
Unsupervised learning approaches for disease progression modeling
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- PEREZ MARTINEZ, ARITZ
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Esta tesis presenta metodologías para el aprendizaje no supervisado a partir de secuencias discretas quedefinen el historial clínico de un paciente. Específicamente, estos métodos permiten modelar la evoluciónde las trayectorias de tratamientos asociados a una o varias enfermedades. Desarrollamos modelosbasados en diversas técnicas de clasificación de secuencias para capturar los subtipos de tratamientospara una enfermedad, las irregularidades temporales entre eventos médicos y la evolución conjunta de lostratamientos en el historial clínico de un paciente. Además, introducimos métodos eficientes para elaprendizaje de estos modelos. Utilizamos una base de datos proporcionada por Osakidetza para laevaluación de las metodologías propuestas, donde cada paciente está representado por una secuencia deservicios médicos a lo largo del tiempo, con solo el 19% de estos eventos médicos con diagnósticoasociado. Incluímos aplicaciones prácticas enfocadas en pacientes con diagnóstico de cáncer de mama,destacando así la relevancia e impacto de los modelos en situaciones del mundo real. En resumen , estatesis propone metodologías interpretables para comprender la dinámica de las enfermedades, abordandode manera efectiva los desafíos particulares que surgen en los registros electrónicos de salud.
Ver más...
ZABALLA LARUMBE ONINTZE
Machine learning based anomaly detection for industry 4.0 systems.
- Dirección:
- MAIZA GALPARSORO, MIGUEL ANGEL;
- SIERRA ARAUJO, BASILIO
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
This thesis studies anomaly detection in industrial systems using technologies from the Fourth Industrial Revolution (4IR), such as the Internet of Things, Artificial Intelligence, 3D Printing, and Augmented Reality. The goal is to provide tools that can be used in real-world scenarios to detect system anomalies, intending to improve production and maintenance processes. The thesis investigates the applicability and implementation of 4IR technology architectures, AI-driven machine learning systems, and advanced visualization tools to support decision-making based on the detection of anomalies. The work covers a range of topics, including the conception of a 4IR system based on a generic architecture, the design of a data acquisition system for analysis and modelling, the creation of ensemble supervised and semi-supervised models for anomaly detection, the detection of anomalies through frequency analysis, and the visualization of associated data using Visual Analytics. The results show that the proposed methodology for integrating anomaly detection systems in new or existing industries is valid and that combining 4IR architectures, ensemble machine learning models, and Visual Analytics tools significantly enhances theanomaly detection processes for industrial systems. Furthermore, the thesis presents a guiding framework for data engineers and end-users.
Ver más...
VELASQUEZ RENDON, DAVID
On the use of multi-sensor digital traces to discover spatio-temporal human behavioral patterns
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
La tecnología ya es parte de nuestras vidas y cada vez que interactuamos con ella, ya sea en una llamadatelefónica, al realizar un pago con tarjeta de crédito o nuestra actividad en redes sociales, se almacenantrazas digitales. En esta tesis nos interesan aquellas trazas digitales que también registran lageolocalización de las personas al momento de realizar sus actividades diarias. Esta información nospermite conocer cómo las personas interactúan con la ciudad, algo muy valioso en planificación urbana,gestión de tráfico, políticas publicas e incluso para tomar acciones preventivas frente a desastresnaturales.Esta tesis tiene por objetivo estudiar patrones de comportamiento humano a partir de trazas digitales. Paraello se utilizan tres conjuntos de datos masivos que registran la actividad de usuarios anonimizados encuanto a llamados telefónicos, compras en tarjetas de crédito y actividad en redes sociales (check-ins,imágenes, comentarios y tweets). Se propone una metodología que permite extraer patrones decomportamiento humano usando modelos de semántica latente, Latent Dirichlet Allocation y DynamicTopis Models. El primero para detectar patrones espaciales y el segundo para detectar patronesespaciotemporales. Adicionalmente, se propone un conjunto de métricas para contar con un métodoobjetivo de evaluación de patrones obtenidos.
Ver más...
MUÑOZ CANCINO, RICARDO LUIS
Contribution to Graph-based Multi-view Clustering: Algorithms and Applications
- Dirección:
- DORNAIKA , FADI
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
In this thesis, we study unsupervised learning, specifically, clustering methods for dividing data into meaningful groups. One major challenge is how to find an efficient algorithm with low computational complexity to deal with different types and sizes of datasets.For this purpose, we propose two approaches. The first approach is named "Multi-view Clustering via Kernelized Graph and Nonnegative Embedding" (MKGNE), and the second approach is called "Multi-view Clustering via Consensus Graph Learning and Nonnegative Embedding" (MVCGE). These two approaches jointly solve four tasks. They jointly estimate the unified similarity matrix over all views using the kernel tricks, the unified spectral projection of the data, the clusterindicator matrix, and the weight of each view without additional parameters. With these two approaches, there is no need for any postprocessing such as k-means clustering.In a further study, we propose a method named "Multi-view Spectral Clustering via Constrained Nonnegative Embedding" (CNESE). This method can overcome the drawbacks of the spectral clustering approaches, since they only provide a nonlinear projection of the data, on which an additional step of clustering is required. This can degrade the quality of the final clustering due to various factors such as the initialization process or outliers. Overcoming these drawbacks can be done by introducing a nonnegative embedding matrix which gives the final clustering assignment. In addition, some constraints are added to the targeted matrix to enhance the clustering performance.In accordance with the above methods, a new method called "Multi-view Spectral Clustering with a self-taught Robust Graph Learning" (MCSRGL) has been developed. Different from other approaches, this method integrates two main paradigms into the one-step multi-view clustering model. First, we construct an additional graph by using the cluster label space in addition to the graphs associated with the data space. Second, a smoothness constraint is exploited to constrain the cluster-label matrix and make it more consistent with the data views and the label view.Moreover, we propose two unified frameworks for multi-view clustering in Chapter 9. In these frameworks, we attempt to determine a view-based graphs, the consensus graph, the consensus spectral representation, and the soft clustering assignments. These methods retain the main advantages of the aforementioned methods and integrate the concepts of consensus and unified matrices. By using the unified matrices, we enforce the matrices of different views to be similar, and thus the problem of noise and inconsistency between different views will be reduced.Extensive experiments were conducted on several public datasets with different types and sizes, varying from face image datasets, to document datasets, handwritten datasets, and synthetics datasets. We provide several analyses of the proposed algorithms, including ablation studies, hyper-parameter sensitivity analyses, and computational costs. The experimental results show that the developed algorithms through this thesis are relevant and outperform several competing methods.
Ver más...
EL HAJJAR , SALLY
ANGULAR MARGIN-BASED SOFTMAX LOSSES: TOWARD DISCRIMINATIVE DEEP METRIC LEARNING.
- Dirección:
- DORNAIKA , FADI;
- MOUJAHID MOUJAHID, ABDELMALIK
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Discriminative deep metric learning aims to construct an embedding space in whichinstances of the same class can be grouped together while being effectivelydistinguished from instances belonging to other classes by deeply learnedrepresentations. In this context, angular deep metric learning emerges as a specializedsubset of discriminative deep metric learning, which is characterized by focusing onthe angles between the feature vectors rather than their magnitudes.Classical methods such as ArcFace and CosFace are considered pioneers in the fieldof angle-dependent metric learning as they introduce angle-dependent margins intothe softmax loss function. This strategic approach aims to promote more coherentclustering within classes while achieving greater angular separation between differentclasses. These methods have been applied specifically in the context of facerecognition.This thesis presents several research contributions consisting of novel softmax lossfunctions based on angular margins. The first contribution is to extend theapplicability of these loss functions beyond the field of face recognition. Theeffectiveness of these functions is investigated in challenging contexts with limitedlabeled data. Topics such as fashion image retrieval, fashion style recognition andclassification of histopathologic breast cancer images are covered.In the area of fashion image retrieval, Discriminative Margin Loss (DML) is proposedto investigate the adjustment of margin penalties for positive and negative classes.The underlying goal is to improve the discriminative power of the learnedembeddings specifically for fashion image retrieval.For the challenges related to fashion style and face recognition, Additive CosineMargin Loss (ACML) is introduced. ACML simplifies the fine-tuning of marginpenalties while strengthening the separation between classes and the cohesion withinclasses. This approach leads to performance improvements in these specialrecognition tasks.The Boosted Additive Angular Margin Loss (BAM) method is proposed for the fieldof breast cancer diagnosis using histopathological images. BAM not only penalizesthe angle between the deep feature and its corresponding weight from the target class,but also considers the angles between deep features and their corresponding weightsfrom non-target classes. This approach aims to facilitate the detection of highlydiscriminative features for accurate diagnosis while improving the intra-classcohesion and increasing the inter-class discrepancy to take advantage of marginconstraints.Overall, these new loss functions, including DML, ACML, and BAM, contributesignificantly to the field of softmax losses based on angular margins by extendingtheir application beyond conventional constraints. With this expanded scope, theseloss functions are able to effectively address the distinct challenges inherent in diversedomains.The proposed loss functions have been rigorously tested and validated in variousstudies addressing data limitations. The robustness of the results was demonstratedthrough various metrics, feature visualizations and statistical analysis. It is importantto mention that these loss functions have improved the performance of numerous deeplearning architectures. The superiority of these loss functions over various complexfeature-based architectures containing significant parameters has been confirmedthrough extensive experiments and comparisons with angular margin-based losses onvarious benchmark datasets. In addition, the performance of the models was evaluatedagainst other methods on large datasets to obtain a comprehensive assessment of theircapabilities.
Ver más...
ALIREZAZADEH , PENDAR
Supervised Learning in Time-dependent Environments with Performance Guarantees
- Dirección:
- LOZANO ALONSO, JOSE ANTONIO;
- MAZUELAS FRANCO, SANTIAGO
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
En esta tesis, establecemos metodologías para el aprendizaje supervisado a partir de una secuencia detareas dependientes del tiempo que explotan eficazmente la información de todas las tareas, proporcionanuna adaptación multidimensional a los cambios de tareas y ofrecen garantías de rendimiento ajustadas ycomputables. Desarrollamos métodos para entornos de aprendizaje supervisado en los que las tareasllegan a lo largo del tiempo, incluidas técnicas de clasificación supervisada bajo concept drift y técnicasde continual learning. Además, presentamos técnicas de previsión de la demanda de energía que puedenadaptarse a los cambios temporales en los patrones de consumo y evaluar las incertidumbres intrínsecasde la demanda de carga. Los resultados numéricos muestran que las metodologías propuestas puedenmejorar significativamente el rendimiento de los métodos existentes utilizando múltiples conjuntos dedatos de referencia. Esta tesis hace contribuciones teóricas que conducen a algoritmos eficientes paramúltiples escenarios de aprendizaje automático que proporcionan garantías de rendimiento computables yun rendimiento superior al de las técnicas más avanzadas.
Ver más...
ALVAREZ CASTRO, VERONICA
Understanding Non-Convex Optimization Problems and Stochastic Optimization Algorithms
- Dirección:
- IRUROZQUI ARRIETA, EKHIÑE;
- PEREZ MARTINEZ, ARITZ
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
Esta tesis presenta contribuciones significativas en el campo de las heurísticas estocásticas iterativas. Seabordan varios aspectos relacionados con la comparación y mejora de algoritmos de optimización. Enprimer lugar, se propone una metodología para comparar de manera justa el rendimiento de algoritmosejecutados en diferentes máquinas, asegurando una asignación equitativa de recursos computacionales.Además, se introduce una metodología basada en la dominancia estocástica para comparar el rendimientode algoritmos de optimización como variables aleatorias. Asimismo, se analiza la relación entre ladistancia de Hamming y el problema de asignación cuadrática. Se desarrolla un método general dedetención temprana para el aprendizaje de políticas en problemas episódicos, que no requiereinformación específica del problema. En resumen, esta tesis contribuye a la comprensión y mejora de lasheurísticas estocásticas iterativas en el ámbito de la optimización.
Ver más...
ARZA GONZALEZ, ETOR
combining visual analytics, data mining, and artificial intelligence methods
- Dirección:
- BERISTAIN IRAOLA, ANDONI;
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
This thesis presents an in-depth exploration of visual analytics, data mining, and artificial intelligence methods to improve clinical outcomes with time-based data. We address the hypothesis that key patterns and relationships can be identified in clinical temporal data to significantly improve the prevention, dia- gnosis, and treatment of various health conditions. Each use case in this thesis addresses this hypothesis in a different manner: the impact of daily habits on older adults, disease path progression, and heart failure decompensation detection.
Ver más...
KEREXETA SARRIEGI JON
Contributions to COVID-19 pandemic data analysis
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA;
- LOPEZ GUEDE, JOSE MANUEL
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
This thesis deals with various aspects of data analysis during the COVID-19 pandemic. This thesis provides important insights into the epidemiological trends and clinical decision support during the COVID-19 pandemic through data analysis and Machine Learning. Initially, the study examines clinical deci- sion support systems used during pandemics. It then provides a detailed analysis of a COVID-19 patient from a local dataset, including data normalization and class balancing to improve prediction accuracy. Additionally, the Thesis considers several aspects of COVID-19 epidemiology that raise questions about the efficacy of the interventions in several countries.
Ver más...
BADIOLA ZABALA, GOIZALDE
Artificial intelligence for advanced manufacturing quality
- Dirección:
- BARANDIARAN MARTIRENA,IÑIGO;
- GRAÑA ROMAY, MANUEL MARIA
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2023
- Resumen:
This Thesis addresses the challenge of AI-based image quality control systems applied to manufacturingindustry, aiming to improve this field through the use of advanced techniques for data acquisition andprocessing, in order to obtain robust, reliable and optimal systems. This Thesis presents contributions onthe use of complex data acquisition techniques, the application and design of specialised neural networksfor the defect detection, and the integration and validation of these systems in production processes. It hasbeen developed in the context of several applied research projects that provided a practical feedback ofthe usefulness of the proposed computational advances as well as real life data for experimentalvalidation.
Ver más...
SAIZ ALVARO FATIMA AURORA
A mathematical, computational and experimental study of neuronal excitability
- Dirección:
- RODRIGUES , SERAFIM
- Menciones:
- Cum Laude
- Tésis Internacional
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
La excitabilidad neuronal se refiere a la capacidad de las neuronas para generar señales eléctricas,llamadas potenciales de acción, en respuesta a estímulos. Este concepto puede estudiarse bajo diferentesaspectos (matemático, computacional y experimental). En esta tesis nos interesará estudiar este conceptosuperponiendo, cuando sea necesario, estos diferentes aspectos para extraer nuevos resultados, a través decinco proyectos diferentes. En el primer proyecto, primero estudiaremos matemáticamente la transiciónde comportamiento entre neuronas integradoras (modelos de neuronas tipo I) y neuronas resonadoras(modelos de neuronas tipo II) en modelos matemáticos de neuronas conservando las propiedades quehacen del modelo una neurona integradora. En un segundo proyecto, analizaremos datos neuronalesobtenidos de grabaciones de parches de células granulares (GC) durante su desarrollo. Durante un períodotransitorio de maduración, las propiedades intrínsecas y sinápticas de los nuevos GC exhiben propiedadesdistintas de las de los GC maduros, lo que potencialmente subyace a la contribución de la neurogénesis ala codificación de la memoria. Produciremos un modelo adaptado a este comportamiento. En dosproyectos relacionados, nos centraremos en la obtención de diagramas de bifurcación a partir deexperimentos ruidosos, con métodos inspirados en la continuación numérica, llamados Control BasedContinuation in Experiments} (CBCE). La idea es aplicar un control de circuito cerrado a un experimentoy hacer que el control iterativo no sea invasivo, lo que revela el atractor del experimento no controlado.En el proyecto final, analizaremos datos de imágenes de calcio del bulbo olfatorio de varios ratones a losque se les presentaron diferentes sustancias químicas. Nuestro principal objetivo era resaltar patrones dereacciones neuronales a estímulos, pero también desarrollar un canal que nos permitiera comparar laactividad de diferentes sujetos, a través de mapas odotópicos.
Ver más...
GIRIER , GUILLAUME SEBASTIEN
Modelando las decisiones de contribución de contenido de usuarios en una red social.
- Dirección:
- GRAÑA ROMAY, MANUEL MARIA;
- RIOS PEREZ, SEBASTIAN
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2022
- Resumen:
El creciente uso de los servicios de internet, particularmente de las redes sociales en línea (OSN), ha generado una gran oportunidad para entender mejor el comportamiento de los usuarios como también de los flujos de in- formación. El modelado de flujos de información no es un tema nuevo, pero la aparición de OSNs y comunidades virtuales de practica (VCoPs) proporcionan nuevas fuentes de datos que han revitalizado la investigación en esa área. La mayoría, si no todos, de los estudios revisado modelan las OSN a un nivel macroscópico, donde la agregación de eventos no permite observar comportamientos a un nivel de usuario. Nuestra hipótesis es que es posible modelar la difusión de información a nivel microscópico mediante un modelo derivado de la neurofisiología y de la teoría de la decisión.
Ver más...
CLEVELAND ORTEGA, PABLO ANDRE
Contribution to Data Augmentation for Image Classification and Segmentation
- Dirección:
- DORNAIKA , FADI
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
Deep learning has spurred remarkable advancements in vision tasks. Particularly,large-scale models with a high number of trainable parameters can significantly boostperformance. However, as the size and complexity of models increase, the requiredtraining data often escalates in tandem, especially for Vision Transformers. Yet,collecting and annotating data is often time-consuming, costly, or impractical.Overfitting, a common occurrence in the face of data scarcity, poses a significantchallenge for deep learning. This challenge is particularly pronounced in medicalimage segmentation tasks. Addressing the issue of data scarcity and mitigating theresulting overfitting phenomenon are crucial endeavors in the field of deep learning,especially when dealing with large-scale models.To address the challenge of data scarcity, data augmentation strategies stand out asthe most widely recognized solution, known for their effectiveness and efficiency.These strategies aim to combat data scarcity and overfitting by generating additionaltraining samples. Various methodologies exist, including basic data augmentation,Generative Adversarial Network (GAN)-based data augmentation, automaticaugmentation, and regional dropout regularization data augmentation methods. Basicdata augmentation is straightforward but offers limited diversity in the augmentedspace. GAN-based data augmentation, on the other hand, can produce high-qualityand plausible samples, although it heavily relies on GAN models that pose challengesdue to their substantial overhead. Automatic augmentation, which achieves superiorperformance through automated augmentation policy search, often requires trade-offsbetween complexity, cost, and performance. Meanwhile, regional dropoutregularization data augmentation has demonstrated effectiveness, but existingmethods have some shortcomings. These include: (i) Existing methods performcutting and pasting with square-shaped or rectangle-shaped regions, resulting inincomplete object-part information for classification and loss of contour informationfor segmentation. (ii) Current regional dropout regularization data augmentationtechniques are primarily designed for classification tasks, with limited researchconducted on the effectiveness of the cut-and-paste strategy in segmentation. (iii)Most methods only utilize global semantics along with image-level constraints andoverlook local context constraints. (iv) For the classification task, generated labelsoften inconsistently match the augmented images, leading to a mismatch betweenaugmented images and their labels. (v) For the segmentation task, existing regionaldropout augmentations do not fully utilize prior knowledge from segmentation masksor images.In this thesis, we propose a range of innovative data augmentation methods for imageclassification and segmentation. The primary objective of this thesis is to proposecontour-aware and local-aware regional dropout regularization data augmentationapproaches for vision tasks with superpixel-grid-based mixing. Our motivation is toalleviate the data scarcity and resulting overfitting issues, as well as to address thelimitations of existing dropout regularization data augmentation methods. Severaldata augmentation approaches have been proposed, focusing on either imageclassification or image segmentation. Additionally, numerous loss functions havebeen developed to improve the efficacy of the proposed data augmentationtechniques. The main contributions of the thesis are outlined below.(1) We present contour-aware regional dropout data augmentation techniques for bothimage classification and segmentation tasks, employing superpixel-grid-basedmixing.(2) We introduce local-aware regional dropout regularization data augmentationmethods and incorporate local constraints to encourage the model to prioritize localregions. The associated loss functions have been shown to significantly improve theeffectiveness of data augmentation techniques.(3) We present efficient attention-guided superpixel-based data augmentationmethods for classification tasks, ensuring consistency between augmented imagesand generated labels. Our approach utilizes attention mechanisms in both image spaceand label space, respectively.(4) We suggest regional dropout regularization data augmentation methods tailoredfor medical image segmentation. To our knowledge, this represents the first instanceof contour-aware superpixel-mixing-based data augmentation specifically designedfor segmentation tasks.(5) We extensively leverage the prior segmentation mask knowledge of the trainingsamples and investigate loss functions that can enhance the training process. Inparticular, this thesis introduces the novel concepts of superpixel-wise adaptive focalmargin classification loss and reconstruction loss on mixed images for the first time.(6) Comprehensive experiments have conclusively shown the superior performanceof the proposed methods across various image datasets and benchmarks,encompassing both classification and semantic segmentation tasks.Keywords: Deep learning, data augmentation, superpixel, image classification, imagesegmentation.
Ver más...
SUN , DANYANG
CONTRIBUTION TO GRAPH-BASED SEMI-SUPERVISED DEEP LEARNING.
- Dirección:
- DORNAIKA , FADI
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
In recent years, semi-supervised learning on graphs has garnered significant attentionacross various domains and applications. The objective is to leverage both partiallylabeled data (consisting of labeled examples) and a vast pool of unlabeled data todevelop more robust predictive models. Deep Graph Neural Networks (GNNs) haveemerged as powerful tools for addressing both unsupervised and semi-supervisedlearning tasks. Among these, Graph Convolutional Networks (GCNs), as aspecialized class of GNNs, aim to extract meaningful data representations throughgraph-based node smoothing and layer-wise neural network transformations.While certain scenarios inherently exhibit graph structures in their data, such as socialnetworks or interconnected objects, many other types of data lack such inherent graphstructures. For instance, image data often entails diverse features describing eachimage, representing a typical form of multi-view data. Despite the versatility ofGCNs, there has been a notable gap in deep learning approaches specifically tailoredfor multi-view graph-based semi-supervised learning, particularly for datasets lackinginherent graph structures.In this thesis, we focus on enhancing the efficacy of Graph Convolutional NeuralNetworks on both single-view and multi-view datasets, focusing particularly ondatasets devoid of explicit graph structures. We scrutinize the existing limitations ofGCNs when applied to single-view semi-supervised graph learning tasks. To addressthese shortcomings, we introduce a novel semi-supervised learning method termedRe-weight Nodes and Graph Learning Convolutional Network with ManifoldRegularization (ReNode-GLCNMR). This method amalgamates graph learning andgraph convolution within a unified network architecture, while also incorporatinglabel smoothing through an unsupervised loss term. Moreover, it tackles the challengeof imbalanced graph topology by adaptively reweighting the influence of labelednodes based on their proximity to class boundaries.However, there exists a notable gap in applying Graph Convolutional Networks(GCNs) to multi-view data lacking explicit graph structures. To bridge this gap, weintroduce four novel deep semi-supervised multi-view classification modelsexplicitly designed for non-graph data.The first model, termed Semi-supervised Classification with a Unified Graph(SCUG), and the second model, Semi-supervised Classification with a Fused Graph(SCFG), share a common architecture leveraging GCNs and incorporating a labelsmoothing constraint. The primary distinction lies in the construction of theconsensus similarity graph. In SCUG, the consensus graph is directly reconstructedfrom the different views using a specialized objective function tailored for flexiblegraph-based semi-supervised classification. Conversely, SCFG independentlyreconstructs individual graphs before adaptively merging them into a unifiedconsensus graph. The third model, Sample-weighted Fused Graph-based SemisupervisedClassification (WFGSC), is devised for multi-view data and followsseveral key steps: (i) constructing a semi-supervised graph in each view through aflexible model jointly estimating graphs and labels, (ii) generating an additional graphbased on node representations provided by the joint estimator, (iii) assigning higherweights to hard-to-classify samples, and (iv) proposing a loss function integrating thegraph auto-encoder loss and label smoothing over the consensus graph for trainingthe GCN on fused features.To enhance efficiency, we refine WFGSC by utilizing a single GCN to achieve allfeatures, eliminating the need for two separate GCNs. Finally, we introduce the fourthmodel, Linear Projection Fused Graph-based Semi-supervised Classification(LFGSC). This approach initially employs a semi-supervised method for each viewto concurrently estimate corresponding graphs and flexible linear data representationsin a low-dimensional feature space. Subsequently, an adaptive and unified graph isgenerated, followed by leveraging a fully connected network to fuse the projectedfeatures and reduce dimensionality. Finally, the fused features and graph are inputtedinto a GCN for semi-supervised classification. During training, the model accountsfor cross-entropy loss, manifold regularization loss, graph auto-encoder loss, andsupervised contrastive loss. By employing linear transformation, input featuredimensions for the GCN are significantly reduced, achieving high accuracy whilemitigating computational costs.Moreover, extensive experimental results conducted on various benchmark datasetsunderscore the superiority of our proposed methods.Keywords: Semi-supervised learning, Deep Graph Neural Networks, GraphConvolutional Networks, Graph construction, Graph fusion, Graph regularization,Multi-view data.
Ver más...
BI , JINGJUN
Innovative algorithms for completion of resource intensive tasks in IoT devices and novel pplications in the Smart City & Smart Building
- Dirección:
- ANTON GONZALEZ,MIGUEL ANGEL;
- NUÑEZ GONZALEZ, JOSE DAVID
- Menciones:
- Cum Laude
- Calificación:
- Sobresaliente Cum Laude
- Año:
- 2024
- Resumen:
This thesis is framed on the topic of Machine Learning, where we have been focused on the refinement of different methods from the literature, and diverse applications related to Smart Cities and Edge Computing. Preciselly, the main contributions have been made by improving algorithms to ease their computation in resource constrained devices, establishing policies for orchestrating load distribution between these devices through long periods of time, opening the way to novel applications. Contributions are focused on: (1) Neural Network reduction, (2) Task offloading in Edge Computing and (3) Building prediction in Smart Cities.
Ver más...
GARMENDIA ORBEGOZO, ASIER