Titulo - Tesis defendidas

Tesis defendidas

Contenido de XSL

Tesis defendidas del programa actual

Técnicas para la mejora de la inteligibilidad en voces patológicas

SERRANO GARCIA, LUIS

Dirección:
HERNAEZ RIOJA, INMACULADA CONCEPCION
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Los laringectomizados son personas cuya laringe ha sido extirpada quirúrgicamente, normalmente como consecuencia de un tumor. Al tratarse éste de un órgano fundamental para la producción de la voz, pierden la capacidad de hablar. Sin embargo, muchas de ellas consiguen re-aprender a hablar de una manera distinta. Este tipo de habla se conoce como voz esofágica y es bastante distinta de la voz sana. Su naturalidad e inteligibilidad es menor hasta el punto de que ciertos oyentes tienen que hacer un esfuerzo para comprender lo que se les está diciendo. Esto supone un perjuicio en la calidad de vida de los laringectomizados ya que sus capacidades comunicativas se ven afectadas, no solo en las interacciones entre personas sino también en las interfaces hombre-máquina controladas por la voz. En esta tesis se abordan diferentes métodos para la mejora de la inteligibilidad de las voces alaríngeas de manera que palíen estos problemas. Un aspecto importante ha sido analizar las características propias de la voz esofágica. No es fácil encontrar el material necesario para hacer este análisis y los recursos disponibles son escasos. Esta tesis ha querido llenar este vacío mediante la grabación de una base de datos paralela de locutores esofágicos. Esta base de datos ha sido caracterizada acústicamente. Con este objetivo se ha comprobado los efectos que tiene el método de extracción de la frecuencia fundamental a la hora de analizar las características de las señales esofágicas. Se ha propuesto utilizar el análisis del residuo glotal ya que capta mejor las peculiaridades de este tipo de voces. Es necesario también disponer de algún método para evaluar de manera objetiva el impacto que tienen los métodos propuestos para mejorar la inteligibilidad. Con este propósito se ha implementado un reconocedor cuyas características y particularidades se recogen en este documento. Este ASR se validó participando en una evaluación de detección de términos hablados organizada por la Red Temática en Tecnologías del Habla. Para la mejora de la inteligibilidad de las voces esofágicas primero se han analizado diferentes algoritmos basados en las técnicas de conversión de voz existentes aplicadas a voces sanas. Se ha evaluado tanto el comportamiento de técnicas clásicas basadas en mezclas de Gaussianas como el de técnicas de conversión basadas en aprendizaje profundo. Por último, se han adaptado con éxito estas técnicas de conversión a las voces esofágicas. Estas conversiones se han evaluado de manera objetiva mediante el ASR construido, y subjetivamente mediante tests de preferencia. Aunque los resultados de las pruebas subjetivas exponen que para los oyentes no hay diferencias significativas entre las voces convertidas y las esofágicas originales, los resultados del reconocimiento automático muestran que las técnicas de conversión aplicadas a este tipo de voces consiguen disminuir la tasa de error obtenida.

Ver más...

Design and development of polymer optical fiber based platforms for glucose detection.

AZKUNE ULLA, MIKEL

Dirección:
ALDABALDETREKU ETXEBERRIA, GOTZON;
BIKANDI IRAZABAL, IÑAKI
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Tesi-lan honetan polimerozko zuntz optikoetan oinarritzen diren glukosa detekzioa egiteko bi plataforma aurkezten dira. Lehenik eta behin, tesiaren testuingurua deskribatzen da, horretarako biosentsoreen zein polimerozko zuntz optikoen oinarriak, garapen historikoa eta mugarri garrantzitsuenak azalduz. Ondoren, tesian zehar jorratzen diren detekzio tekniken azalpen teoriko bat egiten da, uhin ebaneszentea eta Raman espektroskopia zer diren azalduz. Horren ostean, lehen detekzio plataforma azaltzen da, U formako nukleo hutsezko polimerozko zuntz optikozko zunda bat erabiliz. Zunda honen gainazala fenilboroniko taldeekin funtzionalizatu eta Alizarin Red S izeneko koloratzailearekin kargatzen da. Honenbestez, zundaren ingurunean glukosa badago, glukosak koloratzailea desplazatu eta uhin ebaneszentearen xurgapenean aldaketak emango dira, glukosaren detekzioa gauzatuz. Honela, glukosa 0.1 mol/l-ko kontzentrazioan eta hainbat ingurune ezberdinetan detektatu da. Hurrengo kapituluan, bigarren detekzio plataforma azaltzen da, zuntz bidez anplifikaturiko Raman espektroskopian oinarritua. Kasu honetan, likidoz beteriko nukleodun polimerozko zuntz optiko mikroegituratuak diseinatu, fabrikatu eta hiru zuntzen arteko konparaketa egiten da. Kasurik onenean, 5 mmol/l-ko kontzentrazioan aurkitzen glukosaren zenbaketa limitea lortzen da ingurune urtsuan, erresoluzio nahikoa izanik SGLT2 inhibitore terapiaren jarraipena egiteko maila klinikoan. Azkenik, bi detekzio sistemak aplikazio errealetan erabiltzeko zein hobekuntza egin behar diren azaltzen da, esparru horietako lehen emaitza batzuk azalduz.

Ver más...

A reduced reference video quality assessment method for provision as a service over SDN/NFV-enabled networks

KOURTIS , MICHAIL ALEXANDROS

Dirección:
KOUMARAS , CHARILAOS;
LIBERAL MALAINA, FIDEL
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

The proliferation of multimedia applications and services has generarted a noteworthy upsurge in network traffic regarding video content and has created the need for trustworthy service quality assessment methods. Currently, predominent position among the technological trends in telecommunication networkds are Network Function Virtualization (NFV), Software Defined Networking (SDN) and 5G mobile networks equipped with small cells. Additionally Video Quality Assessment (VQA) methods are a very useful tool for both content providers and network operators, to understand of how users perceive quality and this study the feasibility of potential services and adapt the network available resources to satisfy the user requirements.

Ver más...

Moving toward the intra-protocol de-ossification of TCP in mobile networks: Start-up and mobility

ATXUTEGI NARBONA, ENEKO

Dirección:
LIBERAL MALAINA, FIDEL
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

El uso de las redes móviles de banda ancha ha aumentado significativamente los últimos años y se espera un crecimiento aún mayor con la inclusión de las futuras capacidades 5G. 5G proporcionará unas velocidades de transmisión y reducidos retardos nunca antes vistos. Sin embargo, la posibilidad de alcanzar las mencionadas cuotas está limitada por la gestión y rendimiento de los protocolos de transporte. A este respecto, TCP sigue siendo el protocolo de transporte imperante y sus diferentes algoritmos de control de congestión (CCA) los responsables finales del rendimiento obtenido. Mientras que originalmente los distintos CCAs han sido implementados para hacer frente a diferentes casos de uso en redes fijas, ninguno de los CCAs ha sido diseñado para poder gestionar la variabilidad de throughput y retardos de diferentes condiciones de red redes móviles de una manera fácilmente implantable. Dado que el análisis de TCP sobre redes móviles es complejo debido a los múltiples factores de impacto, nuestro trabajo se centra en dos casos de uso generalizados que resultan significativos en cuanto a afección del rendimiento: movimiento de los usuarios como representación de la característica principal de las redes móviles frente a las redes fijas y el rendimiento de la fase de Start-up de TCP debido a la presencia mayoritaria de flujos cortos en Internet. Diferentes trabajos han sugerido la importancia de una mayor flexibilidad en la capa de transporte, creando servicios de transporte sobre TCP o UDP. Sin embargo, estas propuestas han encontrado limitaciones relativas a las dependencias arquitecturales de los protocolos utilizados como sustrato (p.ej. imposibilidad de cambiar la configuración de la capa de transporte una vez la transmisión a comenzado), experimentando una capa de transporte "osificada". Esta tesis surge como respuesta a fin de abordar la citada limitación y demostrando que existen posibilidades de mejora dentro de la familia de TCP (intra-protocolar), proponiendo un marco para solventar parcialmente la restricción a través de la selección dinámica del CCA más apropiado. Para ello, se evalúan y seleccionan los mayores puntos de impacto en el rendimiento de los casos de uso seleccionados en despliegues de red 4G y en despliegues de baja latencia que emulan las potenciales latencias en las futuras capacidades 5G. Estos puntos de impacto sirven como heurísticas para decidir el CCA más apropiado en el propuesto marco. Por último, se valida la propuesta en entornos de movilidad con dos posibilidades de selección: al comienzo de la transmisión (limitada flexibilidad de la capa de transporte) y dinámicamente durante la transmisión (con una capa de transporte flexible). Se concluye que la propuesta puede acarrear importantes mejoras de rendimiento al seleccionar el CCA más apropiado teniendo en cuenta la situación de red y los requerimientos de la capa de aplicación.

Ver más...

Development of sensing technologies based on optical fibre from a new approach

ARRIZABALAGA URIARTE, OSKAR

Dirección:
DURANA APAOLAZA, GAIZKA;
VILLATORO BERNARDO, AGUSTIN JOEL
Menciones:
Tésis Internacional
Calificación:
Sobresaliente
Año:
2020
Resumen:

En esta tesis doctoral se ha desarrollado una nueva tecnología para la fabricación de sensores interferométricos basados en fibra óptica monomodo estándar. Dichos sensores se caracterizan por ser de tamaño micrométrico y de alta sensibilidad y resolución. Los dispositivos sensores desarrollados presentan dimensiones micrométricas, y están basados en una micro-capa de polímero adherida al extremo de una fibra óptica monomodo. Dicha capa ofrece la posibilidad de controlar el patrón de interferencia en la fibra y, por lo tanto, su utilización en diferentes aplicaciones de sensado. Así, se han fabricado y evaluado experimentalmente diferentes muestras como sensores de temperatura, medidores de índice de refracción y sensores de humedad relativa. En los tres casos analizados, los resultados obtenidos han demostrado que, en cada prueba experimental realizada, el sensor proporcionó parámetros de velocidad de respuesta y resolución superiores a los ofrecidos por sus homólogos comerciales con los que se comparó. Además, se ha validado la posibilidad de fabricar dichos sensores de manera asequible y reproducible. Esta nueva tecnología de sensores basados en fibra óptica basados en interferometría resulta muy prometedora para el su empleo en aplicaciones de biosensado.

Ver más...

Design and validation of novel methods for long-term road traffic forecasting

LAÑA AURRECOECHEA,IBAI

Dirección:
DEL SER LORENTE, JAVIER;
VELEZ ELORDI, MANUEL MARIA
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Road traffic management is a critical aspect for the design and planning of complex urban transport networks for which vehicle flow forecasting is an essential component. As a testimony of its paramount relevance in transport planning and logistics, thousands of scientific research works have covered the traffic forecasting topic during the last 50 years. In the beginning most approaches relied on autoregressive models and other analysis methods suited for time series data. During the last two decades, the development of new technology, platforms and techniques for massive data processing under the Big Data umbrella, the availability of data from multiple sources fostered by the Open Data philosophy and an ever-growing need of decision makers for accurate traffic predictions have shifted the spotlight to data-driven procedures. Even in this convenient context, with abundance of open data to experiment and advanced techniques to exploit them, most predictive models reported in literature aim for shortterm forecasts, and their performance degrades when the prediction horizon is increased. Long-term forecasting strategies are more scarce, and commonly based on the detection and assignment to patterns. These approaches can perform reasonably well unless an unexpected event provokes non predictable changes, or if the allocation to a pattern is inaccurate. The main core of the work in this Thesis has revolved around datadriven traffic forecasting, ultimately pursuing long-term forecasts. This has broadly entailed a deep analysis and understanding of the state of the art, and dealing with incompleteness of data, among other lesser issues. Besides, the second part of this dissertation presents an application outlook of the developed techniques, providing methods and unexpected insights of the local impact of traffic in pollution. The obtained results reveal that the impact of vehicular emissions on the pollution levels is overshadowed

Ver más...

New perspectives and methods for stream learning in the presence of concept drift.

LOPEZ LOBO,JESUS

Dirección:
BILBAO MARON, MIREN NEKANE;
DEL SER LORENTE, JAVIER
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Applications that generate data in the form of fast streams from non-stationary environments, that is, those where the underlying phenomena change over time, are becoming increasingly prevalent. In this kind of environments the probability density function of the data-generating process may change over time, producing a drift. This causes that predictive models trained over these stream data become obsolete and do not adapt suitably to the new distribution. Specially in online learning scenarios, there is a pressing need for new algorithms that adapt to this change as fast as possible, while maintaining good performance scores. Examples of these applications include making inferences or predictions based on financial data, energy demand and climate data analysis, web usage or sensor network monitoring, and malware/spam detection, among many others. Online learning and concept drift are two of the most hot topics in the recent literature due to their relevance for the so-called Big Data paradigm, where nowadays we can find an increasing number of applications based on training data continuously available, named as data streams. Thus, learning in nonstationary environments requires adaptive or evolving approaches that can monitor and track the underlying changes, and adapt a model to accommodate those changes accordingly. In this effort, I provide in this thesis a comprehensive state-of-the-art approaches as well as I identify the most relevant open challenges in the literature, while focusing on addressing three of them by providing innovative perspectives and methods. This thesis provides with a complete overview of several related fields, and tackles several open challenges that have been identified in the very recent state of the art. Concretely, it presents an innovative way to generate artificial diversity in ensembles, a set of necessary adaptations and improvements for spiking neural networks in order to be used in online learning scenarios, and finally, a drift detector based on this former algorithm. All of these approaches together constitute an innovative work aimed at presenting new perspectives and methods for the field.

Ver más...

Millimetre wave communications in 5G networks under latency constraints: machine intelligence, application scenarios and perspectives.

PERFECTO DEL AMO, CRISTINA BEGOÑA

Dirección:
BILBAO MARON, MIREN NEKANE;
DEL SER LORENTE, JAVIER
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Nowadays there is little doubt that wireless communications have been a pivotal player in the irruption and maturity of digital technologies in almost all sectors of activity. Over the years, the society has witnessed how wireless networking has become an essential element of its evolution and prosperity. However, the ever-growing requirements of applications and services in terms of rate, reliability and latency have steered the interest of regulatory bodies towards emergent radio access interfaces capable of efficiently coping with such requisites. In this context, millimeter-wave (mmWave) communications have been widely acknowledged as a technology enabler for ultra-reliable, low-latency applications in forthcoming standards, such as 5G. Unfortunately, the unprecedented data rates delivered by mmWave communications come along with new paradigms in regards to radio resource allocation, user scheduling, and other issues all across the protocol stack, mainly due to the directivity of antennas and sensitiveness to blockage of communications held in this spectrum band. Consequently, the provision of machine intelligence to systems and processes relying on mmWave radio interfaces is a must for efficiently handling the aforementioned challenges. This Thesis contributes to the above research niche by exploring the use of elements and tools from Computational Intelligence, Matching Theory and Stochastic Optimization for the management of radio and network resources in mmWave communications. To this end, two different application scenarios are targeted: 1) Vehicular communications, where the high degree of mobility and the recurrent inter-vehicular blockage give rise to complex channel conditions for channel allocation and beam alignment; and 2) mobile virtual reality (VR), where the motion-to-photon latency limit raises the hurdle for scheduling the delivery of multimedia content over mmWave. A diversity of intelligent methods for clustering, predictive modeling, matching and optimization for dynamical systems are studied, adapted and applied to the aforementioned scenarios, giving evidences of the profitable advantages and performance gains yielded by these methods. The Thesis complements its technical contribution with a thorough overview of the recent literature of mmWave communications, leading to the main conclusion stemming from the findings of the Thesis: machine intelligence, provided by any technological means, is a driver to realize the enormous potential of mmWave for applications with unprecedented latency constraints.

Ver más...

Modelos Matemáticos Basados en Consumos Computacionales para el Estudio de Rendimiento de Sondas de Análisis de Tráfico en Redes de Datos

ZABALA ALBERDI, LUIS

Dirección:
FERRO VAZQUEZ, ARMANDO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

La monitorización de tráfico es una operación crítica dentro de las tareas de gestión de red. Por ello, es necesario disponer de herramientas y equipos que analicen el tráfico de red y detecten posibles anomalías, fallos de configuración, ataques o intrusiones. Este trabajo de Tesis se centra en el estudio de equipos denominados sondas de análisis de tráfico que realizan labores de monitorización. Tras analizar la evolución de estos sistemas desde las primeras redes Gigabit Ethernet hasta las redes 5G actuales, la Tesis propone modelos analíticos dirigidos a medir el rendimiento de dichos dispositivos. Se presentan tres modelos basados en teoría de colas: en el primero, sobre un cola tándem con un único servidor activo, se formula un proceso de decisión de Markov que optimiza el throughput de una sonda de análisis; en el segundo, se analiza y se mide el rendimiento de un sistema de captura de paquetes mediante un modelo de cola con vacations; por último, el tercero plantea una red abierta de colas para tomar decisiones en el despliegue de funciones virtuales de red (VNFs) de un servicio de Misión Crítica sobre una red 5G. Cada modelo se resuelve con una técnica diferente y posteriormente se valida, bien sea comparando sus resultados con medidas experimentales de una sonda real o bien mediante simulación.

Ver más...

Advances on Time Series Analysis using Elastic Measures of Similarity

OREGUI BRAVO, IZASKUN

Dirección:
DEL SER LORENTE, JAVIER;
PEREZ MARTINEZ, ARITZ
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

A sequence is a collection of data instances arranged in an structured manner. When this arrangement is held in the time domain, sequences are instead referred to as time series. As such, each observation in a time series represents an observation drawn from an underlying process, produced at a specific time instant. However, other type of data indexing structures, such as spaceor threshold-based arrangements are possible. Data points that compose a time series are often correlated to each other. To account for this correlation in data mining tasks, time series are usually studied as a whole data object rather than as a collection of independent observations. In this context, techniques for time series analysis aim at analyzing this type of data structures by applying specific approaches developed to harness intrinsic properties of the time series for a wide range of problems such as, classification, clustering and other tasks alike. The development of monitoring and storage devices has made time series analysis proliferate in numerous application fields including medicine, economics, manufacturing and telecommunications, among others. Over the years, the community has gathered efforts towards the development of new data-based techniques for time series analysis suited to address the problems and needs of such application fields. In the related literature, such techniques can be divided in three main groups: feature-, model- and distance- based methods. The first group (feature-based) transforms time series into a collection of features, which are then used by conventional learning algorithms to provide solutions to the task under consideration. In contrast, methods belonging to the second group (model-based) assume that each time series is drawn from a generative model, which is then harnessed to elicit information from data. Finally, distance-based techniques operate directly on raw time series. To this end, these latter methods resort to specially defined measures of distance or similarity for comparing time series, without requiring any further processing. Among them, elastic similarity measures (e.g., dynamic time warping and edit distance) compute the closeness between two sequences by finding the best alignment between them, disregarding differences in time gaps and thus focusing exclusively on shape differences. This Thesis presents several contributions to the field of distance-based techniques for time series analysis, namely: i) a novel multi-dimensional elastic similarity learning method for time series classification; ii) an adaptation of elastic measures to streaming time series scenarios; and iii) the use of distance-based time series analysis to make machine learning methods for image classification robust against adversarial attacks. Throughout the Thesis, each contribution is framed within its related state of the art, explained in detail and empirically evaluated. The obtained results lead to new insights on the application of distance-based time series methods for the considered scenarios, and motivates research directions that highlight the vibrant momentum of this research area.

Ver más...

Análisis del despliegue de comunicaciones de misión crítica sobre redes 4G y 5G

SANCHOYERTO MARTINEZ, AITOR

Dirección:
LIBERAL MALAINA, FIDEL
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

El gran interés por la convivencia y la futura convergencia de las redes de seguridad pública en redes de misión crítica de banda ancha se refleja en el importante esfuerzo en publicaciones y normalización de los últimos años. Sin embargo, no se ha analizado la QoS (Calidad de servicio) de los nuevos servicios de misión crítica cuando se implementan en arquitecturas 4G / 5G. La principal motivación de este investigador es COMUNICARSE y hacerlo de la manera más rigurosa posible y que su MENSAJE contribuya al aumento de la confianza en los servicios de misión crítica (MC) desplegados en redes 4G, 5G de banda ancha, etc. El 3GPP se ha esforzado en horas, recursos y dinero en la estandarización de los servicios de emergencia de acuerdo con los requerimientos de las agencias PPDR (Public Protection Disaster Recovery). Para llevar a cabo esta investigación, que se presenta en esta publicación, se ha logrado reunir al equipo del proyecto FP7 GERYON, con quien, en julio de 2014, se pudo definir e implementar una arquitectura ALL-IP que permitió interoperar recursos conectados a redes de radio privadas. (TETRA) con usuarios registrados en redes de banda ancha LTE. En 2014, el 3GPP estaba construyendo los cimientos del estándar MCPTT (Push to Talk de misión crítica), pero cuando comenzó este proyecto en diciembre de 2011, era la OMA la que había desarrollado un estándar llamado POC (Push to Talk Over Cellular), precursor del MCPTT y que se implementó en GERYON. Después de GERYON, la vida profesional del equipo siguió caminos paralelos. El equipo del departamento de investigación de la UPV / EHU continuó trabajando en la estandarización de los servicios de misión crítica de 3GPP. Al igual que este proyecto, partió del PoC que tan bien conocían, colocando al departamento en un referente internacional en el estudio, desarrollo e implementación del estándar MCPTT de 3GPP. En enero de 2018 este investigador se incorporó a NQaS en la UPV / EHU. Se ha dispuesto de la gran oportunidad de utilizar para mi investigación una de las pocas redes operativas de banda ancha de misión crítica disponibles en todo el mundo. Como investigador se ha tenido el privilegio de poder analizar y medir el desempeño del servicio MCPTT. No es fácil para un investigador tener dicha infraestructura a menos que trabaje en el equipo que ha desarrollado e implementado una de ellas. La motivación para hacer esta investigación ha sido doble. Por un lado, tener el privilegio de poder testear todas las funcionalidades del servicio MCPTT que, a pesar de los nuevos requerimientos de datos exigidos por las organizaciones de seguridad, defensa y emergencia, sin duda seguirá siendo la piedra angular de las comunicaciones de cualquier organización. Por otro lado, como diseñador y desarrollador de soluciones en la tecnología precursora, ha permitido al investigador adquirir más rápidamente los conocimientos necesarios del servicio MCPTT para poder hacer propuestas de despliegues de este servicio con el objetivo de reducir las latencias del servicio. Un recurso debe poder establecer una nueva llamada en menos de 1000 ms, estar incluido en una llamada de grupo en menos de 300 ms y el tiempo entre un recurso que habla y su mensaje que llega a todos los miembros registrados de ese grupo no debe exceder los 300 ms. El trabajo reflejado en esta publicación es el resultado de estudiar el funcionamiento del servicio no solo a nivel funcional, sino sobre todo a nivel de protocolo de red (TCP / UDP), señalización (SIP) y datos (RTP, RTCP o sRTP).). Estos servicios se despliegan sobre redes de banda ancha que incluyen latencia de servicio, por lo que una parte importante del tiempo de investigación se ha centrado en el conocimiento detallado del canal de transporte y cómo éste puede afectar el cumplimiento de los indicadores de calidad. del servicio definido por el 3GPP para el servicio MCPTT. Esta tesis analiza el despliegue de las comunicaciones de misión crítica sobre redes de banda ancha. 4G y 5G. Partiendo de un escenario base de cálculo LTE se plantean diferentes estrategias de despliegue empleando tecnologías habilitadoras como NFV y SDN que harán posible que se puedan desplegar estos servicios en los extremos de la red del operador (MEC). El despliegue de los servicios cerca del usuario final reducirá los tiempos de latencia de comunicaciones y la separación del canal de control del de datos propuestos por CUPS permitirá al canal de control poder gestionar el incremento de ancho de banda disponible en 5G. Todas las estrategias de despliegue indicadas para 5G, se completará con la propuesta de despliegue sobre la arquitectura 5G NSA (Non Standalone) que permitirá reducir los tiempos de latencia de las comunicaciones en la parte radio de la arquitectura, además de beneficiarse de las tecnologías habilitadoras mencionadas que ahora forman parte de forma nativa de la arquitectura 5G. A diferencia de una arquitectura 5G SA (Standalone), en esta tesis hemos considerado como núcleo de red el EPC de la arquitectura 4G y no el nuevo núcleo 5G. (5GC). Por lo indicado en las líneas anteriores, en esta tesis comenzará abordando el funcionamiento de las redes de banda ancha sobre las que se pueden despliegan los servicios de misión crítica MCPTT: redes 4G y 5G NSA (Non Standalone), 5G SA (Standalone). Pero también se presentarán tecnologías habilitadoras que permiten la de virtualización de servicios (NFV), el despliegue de estos en el extremo de la red del operador (MEC), así cómo, la separación del canal de control del de los datos propuestos en CUPS ya se puede implementada en redes 4G gracias a SDN.

Ver más...

Advanced photonic sensors for industrial applications

AMOREBIETA HERRERO, JOSU

Dirección:
DURANA APAOLAZA, GAIZKA;
VILLATORO BERNARDO, AGUSTIN JOEL
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

En esta tesis se han desarrollado diversos sensores basados en fibra óptica cuya finalidad es ofrecer una alternativa o solución a las necesidades particulares de la industria. En este contexto, las fibras ópticas y la fotónica en general son especialmente atractivas gracias a características intrínsecas que poseen, como su pequeño tamaño y alta sensibilidad, por ejemplo, lo que ha aumentado el interés por parte del sector industrial en esta tecnología. En la primera parte de la tesis, se describe el proceso llevado a cabo para el diseño y fabricación de sensores ópticos para la medida sin contacto del parámetro llamado Tip Clearance (TC) en motores aeronáuticos. El TC consiste en medir la distancia (del orden de micrómetros) entre los álabes que están girando a altas revoluciones y la carcasa del motor, y, por tanto, es un parámetro de suma importancia para la industria aeronáutica tanto a nivel de seguridad como de eficiencia del motor. Dichos sensores fueron puestos a pruebas en el túnel de viento del Centro de Tecnologías Aeronáutcas (Zamudio, Bizkaia) con buenos resultados. En la segunda parte de la tesis se han diseñado y fabricado sensores basados en fibra multinúcleo particularizados específicamente para la medida de diversos parámetros como la temperatura, vibraciones, curvatura, bending, etc. que son de interés para la industria. Dichos sensores mostraron una alta sensibilidad, lo que unido a su simplicidad y pequeño tamaño los convierte en una alternativa interesante tanto para su integración en cadenas de producción como para su uso en test de validación.

Ver más...

Estudio de la fiabilidad de capas físicas inalámbricas de 2.45 GHZ en entornos industriales mediante emulación de canal.

DIEZ BORGE VICTOR

Dirección:
ARRIOLA BILBAO,AITOR;
VELEZ ELORDI, MANUEL MARIA
Menciones:
Cum Laude
Tésis Industrial
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Las comunicaciones inalámbricas ocupan un papel fundamental dentro de la Industria 4.0. Sin embargo, su uso en entornos industriales, aunque cada vez más presente, sigue siendo residual si se compara con las comunicaciones cableadas. Esto se debe a que las propiedades físicas del entorno industrial generan unas condiciones de propagación que distan mucho de ser ideales, afectando negativamente a la fiabilidad de las comunicaciones. Cuando se desea desplegar un enlace inalámbrico en un entorno industrial, es necesario realizar una validación de la fiabilidad de las comunicaciones que de ciertas garantías de funcionamiento. Las metodologías actuales presentan deficiencias cuando son aplicadas en entornos industriales, las cuales se traducen en una la falta de reproducibilidad y una la falta de exactitud de los resultados de las validaciones respecto a los obtenidos posteriormente tras el despliegue. Por ello, en esta tesis se define una metodología para evaluar y validar la fiabilidad de las capas físicas de sistemas de comunicaciones inalámbricos empleados por nodos terminales en casos de uso industriales. Esta metodología considera las métricas adecuadas para evaluar la fiabilidad, los parámetros necesarios para definir correctamente el escenario de medida, los detalles del setup de laboratorio y el algoritmo de comunicación a emplear. Así mismo, se aplica la metodología propuesta para evaluar y validar la fiabilidad de tres capas físicas definidas por los estándares inalámbricos IEEE 802.15.4 y Bluetooth Low Energy. Ello ha permitido obtener resultados de fiabilidad de todas las capas físicas tanto para canales de propósito general como para canales puramente industriales. También se han obtenido expresiones matemáticas para predecir la fiabilidad de las capas físicas bajo los diferentes canales industriales. Por último, se han validado dichas capas físicas para tres casos de uso industrial generales.

Ver más...

QoE on media deliveriy in 5G environments

MARTIN NAVAS, ANGEL

Dirección:
FLOREZ ESNAL, JULIAN;
MONTALBAN SANCHEZ, JON
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

5G expandirá las redes móviles con un mayor ancho de banda, menor latencia y la capacidad de proveer conectividad de forma masiva y sin fallos. Los usuarios de servicios multimedia esperan una experiencia de reproducción multimedia fluida que se adapte de forma dinámica a los intereses del usuario y a su contexto de movilidad. Sin embargo, la red, adoptando una posición neutral, no ayuda a fortalecer los parámetros que inciden en la calidad de experiencia. En consecuencia, las soluciones diseñadas para realizar un envío de tráfico multimedia de forma dinámica y eficiente cobran un especial interés. Para mejorar la calidad de la experiencia de servicios multimedia en entornos 5G la investigación llevada a cabo en esta tesis ha diseñado un sistema múltiple, basado en cuatro contribuciones. El primer mecanismo, SaW, crea una granja elástica de recursos de computación que ejecutan tareas de análisis multimedia. Los resultados confirman la competitividad de este enfoque respecto a granjas de servidores. El segundo mecanismo, LAMB-DASH, elige la calidad en el reproductor multimedia con un diseño que requiere una baja complejidad de procesamiento. Las pruebas concluyen su habilidad para mejorar la estabilidad, consistencia y uniformidad de la calidad de experiencia entre los clientes que comparten una celda de red. El tercer mecanismo, MEC4FAIR, explota las capacidades 5G de analizar métricas del envío de los diferentes flujos. Los resultados muestran cómo habilita al servicio a coordinar a los diferentes clientes en la celda para mejorar la calidad del servicio. El cuarto mecanismo, CogNet, sirve para provisionar recursos de red y configurar una topología capaz de conmutar una demanda estimada y garantizar unas cotas de calidad del servicio. En este caso, los resultados arrojan una mayor precisión cuando la demanda de un servicio es mayor.

Ver más...

Contribuciones de Inteligencia Artificial Aplicada en Sistemas Industriales

MENDIA TELLERIA, IZASKUN

Dirección:
GIL-LOPEZ , SERGIO;
VELEZ ELORDI, MANUEL MARIA
Menciones:
Cum Laude
Tésis Industrial
Calificación:
Sobresaliente Cum Laude
Año:
2022
Resumen:

La dinámica de la sociedad moderna empuja al sector industrial hacia una creciente necesidad de sistemas cada vez más complejos y autónomos, destinada a liberar a los seres humanos de tareas mecánicas, repetitivas y poco gratificantes. Las tecnologías habilitadoras que harán posible esta revolución están disponibles. Y es un hecho que, la Inteligencia Artificial abre un universo de posibilidades para transformar en valor la ingente cantidad de datos existentes. En este campo de investigación, además de las técnicas ya conocidas y ampliamente utilizadas para entrenar modelos, se puede encontrar en la literatura un sinnúmero de variaciones algorítmicas. Sin embargo, esta apuesta por la Inteligencia Artificial no es todavía tangible dentro del sector industrial. Quizás porque estas potentes técnicas han de aterrizarse a la realidad de problemas concretos en industrias reales. Y sin género de dudas, la Inteligencia Artificial Aplicada es clave para ayudar a transformar el ecosistema industrial actual. Urge centrar los esfuerzos en promover estas tecnologías a través de la creación de nuevas herramientas que ejemplifiquen la aplicación de la tecnología del dato y de la Inteligencia Artificial. Este trabajo de Tesis doctoral está centrado, no en la definición de nuevas aportaciones analíticas, sino en la investigación estratégica de las técnicas de Inteligencia Artificial aplicadas al ámbito industrial. Sencillas y entendibles técnicas, capaces de abstraer a la audiencia de las complejas fórmulas matemáticas y de las oscuras cajas negras, aplicadas a la realidad de 3 casos de investigación científica industrial no-supervisados. Inicialmente, se propone la creación de una herramienta para la correcta y equilibrada asignación de consumidores a Fases en la red de Baja Tensión de la Red Eléctrica. En la resolución del problema se aplican algoritmos de optimización ávaros (greedy) y algoritmos meta-heurísticos (agnósticos al problema y de propósito general) y se describen métricas provenientes de diferentes dominios para medir la calidad de la solución. El concepto común en dichas métricas es el estudio de la complementariedad entre las v curvas de carga (patrones de consumo) de cada consumidor telegestionado de la Línea eléctrica. Posteriormente, se propone un procedimiento para el Control y Supervisión de procesos industriales, donde ciertas variables críticas del proceso son difícilmente medibles. En la resolución del problema, se aplican algoritmos predictivos para inferir la relación entre las variables conocidas y medibles del proceso, y su relación con las variables críticas. El sistema de inferencia propuesto, a través de la correcta secuenciación de técnicas (técnicas de selección de variables relevantes, técnicas de limpieza de datos probabilísticas, técnicas de eliminación de ruidos y redundancias y técnicas de adecuación dinámica a los cambios de comportamiento del proceso), consigue obtener el valor de las variables críticas en tiempo real. Y finalmente, se propone una metodología para la modelización energética de una planta industrial en términos de tasa de producción y de consumos eléctricos individuales (a nivel de máquina) y consumos eléctricos agregados (a nivel de planta). En la resolución del problema se aplican sencillos algoritmos descriptivos y regresivos que permiten reconocer aquellos patrones de comportamiento que justifican el funcionamiento energético de la planta y que permiten detectar las ineficiencias energéticas que no se corresponden con los patrones identificados y descubrir la causa raíz de tales ineficiencias. Se trata de la resolución de un problema de caracterización energética no-supervisado. Asimismo, con objeto de difundir los resultados obtenidos en los casos de investigación industrial se han realizado diversas tareas de diseminación científica (2 artículos de revista y 3 congresos internacionales) y diseminación tecnológica (2 patentes y 1 registro de software).Como reconocimiento a la innovación y calidad de los resultados y aportaciones obtenidas, estas investigaciones aplicadas también han recibido 2 premios de reconocimiento industrial (¿Best use of Data Science for Industry 4.0¿y ¿Research and development of artificial intelligence applied to industrial plants¿) y el reconocimiento de Innobasque como ¿Caso industrial de referencia¿. Todos ellos fruto de las diversas innovaciones en el ámbito industrial relacionadas con los resultados de las investigaciones.

Ver más...

Quarantine-mode based live patching for zero downtime safety-critical systems

MUGARZA INCHAUSTI, IMANOL

Dirección:
JACOB TAQUET, EDUARDO JUAN;
PARRA MOLINA, JORGE
Menciones:
Cum Laude
Tésis Industrial
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

En esta tesis se presenta una arquitectura y diseño de software, llamado Cetratus, que permite las actualizaciones en caliente en sistemas críticos, donde se efectúan actualizaciones dinámicas de los componentes de la aplicación. La característica principal es la ejecución y monitorización en modo cuarentena, donde la nueva versión del software es ejecutada y monitorizada hasta que se compruebe la confiabilidad de esta nueva versión. Esta característica también ofrece protección contra posibles fallos de software y actualización, así como la propagación de esos fallos a través del sistema. Para este propósito, se emplean técnicas de particionamiento. Aunque la actualización del software es iniciada por el usuario Updater, se necesita la ratificación del auditor para poder proceder y realizar la actualización dinámica. Estos usuarios son autenticados y registrados antes de continuar con la actualización. También se verifica la autenticidad e integridad del parche dinámico. Cetratus está alineado con las normativas de seguridad funcional y de ciber-seguridad industriales respecto a las actualizaciones de software. Se proporcionan dos casos de estudio. Por una parte, en el caso de uso de energía inteligente, se analiza una aplicación de gestión de energía eléctrica, compuesta por un sistema de gestión de energía (BEMS por sus siglas en ingles) y un servicio de optimización de energía en la nube (BEOS por sus siglas en ingles). El BEMS monitoriza y controla las instalaciones de energía eléctrica en un edificio residencial. Toda la información relacionada con la generación, consumo y ahorro es enviada al BEOS, que estima y optimiza el consumo general del edificio para reducir los costes y aumentar la eficiencia energética. En este caso de estudio se incorpora una nueva capa de ciberseguridad para aumentar la ciber-seguridad y privacidad de los datos de los clientes. Específicamente, se utiliza la criptografía homomorfica. Después de la actualización, todos los datos son enviados encriptados al BEOS. Por otro lado, se presenta un caso de estudio ferroviario. En este ejemplo se actualiza el componente Euroradio, que es la que habilita las comunicaciones entre el tren y el equipamiento instalado en las vías en el sistema de gestión de tráfico ferroviario en Europa (ERTMS por sus siglas en ingles). En el ejemplo se actualiza el algoritmo utilizado para el código de autenticación del mensaje (MAC por sus siglas en inglés) basado en el algoritmo de encriptación AES, debido a los fallos de seguridad del algoritmo actual.

Ver más...

Diseño de software para la instrumentación virtual de sensores ópticos en motores aeronáuticos

FERNANDEZ BELLO, RUBEN

Dirección:
ALDABALDETREKU ETXEBERRIA, GOTZON;
DURANA APAOLAZA, GAIZKA
Calificación:
Notable
Año:
2021
Resumen:

En esta tesis se desarrolla un software robusto y versátil capaz de adquirir información de interés de un motor aeronáutico para después poder visualizarla, postprocesarla y analizarla. Este trabajo está relacionado con la aviónica y el desarrollo de esta tesis se espera aportar un instrumento que podría reducir el consumo de los motores aeronáuticos y, de esta manera, aumentar la autonomía. Asimismo, todo ello redundaría en la seguridad y la vida útil del motor. El parámetro a estudiar es el Tip Clearance del motor que representa el espacio libre entre las puntas de los álabes y la pared interior del motor, debido a que el rendimiento del motor disminuye cuando los álabes rozan con la pared o, por el contrario, dejan demasiado espacio libre. Como sensor se han utilizado sensores ópticos, una tecnología madura que posibilita la lectura de datos con gran nivel de detalle. El software se ha desarrollado en el entorno de programación de LabVIEW y se han usado equipos de adquisición de National Instruments para asegurar la compatibilidad entre software y hardware.

Ver más...

Neural combinatorial optimization as an enabler technology to design real-time virtual network function placement decision systems.

SOLOZABAL OCHOA DE RETANA, RUBEN

Dirección:
BLANCO JAUREGUI, BEGOÑA;
LIBERAL MALAINA, FIDEL
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

The Fifth Generation of the mobile network (5G) represents a breakthrough technology for the telecommunications industry. 5G provides a unified infrastructure capable of integrating over the same physical network heterogeneous services with different requirements. This is achieved thanks to the recent advances in network virtualization, specifically in Network Function Virtualization (NFV) and Software Defining Networks (SDN) technologies. This cloud-based architecture not only brings new possibilities to vertical sectors but also entails new challenges that have to be solved accordingly. In this sense, it enables to automate operations within the infrastructure, allowing to perform network optimization at operational time (e.g., spectrum optimization, service optimization, traffic optimization). Nevertheless, designing optimization algorithms for this purpose entails some difficulties. Solving the underlying Combinatorial Optimization (CO) problems that these problems present is usually intractable due to their NP-Hard nature. In addition, solutions to these problems are required in close to real-time due to the tight time requirements on this dynamic environment. For this reason, handwritten heuristic algorithms have been widely used in the literature for achieving fast approximate solutions on this context. However, particularizing heuristics to address CO problems can be a daunting task that requires expertise. The ability to automate this resolution processes would be of utmost importance for achieving an intelligent network orchestration. In this sense, Artificial Intelligence (AI) is envisioned as the key technology for autonomously inferring intelligent solutions to these problems. Combining ÁREA LÍNE 1 2 0 3 0 4 ÁREA LÍNE 1 2 0 7 0 2 ÁREA LÍNE 3 3 2 5 9 9 ÁREA LÍNE AI with network virtualization can truly transform this industry. Particularly, this Thesis aims at using Neural Combinatorial Optimization (NCO) for inferring end solutions on CO problems. NCO has proven to be able to learn near optimal solutions on classical combinatorial problems (e.g., the Traveler Salesman Problem (TSP), Bin Packing Problem (BPP), Vehicle Routing Problem (VRP)). Specifically, NCO relies on Reinforcement Learning (RL) to estimate a Neural Network (NN) model that describes the relation between the space of instances of the problem and the solutions for each of them. In other words, this model for a new instance is able to infer a solution generalizing from the problem space where it has been trained. To this end, during the learning process the model takes instances from the learning space, and uses the reward obtained from evaluating the solution to improve its accuracy. The work here presented, contributes to the NCO theory in two main directions. First, this work argues that the performance obtained by sequence-to-sequence models used for NCO in the literature is improved presenting combinatorial problems as Constrained Markov Decision Processes (CMDP). Such property can be exploited for building a Markovian model that constructs solutions incrementally based on interactions with the problem. And second, this formulation enables to address general constrained combinatorial problems under this framework. In this context, the model in addition to the reward signal, relies on penalty signals generated from constraint dissatisfaction that direct the model toward a competitive policy even in highly constrained environments. This strategy allows to extend the number of problems that can be addressed using this technology. The presented approach is validated in the scope of intelligent network management, specifically in the Virtual Network Function (VNF) placement problem. This problem consists of efficiently mapping a set of network service requests on top of the physical network infrastructure. Particularly, we seek to obtain the optimal placement for a network service chain considering the state of the virtual environment, so that a specific resource objective is accomplished, in this case the minimization of the overall power consumption. Conducted experiments prove the capability of the proposal for learning competitive solutions when compared to classical heuristic, metaheuristic, and Constraint Programming (CP) solvers.

Ver más...

Técnicas de personalización de voces sintéticas para su uso por personas con discapacidad oral

ALONSO BURGUERA, AGUSTIN

Dirección:
ERRO ESLAVA, DANIEL;
HERNAEZ RIOJA, INMACULADA CONCEPCION
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

Esta tesis presenta avances realizados en la personalización de voces sintéticas que emplean los sistemas de conversión de texto a voz utilizados por personas con alguna discapacidad oral. Se presenta un nuevo algoritmo de adaptación de locutor para voces sintéticas basadas en síntesis estadístico paramétrica. Este algoritmo hace uso únicamente de fragmentos vocálicos para imitar la voz del locutor objetivo y se ha demostrado que es robusto frente a la escasez de datos y que tiene un desempeño similar a otros algoritmos del estado del arte. También se describe el diseño e implementación de un banco de voces en el cual cualquier persona puede realizar grabaciones de su voz real para generar una voz sintética que posteriormente puede ser empleada por otro usuario. De esta manera las personas pueden ¿donar¿ su voz. Por último, se presenta una metodología que hace uso de diversas medidas objetivas de evaluación de señales de voz para puntuar la calidad de las voces disponibles en el banco de voces.

Ver más...

Advanced constellation and demapper schemes for next generation digital terrestrial television broadcasting systems

BARRUECO GUTIERREZ, JON

Dirección:
ANGUEIRA BUCETA, PABLO;
MONTALBAN SANCHEZ, JON
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Esta tesis presenta un nuevo tipo de constelaciones llamadas no uniformes. Estos esquemas presentan una eficacia de hasta 1,8 dB superior a las utilizadas en los últimos sistemas de comunicaciones de televisión digital terrestre y son extrapolables a cualquier otro sistema de comunicaciones (satélite, móvil, cable¿). Además, este trabajo contribuye al diseño de constelaciones con una nueva metodología que reduce el tiempo de optimización de días/horas (metodologías actuales) a horas/minutos con la misma eficiencia. Todas las constelaciones diseñadas se testean bajo una plataforma creada en esta tesis que simula el estándar de radiodifusión terrestre más avanzado hasta la fecha (ATSC 3.0) bajo condiciones reales de funcionamiento. Por otro lado, para disminuir la latencia de decodificación de estas constelaciones esta tesis propone dos técnicas de detección/demapeo. Una es para constelaciones no uniformes de dos dimensiones la cual disminuye hasta en un 99,7% la complejidad del demapeo sin empeorar el funcionamiento del sistema. La segunda técnica de detección se centra en las constelaciones no uniformes de una dimensión y presenta hasta un 87,5% de reducción de la complejidad del receptor sin pérdidas en el rendimiento. Por último, este trabajo expone un completo estado del arte sobre tipos de constelaciones, modelos de sistema, y diseño/demapeo de constelaciones. Este estudio es el primero realizado en este campo.

Ver más...

Fabricación de fibras ópticas de plástico microestructuradas para el desarrollo de sensores ópticos

ARROSPIDE ZABALA, ENEKO

Dirección:
DURANA APAOLAZA, GAIZKA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

En este trabajo de tesis se han desarrollado técnicas avanzadas para la fabricación de Fibras Ópticas de Plástico Microestructuradas (FOPM) de forma precisa y controlada. En un primer bloque se analizan las técnicas de taladrado profundo y de apilamiento de capilares, empleadas en la creación de preformas estructuradas de alta calidad, partiendo de cilindros monolíticos de polímeros de elevada calidad óptica. En el segundo bloque se detalla el proceso de estirado de las preformas a FOPM, donde es necesario un control absoluto de la unidad de calentamiento y estirado. Por último, en el tercer bloque se muestran algunas de las FOPM diseñadas y fabricadas validando su empleo en diversas aplicaciones que van desde sensores de curvatura, rotación o presión hasta biosensores de glucosa. Además, se ha incluido un apéndice que ofrece información adicional relativa a la torre de fabricación.

Ver más...

Análisis del impacto de las perturbaciones de canal sobre las tecnologías PLC de banda estrecha.

LLANO PALACIOS, ASIER

Dirección:
ANGULO PITA, ITZIAR;
DE LA VEGA MORENO, DAVID
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

La red eléctrica es un medio de comunicaciones complejo con propiedades que dependen tanto de la topología de la red como del patrón de uso de los dispositivos conectados. Estos dispositivos generan perturbaciones durante su operación habitual, que deben ser superadas por las tecnologías de transmisión a través de las líneas de baja tensión para asegurar la comunicación. Por esta razón, los comités de estandarización y los grupos de trabajo de organismos de regulación están reclamando información sobre este tema en el rango de frecuencias entre 2 y 150 kHz. Este estudio analiza la influencia de las perturbaciones de canal en el rendimiento de la capa física de las principales tecnologías PLC de banda estrecha aprobadas por organismos de estandarización habituales y desplegadas en Europa: PRIME 1.3.6, PRIME 1.4 y G3-PLC. La metodología de este trabajo aplica un método de prueba, unas métricas y un conjunto de perturbaciones representativas del canal de propagación, definidas y estandarizadas por el Instituto Europeo de Estándares de Telecomunicaciones (ETSI). Adicionalmente, la colección de ruidos utilizada en este estudio se completa con unas capturas de ruido tomadas en un entorno real con fuentes de energía distribuida o Distributed Energy Resources (DER). Este trabajo desarrolla un escenario de pruebas replicable, completamente automatizado y optimizado en coste, basado en un laboratorio innovador virtualizado denominado Virtual PLC Lab. El Virtual PLC Lab provee de un procedimiento de prueba donde un amplio rango de perturbaciones de canal puede ser emulado con precisión y en el cual el rendimiento de diversas tecnologías PLC puede compararse bajo las mismas condiciones. El trabajo de investigación se completa con la identificación de propuestas de mejora para las tecnologías PLC en estudio, las cuales son seleccionadas, implementadas y evaluadas de forma objetiva. Los resultados de este estudio ofrecen conclusiones de gran relevancia que pueden ser aplicadas en el desarrollo de las tecnologías PLC.

Ver más...

Doped polymer optical fibers for high performance fluorescent fiber applications.

PAROLA DOMINGO, ITXASO

Dirección:
ILLARRAMENDI LETURIA, MARIA ASUNCION;
ZUBIA ZABALLA, JOSEBA ANDONI
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

La sociedad actual ha experimentado los mayores y más destacados avances tecnológicos desde la Revolución Industrial a finales del siglo XIX. El desarrollo en ámbitos como el transporte, las comunicaciones, la medicina o la producción de energía, entre otros, se ha convertido en el pilar principal del progreso global actual. En este contexto, esta tesis engloba el uso de fibras ópticas de plástico dopadas en dos áreas en pleno desarrollo y muy demandadas por la sociedad moderna: comunicaciones ópticas (láseres y amplificadores de fibra) y producción de energía sostenible (concentración de luz solar mediante fibras dopadas).

Ver más...

Expressive policy based authorization model for resource-constrained device sensors.

URIARTE ITZAZELAIA, MIKEL

Dirección:
ASTORGA BURGO, JASONE;
JACOB TAQUET, EDUARDO JUAN
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Upcoming smart scenarios enabled by the Internet of Things (IoT) envision smart objects that expose services that can adapt to user behavior or be managed with the goal of achieving higher productivity, often in multistakeholder applications. In such environments, smart things are cheap sensors (and actuators) and, therefore, constrained devices. However, they are also critical components because of the importance of the provided information. Given that, strong security in general and access control in particular is a must. However, tightness, feasibility and usability of existing access control models do not cope well with the principle of least privilege; they lack both expressiveness and the ability to update the policy to be enforced in the sensors. In fact, (1) traditional access control solutions are not feasible in all constrained devices due their big impact on the performance although they provide the highest effectiveness by means of tightness and flexibility. (2) Recent access control solutions designed for constrained devices can be implemented only in not so constrained ones and lack policy expressiveness in the local authorization enforcement. (3) Access control solutions currently feasible in the most severely constrained devices have been based on authentication and very coarse grained and static policies, scale badly, and lack a feasible policy based access control solution aware of local context of sensors. Therefore, there is a need for a suitable End-to-End (E2E) access control model to provide fine grained authorization services in service oriented open scenarios, where operation and management access is by nature dynamic and that integrate massively deployed constrained but manageable sensors. Precisely, the main contribution of this thesis is the specification of such a highly expressive E2E access control model suitable for all sensors including the most severely constrained ones. Concretely, the proposed E2E access control model consists of three main foundations. (1) A hybrid architecture, which combines advantages of both centralized and distributed architectures to enable multi-step authorization. Fine granularity of the enforcement is enabled by (2) an efficient policy language and codification, which are specifically defined to gain expressiveness in the authorization policies and to ensure viability in very-constrained devices. The policy language definition enables both to make granting decisions based on local context conditions, and to react accordingly to the requests by the execution of additional tasks defined as obligations. The policy evaluation and enforcement is performed not only during the security association establishment but also afterward, while such security association is in use. Moreover, this novel model provides also control over access behavior, since iterative re-evaluation of the policy is enabled during each individual resource access. Finally, (3) the establishment of an E2E security association between two mutually authenticated peers through a security protocol named Hidra. Such Hidra protocol, based on symmetric key cryptography, relies on the hybrid three-party architecture to enable multi-step authorization as well as the instant provisioning of a dynamic security policy in the sensors. Hidra also enables delegated accounting and audit trail. Proposed access control features cope with tightness, feasibility and both dimensions of usability such as scalability and manageability, which are the key unsolved challenges in the foreseen open and dynamic scenarios enabled by IoT. Related to efficiency, the high compression factor of the proposed policy codification and the optimized Hidra security protocol relying on a symmetric cryptographic schema enable the feasibility as it is demonstrated by the validation assessment. Specifically, the security evaluation and both the analytical and experimental performance evaluation demonstrate the feasibility and adequacy of the proposed protocol and access control model. Concretely, the security validation consists of the assessment that the Hidra security protocol meets the security goals of mutual strong authentication, fine-grained authorization, confidentiality and integrity of secret data and accounting. The security analysis of Hidra conveys on the one hand, how the design aspects of the message exchange contribute to the resilience against potential attacks. On the other hand, a formal security validation supported by a software tool named AVISPA ensures the absence of flaws and the correctness of the design of Hidra. The performance validation is based on an analytical performance evaluation and a test-bed implementation of the proposed access control model for the most severely constrained devices. The key performance factor is the length of the policy instance, since it impacts proportionally on the three critical parameters such as the delay, energy consumption, memory footprint and therefore, on the feasibility. Attending to the obtained performance measures, it can be concluded that the proposed policy language keeps such balance since it enables expressive policy instances but always under limited length values. Additionally, the proposed policy codification improves notably the performance of the protocol since it results in the best policy length compression factor compared with currently existing and adopted standards. Therefore, the assessed access control model is the first approach to bring to severely constrained devices a similar expressiveness level for enforcement and accounting as in current Internet. The positive performance evaluation concludes the feasibility and suitability of this access control model, which notably rises the security features on severely constrained devices for the incoming smart scenarios. Additionally, there is no comparable impact assessment of policy expressiveness of any other access control model. That is, the presented analysis models as well as results might be a reference for further analysis and benchmarking. ¿ LABURPENA Gaur egun darabilzkigun hainbeste gailutan mikroprozesadoreak daude txertatuta, eragiten duten prozesuan neurketak egin eta logika baten ondorioz ekiteko. Horretarako, bai sentsoreak eta baita aktuadoreak erabiltzen dira (hemendik aurrera, komunitatean onartuta dagoenez, sentsoreak esango diegu nahiz eta erabilpen biak izan). Orain arteko erabilpen zabalenetako konekzio motak, banaka edota sare lokaletan konekatuta izan dira. Era honetan, sentsoreak elkarlanean elkarreri eraginez edota zerbitzari nagusi baten agindupean, erakunde baten prozesuak ahalbideratu eta hobetzeko erabili izan dira. Internet of Things (IoT) deritzonak, sentsoreak dituzten gailuak Internet sarearen bidez konektatu eta prozesu zabalagoak eta eraginkorragoak ahalbidetzen ditu. Smartcity, Smartgrid, Smartfactory eta bestelako smart adimendun ekosistemak, gaur egun dauden eta datozen komunikaziorako teknologien aukerak baliatuz, erabilpen berriak ahalbideratu eta eragina areagotzea dute helburu. Era honetan, ekosistema hauek zabalak dira, eremu ezberdinetako erakundeek hartzen dute parte, eta berariazko sentsoreak dituzten gailuen kopurua izugarri handia da. Sentsoreak beraz, berariazkoak, merkeak eta txikiak dira, eta orain arteko lehenengo erabilpen nagusia, magnitude fisikoren bat neurtzea eta neurketa hauek zerbitzari zentralizatu batera bidaltzea izan da. Hau da, inguruan gertatzen direnak neurtu, eta zerbitzari jakin bati neurrien datuak aldiro aldiro edota atari baten baldintzapean igorri. Zerbitzariak logika aplikatu eta sistema osoa adimendun moduan jardungo du. Jokabide honetan, aurretik ezagunak diren entitateen arteko komunikazioen segurtasuna bermatzearen kexka, nahiz eta Internetetik pasatu, hein onargarri batean ebatzita dago gaur egun. Baina adimendun ekosistema aurreratuak sentsoreengandik beste jokabide bat ere aurreikusten dute. Sentsoreek eurekin harremanak izateko moduko zerbitzuak ere eskaintzen dituzte. Erakunde baten prozesuetan, beste jatorri bateko erakundeekin elkarlanean, jokabide honen erabilpen nagusiak bi dira. Batetik, prozesuan parte hartzen duen erabiltzaileak (eta jabeak izan beharrik ez duenak) inguruarekin harremanak izan litzake, eta bere ekintzetan gailuak bere berezitasunetara egokitzearen beharrizana izan litzake. Bestetik, sentsoreen jarduera eta mantenimendua zaintzen duten teknikariek, beroriek egokitzeko zerbitzuen beharrizana izan dezakete. Holako harremanak, sentsoreen eta erabiltzaileen kokalekua zehaztugabea izanik, kasu askotan Internet bidez eta zuzenak (end-to-end) izatea aurreikusten da. Hau da, sentsore txiki asko daude handik hemendik sistemaren adimena ahalbidetuz, eta harreman zuzenetarako zerbitzu ñimiñoak eskainiz. Batetik, zerbitzu zuzena, errazagoa eta eraginkorragoa dena, bestetik erronkak ere baditu. Izan ere, sentsoreak hain txikiak izanik, ezin dituzte gaur egungo protokolo eta mekanismo estandarak gauzatu. Beraz, sare mailatik eta aplikazio mailarainoko berariazko protokoloak sortzen ari dira. Tamalez, protokolo hauek arinak izatea dute helburu eta segurtasuna ez dute behar den moduan aztertu eta gauzatzen. Eta egon badaude berariazko sarbide kontrolerako ereduak baina baliabideen urritasuna dela eta, ez dira ez zorrotzak ez kudeagarriak. Are gehiago, Gartnerren arabera, erabilpen aurreratuetan inbertsioa gaur egun mugatzen duen traba Nagusia segurtasunarekiko mesfidantza da. Eta hauxe da erronka eta tesi honek landu duen gaia: batetik sentsoreak hain txikiak izanik, eta baliabideak hain urriak (10kB RAM, 100 kB Flash eta bateriak, sentsore txikienetarikoetan), eta bestetik Internet sarea hain zabala eta arriskutsua izanik, segurtasuna areagotuko duen sarbide zuzenaren kontrolerako eredu zorrotz, arin eta kudeagarri berri bat zehaztu eta bere erabilgarritasuna aztertu.

Ver más...

Human exposure to electromagnetic fields from WLANs and WBANs in the 2.4 GHz band

FERNANDEZ ANDRES, MARTA

Dirección:
ARRINDA SANZBERRO, AMAIA;
PEÑA VALVERDE, IVAN
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

En los últimos años, el masivo crecimiento de las comunicaciones inalámbricas ha incrementado la preocupación acerca de la exposición humana a los campos electromagnéticos debido a los posibles efectos sobre la salud. Esta tesis surge de la necesidad de proporcionar información acerca de este tipo de exposición desde un punto de vista técnico. Por una parte, se han estudiado los niveles de exposición causados por señales WiFi, para lo cual ha sido necesario establecer un procedimiento de medida adecuado para tomar muestras de estas emisiones. Además, se han llevado a cabo campañas de medida para evaluar la exposición a señales WiFi y su variabilidad en el interior de un entorno público. Por otra parte, se ha analizado la potencia absorbida por el cuerpo humano a causa de los novedosos dispositivos wearables. Se han implementado dos antenas de este tipo, apropiadas para dispositivos wearables, se ha analizado detalladamente la exposición debida a estos aparatos y finalmente se han comparado los niveles de exposición producidos por estas antenas y por las señales WiFi.

Ver más...

Measuring quality of video of internet protocol television (IPTV)

SEDANO PEREZ, IÑIGO

Dirección:
KIHL , MARIA;
PRIETO AGUJETA, GORKA
Menciones:
Tésis Internacional
Calificación:
Sobresaliente
Año:
2020
Resumen:

La motivación para el desarrollo de esta tesis es la necesidad que existe de monitorizar la calidad de experiencia del vídeo que se proporciona en una red IPTV (Internet Protocol Television). Esta necesidad surge del deseo de los operadores de telecomunicaciones de proporcionar un servicio más satisfactorio a sus clientes y alcanzar mayor penetración en el mercado. Los servicios sólo pueden tener éxito si la calidad de experiencia se garantiza. Las redes IPTV (Television sobre IP) son por naturaleza susceptibles a pérdidas de paquetes de datos que afectan a la calidad del vídeo que recibe el usuario. Entre los factores que contribuyen a la existencia de pérdida de paquetes de datos se encuentran la congestión de red, una planificación de red inadecuada o el fallo de algún equipamiento de la red. La calidad de experiencia de un vídeo se ve afectada por una serie de factores como por ejemplo la resolución, la ausencia de errores en las imágenes, la calidad de la televisión, las expectativas previas del usuario y muchos otros factores que se estudian en esta tesis. Es importante recalcar que en esta tesis se considera la calidad de experiencia, que es la percepción subjetiva del usuario, en contraste con métricas tradicionales como pérdidas de paquetes, retardo y jitter. Medir la calidad de experiencia en IPTV representa una innovación respecto a las soluciones tradicionales que se basan únicamente en parámetros de red. La medida subjetiva de la calidad, utilizando personas que evalúan el contenido es la más precisa. Sin embargo, es costosa, consume mucho tiempo y no es aplicable para realizar mediciones en tiempo real. Por esta razón existe el interés de desarrollar métodos objetivos que estimen esa calidad en base a parámetros relacionados con el vídeo. El objetivo principal de la tesis es proporcionar una solución para monitorizar la calidad de experiencia en una red IPTV. La degradación de la calidad del vídeo se puede deber al proceso de compresión o a errores en la transmisión del contenido. Aunque se considerará el proceso de compresión el estudio se centra principalmente en el proceso de transmisión. El estudio se centra en el códec H.264 por ser el más utilizado actualmente para contenidos de vídeo de alta definición. Con el propósito de clarificar algunos conceptos antes de explicar los objetivos secundarios se explica aquí el significado de métrica y los tipos de métricas existentes. Una métrica objetiva de calidad de vídeo intenta aproximar la percepción subjetiva del usuario evaluando parámetros relacionados con el vídeo. Las métricas objetivas se pueden clasificar en función de la información que se necesita del vídeo original sin distorsionar. Existen tres tipos de métricas objetivas: no-reference, reduced-referencia y full-reference. Las métricas no-reference son aquellas métricas en las que solamente el vídeo distorsionado se utiliza para calcular la calidad del vídeo. En las métricas reduced-reference, el vídeo original sin distorsionar no está disponible para la métrica, pero algunos parámetros extraídos de él sí están disponibles. En las métricas full-reference tanto el vídeo original sin distorsionar como el vídeo degradado están disponibles a la métrica objetiva que calcula la calidad del vídeo. Los tests subjetivos que implican utilizar personas para evaluar la calidad del vídeo constituyen el método más preciso. Sin embargo, requieren una preparación de las condiciones de visión, consumen mucho tiempo y no se pueden aplicar en monitorización en tiempo real de vídeo en redes IPTV. Esto ha provocado que muchos investigadores se centren en intentar desarrollar métodos objetivos. Al principio el foco de los investigadores estaba en métricas full-reference y cambió gradualmente a métricas reduced-reference y finalmente a métricas no-reference. La tesis comienza describiendo en detalle la estancia investigadora en Suecia, en RISE Research Institutes of Sweden AB en octubre de 2009, cuando aparece el interés en investigar en métricas de calidad de vídeo. A lo largo de la estancia en Suecia, que tiene lugar hasta mediados de 2011, se lleva a cabo una colaboración con el JEG (Joint Effort Group) del VQEG (Video Quality Experts Group), un grupo internacional de expertos en la temática de calidad de vídeo. Maria Kihl, directora de tesis de la Universidad de Lund, viaja frecuentemente de Lund a Estocolmo para dirigir los trabajos de investigación. Además, Kjell Brunnström, miembro del VQEG perteneciente a RISE donde se realiza la estancia proporciona consejo experto durante ese tiempo. A continuación, se describe el objetivo principal de la tesis que como hemos mencionado es proporcionar una solución para monitorizar la calidad de experiencia en una red IPTV. También se describen los objetivos secundarios que son los siguientes: - S01: Seleccionar la mejor métrica full-reference entre aquellas públicamente disponibles. Evaluar su aplicabilidad a redes IPTV en términos de rendimiento. - S02: Proporcionar una solución que combine tanto métricas full-reference como no-reference para monitorizar IPTV. - S03: Desarrollar y validar una métrica no-reference bitstream para redes IPTV. El siguiente punto en la tesis es la descripción de los conceptos básicos que se manejan en el proceso de investigar en métricas de calidad de vídeo. En concreto, tras una introducción, se explica en qué consiste una evaluación subjetiva, se detallan los diferentes tipos de métricas objetivas, se describen los diferentes tipos de degradación que pueden tener lugar en un vídeo y se explica el proceso tradicional de desarrollo de una métrica objetiva. A continuación, se realiza un repaso del estado del arte en cuanto a métricas objetivas existentes y se pasa a detallar las cuatro bases de datos subjetivas públicamente disponibles que se utilizan a lo largo de esta tesis. Las bases de datos subjetivas contienen vídeos a los que se les ha sometido a degradaciones y que han sido valorados por usuarios. En concreto se utilizan bases de datos de la Universidad de Nantes, de Ecole Polytechnique Fédérale de Lausanne y Politecnico di Milano y de Laboratory for Image and Video Engineering de la Universidad de Texas. El capítulo 3 de la tesis tiene como objetivo realizar una comparación entre las métricas full-reference existentes más utilizadas. En concreto se evalúan las siguientes métricas: Peak Signal-to-Noise Ratio (PSNR), Structural SIMilarity (SSIM), Multi-scale SSIM (MS-SSIM), Video Quality Metric (VQM), Visual Signal-to-Noise Ratio (VSNR), MOtion-based Video Integrity Evaluation (MOVIE). Mediante esta comparación se llega a la conclusión de que Video Quality Metric (VQM) es la mejor métrica full-reference entre las estudiadas. A continuación se describe una herramienta desarrollada por el autor de la tesis que sirve para reconstruir vídeos a los cuales les faltan imágenes. A menudo sucede que cuando un vídeo ha sufrido pérdidas de transmisión y se decodifica, el decoder no es capaz de reconstruir todas las imágenes. Este hecho dificulta aplicarle posteriormente al vídeo una métrica full-reference ya que ese tipo de métricas requiere que el vídeo original sin distorsión y el degradado contengan el mismo número de imágenes. Esta herramienta soluciona ese problema insertando unos números de imagen en el vídeo original sin degradar que se utilizan después para reconstruir el vídeo. En el capítulo 3.3 se describe la metodología necesaria para aplicar métricas full-reference a una red IPTV. En concreto se describen dos escenarios diferentes. El primero de ellos consiste en aplicar la métrica full-reference en el transmisor de vídeo y el segundo en aplicar la métrica full-reference en el receptor de vídeo. Se selecciona el primer escenario como el más interesante y se realiza un extenso estudio de rendimiento. Del estudio de rendimiento se desprende que no se puede a día de hoy monitorizar una red IPTV únicamente con métricas full-reference sino que es necesario combinar tanto métricas full-reference con métricas no-reference. La solución que se propone es utilizar métricas no-reference, que generalmente se pueden ejecutar con mayor rapidez aunque con menos precisión en los resultados en la mayor parte de los análisis y utilizar métricas full-reference en aquellos casos en que la aplicación de métricas no-reference dé lugar a dudas o en el caso de que exista un interés especial en tener mayor precisión. Se presenta una herramienta para visualizar mejor los resultados obtenidos en las pruebas de rendimiento realizadas, resultantes del escenario de aplicar full-reference en el transmisor de vídeo en una red IPTV. El capítulo 4 tiene varios objetivos. Por un lado se pretende desarrollar una métrica no-reference que se pueda utilizar en la solución para monitorizar una red IPTV que se propone en esta tesis. Por otro lado se propone una estrategia de desarrollo de modelos no-reference novedosa, ya que se encuentra basada en la aplicación de una métrica full-reference que sirve para crear la base de datos que se utilizará para entrenar el modelo no-reference. Este método se ha pensado para su aplicación en ámbitos reducidos en los cuales la precisión de las métricas full-reference es elevada. Suele suceder que sí se amplía mucho el ámbito de aplicación de una métrica, más allá de aquél para el cual fue desarrollada, se produce una pérdida de precisión en los resultados. El desarrollo de la métrica no-reference consta de varios pasos que se detallan en la tesis. En concreto el primer paso consiste en construir la base de datos de entrenamiento y validación. Para ello se obtiene los vídeos originales sin distorsionar de una base de datos de vídeos públicamente disponible, se codifican y se les aplican las condiciones de pérdidas de paquetes que se quieren considerar mediante un simulador de pérdidas de paquetes. Una vez generados los vídeos para generar las valoraciones de calidad se le aplica el método full-reference VQM, que es el que se ha seleccionado después de realizar la comparativa de métodos full-reference existentes. Esto es lo que constituye una novedad frente al desarrollo tradicional de modelos no-reference. Posteriormente se desarrolla el modelo con la mitad de los vídeos de la base de datos generada y se valida con la otra mitad. Una vez validado el modelo, finalmente con la base de datos completa se realiza una propuesta final de modelo no-reference. A continuación, en la tesis se listan todas las publicaciones del autor junto con un pequeño resumen de cada una de ellas. Entre las publicaciones del autor se encuentran las siguientes: Paper nº1: Sedano, I., Brunnström, K., Kihl, M., Aurelius, A., ¿Full-reference video quality metric assisted the development of no-reference bitstream video quality metrics for real-time network monitoring¿, EURASIP Journal on Image and Video Processing 2014 2014:4. Cited by 13. Paper nº2: Sedano, I.; Kihl, M.; Brunnstrom, K.; Aurelius, A., ¿Reconstruction of incomplete decoded videos for use in objective quality metrics¿, Systems, Signals and Image Processing (IWSSIP), 2012 19th International Conference on, pp.376,379, 11-13 April 2012. Cited by 1. Paper nº3: Sedano, I.; Kihl, M.; Brunnstrom, K.; Aurelius, A., ¿Evaluation of video quality metrics on transmission distortions in H.264 coded video¿, Broadband Multimedia Systems and Broadcasting (BMSB), 2011 IEEE International Symposium on, pp.1,5, 8-10 June 2011. Cited by 10. Paper nº4: M. Barkowsky, I. Sedano, K. Brunnström, M. Leszczuk, and N. Staelens, ¿Hybrid video quality prediction: reviewing video quality measurement for widening application scope,¿ Multimed. Tools Appl., vol. 74, no. 2, pp. 323¿343, 2015. Cited by 10. Paper nº5: Staelens, N.; Sedano, I.; Barkowsky, M.; Janowski, L.; Brunnstrom, K.; Le Callet, P, ¿Standardized toolchain and model development for video quality assessment ¿ The mission of the Joint Effort Group in VQEG¿, Quality of Multimedia Experience (QoMEX), 2011 Third International Workshop on, pp.61,66, 7-9 Sept. 2011. Cited by 19. Paper nº6: Brunnström, K., Wang, K., Sedano, I., Barkowsky, M., Kihl, M., Aurelius, A., Le Callet, P., and Sjöström, M., ¿2D no-reference video quality model development and 3D video transmission quality¿, Proc. 6th Inter. Workshop on Video Processing and Quality Metrics for Consumer Electronics, 2012. Cited by 5. Paper nº7: Geng Yu; Westholm, T.; Kihl, M.; Sedano, I.; Aurelius, A.; Lagerstedt, C.; Odling, P ¿Analysis and characterization of IPTV user behavior¿, Broadband Multimedia Systems and Broadcasting, 2009. BMSB '09. IEEE International Symposium on, pp.1,6, 13-15 May 2009. Cited by 22. Paper nº8: Barkowsky, M.; Staelens, N.; Janowski, L.; Koudota, Y.; Leszczuk M.; Urvoy, M.; Hummelbrunner, P.; Sedano, I.; Brunnström, K., ¿Subjective experiment dataset for joint development of hybrid video quality measurement algorithms¿, QoEMCS 2012 - Third Workshop on Quality of Experience for Multimedia Content Sharing, Berlin, Germany, 2012. Cited by 6. Paper nº9: Iñigo Sedano, Gorka Prieto, Kjell Brunnström, Maria Kihl, Jon Montalban, ¿Application of full-reference video quality metrics in IPTV¿, IEEE International Symposium on Broadband Multimedia Systems and Broadcasting 2017, June 2017. Las principales contribuciones de esta tesis son las siguientes: - En el capítulo 2 State of the art se ha generado mucha documentación con los conceptos fundamentales, se describen métricas objetivas, se menciona una contribución del autor de una aplicación para calcular la calidad de vídeo en base a un fichero XML generado por herramientas del VQEG (Video Quality Experts Group) y se describen las bases de datos de vídeos públicas utilizadas durante el desarrollo de la tesis. - En el capítulo 3 Selection and application of full-reference metric se han conseguido los siguientes logros: comparativa entre métricas full-reference públicamente disponibles, desarrollo de una aplicación para reconstruir videos decodificados incompletos y análisis de aplicabilidad de la recomendación ITU-R BT.1789 (replicación del escenario de la recomendación, realización de pruebas de rendimiento en distintas máquinas y desarrollo de una herramienta para visualizar los resultados gráficamente). - En el capítulo 4 Development of no-reference metric se generó una base de datos para entrenamiento y validación del modelo no-reference basándose en una métrica full-reference denominada VQM. Posteriormente con esas bases de datos se desarrolló el modelo no-reference bitstream real-time que se presenta en la tesis. Esto constituye una novedosa estrategia de desarrollo de modelos no-reference, al basarse su desarrollo en métricas full-reference. Del desarrollo de la tesis se extraen las siguientes conclusiones: - La monitorización de IPTV basada en métricas full-reference en el transmisor en presencia de pérdidas de paquetes se puede realizar solamente cuando se combina con otro tipo de evaluación (no-reference, hybrid o reduced-reference) de tal manera que solo los videos en los que exista duda o interés especial se evalúen con la métrica full-reference. - Del estudio de aplicabilidad de métricas full-reference en el receptor para monitorizar una red IPTV se deduce que esa técnica se puede utilizar hoy en día porque tiene la ventaja de procesamiento descentralizado de la calidad del vídeo (se puede hacer en los receptores). Sin embargo esta técnica tiene un inconveniente que es que requiere un ancho de banda adicional en la red y el uso de conexiones unicast dedicadas. - Una de las conclusiones es que es posible utilizar métricas full-reference para acelerar el desarrollo de métricas no-reference. En la tesis se explica como se puede realizar dicho procedimiento. - De la comparativa de métricas full-reference realizada en la tesis se extrae la conclusión de que la métrica full-reference VQM es la mejor métrica entre las estudiadas para el caso de referencia comprimida (se usa como referencia para la métrica el vídeo que se ha comprimido y descomprimido) y pérdidas de transmisión. También parece según el análisis que utilizar una referencia comprimida proporciona más precisión que utilizar una referencia que no se ha comprimido, cuando se estudian distorsiones causadas por pérdida de paquetes. Sin embargo, esta última conclusión debe ser confirmada por estudios futuros. Finalmente se mencionan las líneas futuras, que consisten fundamentalmente en el estudio de modelos híbridos no-reference donde se consideran tanto parámetros de red así como aquellos extraídos del vídeo como el propio vídeo decodificado.

Ver más...

Advances in sovereign data sharing: identification and assessment of the main features of distributed usage control solutions and improvements in the policy quality

GIL INCHAURZA GONZALO

Dirección:
ARNAIZ IRIGARAY,SATUR AITOR;
HIGUERO APERRIBAY, MARIA VICTORIA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

La cantidad de datos que se generan en todo el mundo crece cada año. Al mismo tiempo, las tecnologías basadas en datos están permitiendo a las organizaciones mejorar sus actividades. Estas tecnologías requieren cada vez más datos para seguir siendo competitivas, especialmente de otras organizaciones. Esto ha convertido los datos y su intercambio entre organizaciones en un recurso clave para el crecimiento económico, la competitividad y la innovación. Sin embargo, un problema crítico que está impidiendo el intercambio de datos en todo el mundo es la reticencia para compartirlos si no se concede la autodeterminación sobre el uso de estos. Es lo que se denomina el problema de la soberanía de los datos. Para garantizar la soberanía de los datos, iniciativas internacionales de referencia como IDSA proponen el Control de Uso Distribuido (DUC), una particularización del Control de Uso (UC) para escenarios de compartición de datos que amplía el Control de Acceso (AC) para controlar lo que debe ocurrir con los datos a lo largo de su ciclo de vida. Esta tesis refuerza el intercambio de datos mediante avances en la soberanía del dato proporcionando nuevas herramientas para aumentar la adopción de soluciones DUC. En concreto, esta tesis aporta un enfoque novedoso para la identificación y evaluación de las características que deben soportar las soluciones DUC para garantizar la soberanía de los datos. A su vez, esta tesis proporciona mejoras en la calidad de las políticas definidas para restringir el uso de los datos en las soluciones DUC.

Ver más...

Network-aware video streaming for future media internat

VIOLA , ROBERTO

Dirección:
MARTIN NAVAS, ANGEL;
MONTALBAN SANCHEZ, JON;
ZORRILLA BERASATEGUI, MIKEL JOSEBA
Menciones:
Cum Laude
Tésis Industrial
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Las redes 5G proporcionan nuevas capacidades de transmisión de datos, incluyendo ancho de banda mejorado, latencia ultrabaja y conectividad masiva de dispositivos. Al mismo tiempo, estamos siendo testigos de un crecimiento en el uso de aplicaciones de transmisión de video, incluidos los servicios de uso común, como Live Streaming y Video-on-Demand (VOD), y nuevas aplicaciones multimedia, como juegos en línea y aplicaciones de video en 3D. En este contexto, el objetivo de esta tesis doctoral es mejorar la calidad del servicio (QoS) y la calidad de experiencia (QoE) de los servicios de streaming multimedia, al tiempo que se reducen los costes de gestión del sistema. Diferentes soluciones se han desarrollado y testeado en tres diferentes áreas de investigación. Primero, la investigación sobre estrategias de codificación del contenido de video ha llevado a dos implementaciones (una sobre SRT y otra con LL CMAF) que explotan la información de la red para mejorar la preparación del contenido video antes de transmitirlo. Segundo, la investigación sobre el uso de técnicas de aprendizaje automático (ML) ha llevado a la implementación una solución que explota un modelo LSTM para pronosticar el rendimiento de la red y mejorar la selección de una CDN a la hora de entregar flujos MPEG-DASH. Tercero, la investigación sobre computación en el Edge (MEC) ha llevado al desarrollo de dos soluciones. La primera solución evalúa la QoE del usuario de acuerdo con ITU-T P.1203, a través de la recopilación de información en el MEC. La segunda explota la información disponible en el MEC para cachear el contenido localmente y/o escoger el CDN remoto con mejor capacidad para servir el contenido.

Ver más...

Power domain NOMA for 5G netwoks and beyond/Potentzia domeinuko NOMA 5G sareetarako eta haratago

IRADIER GIL, ENEKO

Dirección:
ANGUEIRA BUCETA, PABLO;
MONTALBAN SANCHEZ, JON
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

During the last decade, the amount of data carried over wireless networks has grown exponentially. Several reasons have led to this situation, but the most influential ones are the massive deployment of devices connected to the network and the constant evolution in the services offered. In this context, 5G targets the correct implementation of every application integrated into the use cases. Nevertheless, the biggest challenge to make ITU-R defined cases (eMBB, URLLC and mMTC) a reality is the improvement in spectral efficiency. Therefore, in this thesis, a combination of two mechanisms is proposed to improve spectral efficiency: Non-Orthogonal Multiple Access (NOMA) techniques and Radio Resource Management (RRM) schemes. Specifically, NOMA transmits simultaneously several layered data flows so that the whole bandwidth is used throughout the entire time to deliver more than one service simultaneously. Then, RRM schemes provide efficient management and distribution of radio resources among network users. Although NOMA techniques and RRM schemes can be very advantageous in all use cases, this thesis focuses on making contributions in eMBB and URLLC environments and proposing solutions to communications that are expected to be relevant in 6G.

Ver más...

On the Design, Implementation and Application of Novel Multi-disciplinary Techniques for explaining Artificial Intelligence Models

BARREDO ARRIETA, ALEJANDRO

Dirección:
DEL SER LORENTE, JAVIER;
GIL-LOPEZ , SERGIO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2022
Resumen:

Artificial Intelligence is a non-stopping field of research that has experienced some incredible growth last decades. Some of the reasons for this apparently exponential growth are the improvements in computational power, sensing capabilities and data storage which results in a huge increment on data availability. However, this growth has been mostly led by a performance-based mindset that has pushed models towards a black-box nature. The performance prowess of these methods along with the rising demand for their implementation has triggered the birth of a new research field. Explainable Artificial Intelligence. As any new field, XAI falls short in cohesiveness. Added the consequences of dealing with concepts that are not from natural sciences (explanations) the tumultuous scene is palpable. This thesis contributes to the field from two different perspectives. A theoretical one and a practical one. The former is based on a profound literature review that resulted in two main contributions: 1) the proposition of a new definition for Explainable Artificial Intelligence and 2) the creation of a new taxonomy for the field. The latter is composed of two XAI frameworks that accommodate in some of the raging gaps found field, namely: 1) XAI framework for Echo State Networks and 2) XAI framework for the generation of counterfactual. The first accounts for the gap concerning Randomized neural networks since they have never been considered within the field of XAI. Unfortunately, choosing the right parameters to initialize these reservoirs falls a bit on the side of luck and past experience of the scientist and less on that of sound reasoning. The current approach for assessing whether a reservoir is suited for a particular task is to observe if it yields accurate results, either by handcrafting the values of the reservoir parameters or by automating their configuration via an external optimizer. All in all, this poses tough questions to address when developing an ESN for a certain application, since knowing whether the created structure is optimal for the problem at hand is not possible without actually training it. However, some of the main concerns for not pursuing their application is related to the mistrust generated by their black-box" nature. The second presents a new paradigm to treat counterfactual generation. Among the alternatives to reach a universal understanding of model explanations, counterfactual examples is arguably the one that best conforms to human understanding principles when faced with unknown phenomena. Indeed, discerning what would happen should the initial conditions differ in a plausible fashion is a mechanism often adopted by human when attempting at understanding any unknown. The search for counterfactuals proposed in this thesis is governed by three different objectives. Opposed to the classical approach in which counterfactuals are just generated following a minimum distance approach of some type, this framework allows for an in-depth analysis of a target model by means of counterfactuals responding to: Adversarial Power, Plausibility and Change Intensity.

Ver más...

Intrinsic Motivation Mechanisms for a Better Sample Efficiency in Deep Reinforcement Learning applied to Scenarios with Sparse Rewards

ANDRES FERNANDEZ, ALAIN

Dirección:
DEL SER LORENTE, JAVIER;
VILLAR RODRIGUEZ,ESTHER
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

Driven by the quest to create intelligent systems that can autonomously learn to make optimal decisions, Reinforcement Learning has emerged as a powerful branch of Machine Learning. Reinforcement Learning agents interact with their environment, learning from trial and error, guided by feedback signals shaped in the form of rewards. However, the application of Reinforcement Learning is often hampered by the complexity associated with the design of such rewards. Creating a dense reward function, where the agent receives immediate and frequent feedback from its actions, is often a challenging task. This challenge arises from the difficulty of specifying the correct behavior for every possible state-action pair. This issue parallels the challenges faced in human learning where educators often grapple with identifying the best way to teach a certain skill or subject, given that learning styles can vary dramatically among individuals. As a consequence, it is common to formulate the problems with sparse rewards, where the agent is only rewarded when it accomplishes a significant task or achieves the final goal, thus aligning more directly with the objective of the problem. The sparse reward formulation does not require the anticipation of every possible scenario or state, making it more tractable for complex environments and real-world scenarios, where feedback is often delayed and not immediately available. However, sparse reward settings also introduce their own challenges, most notably, the issue of exploration. In the absence of frequent rewards, an agent can struggle to identify beneficial actions, making learning slow and inefficient. This is where mechanisms such as Intrinsic Motivation come into play, encouraging more effective exploration and improving sample efficiency, despite the sparsity of extrinsic rewards. In this context, the overall contribution of this Thesis is to delve into how Intrinsic Motivation can boost the performance of Deep Reinforcement Learning approaches in environments with sparse rewards, aiming to enhance their sample efficiency. To this end, we first stress on its application with concurrent heterogeneous agents, aiming to establish a collaborative framework to make them explore more efficiently and accelerate their learning process. Furthermore, an entire chapter is devoted to analyzing and discussing the impact of certain design choices and parameter settings on the generation of the Intrinsic Motivation bonuses. Last but not least, the Thesis proposes to combine these explorative techniques with Self-Imitation Learning, demonstrating that they can be used jointly towards achieving faster convergence and optimal policies. All the analyzed scenarios suggest that Intrinsic Motivation can significantly speed up learning, reducing the number of interactions an agent needs to perform, and ultimately, leading to more rapid and efficient problem-solving in complex environments characterized by sparse rewards.

Ver más...

Contributions to the Physical and Media Access Control Layer in Wireless Systems for Factory Automation

FANARI , LORENZO

Dirección:
ANGUEIRA BUCETA, PABLO;
MONTALBAN SANCHEZ, JON
Calificación:
Sobresaliente
Año:
2023
Resumen:

La industria 4.0 tiene como objetivo digitalizar completamente los procesos industriales, y las tecnologías inalámbricas representan uno de los habilitadores para comunicaciones escalables y flexibles. Sin embargo, los estándares y soluciones propietarias actuales deben cumplir con los estrictos requisitos de la industria en casos de uso fundamentales para la automatización de fábricas, como alta fiabilidad, latencias del orden del milisegundo y comunicaciones multiusuario. Sin embargo, este objetivo se ve obstaculizado por las limitaciones de las propuestas actuales, las propiedades de los modelos de canales industriales y la necesidad de pruebas empíricas para definir los casos de uso. En resumen, esta tesis proporciona soluciones técnicas para lograr alta eficiencia, comportamiento determinista y robustez frente efectos del canal en sistemas inalámbricos para la automatización de fábricas, especialmente en las capas PHY y MAC. Las optimizaciones propuestas para IEEE 802.11ax ofrecen resultados prometedores para las comunicaciones industriales críticas.

Ver más...

Privacy-Driven E2E Secure Data Exchange for Value Chains

MOSTEIRO SANCHEZ AINTZANE

Dirección:
ASTORGA BURGO, JASONE;
BARCELO LLADO, MARC
Menciones:
Cum Laude
Tésis Industrial
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

La digitalización es un fenómeno imparable, que afecta a todos los aspectos de la vida y la sociedad, incluyendo al sector industrial. Una de las tecnologías que actúan como motor e impulsan estos cambios son los dispositivos Internet of Things, o IoT. De hecho, a los dispositivos IoT específicamente pensados para uso industrial se les ha denominado dispositivos Industrial IoT (IIoT). Estos dispositivos, junto a otras tecnologías como la inteligencia artificial, la computación Cloud o el Big Data, han impulsado la transformación industrial y han dado lugar a la Industria 4.0. Esta transformación industrial ha traído grandes beneficios al entorno industrial, pero también nuevos riesgos y vulnerabilidades. Por todo lo anterior, se deduce que es crucial contar con un sistema que pueda garantizar la seguridad de toda información transmitida en la Industria 4.0. A nivel de planta, existen multitud de soluciones de seguridad, reguladas por instituciones como el IEC, la ENISA o el ICS-CERT. Sin embargo, la regulación se centra en la seguridad a desplegar dentro de cada planta industrial, mientras que la protección del intercambio de información entre plantas no está tan regulado o definido. Asi pues el objetivo de esta tesis es el diseño de un sistema de intercambio de información, que abarque toda la cadena de valor, y sea capaz de garantizar la confidencialidad e integridad de los datos extremo a extremo.

Ver más...

Beyond Short-term Traffic Forecasting Models: Navigating Through Data Availability Constraints

LOPEZ MANIBARDO ERIC

Dirección:
DEL SER LORENTE, JAVIER;
LAÑA AURRECOECHEA,IBAI
Menciones:
Cum Laude
Tésis Industrial
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2024
Resumen:

Short-term traffic forecasting supports route planning and decision making before traffic congestion occurs. Thanks to its direct application in real-world scenarios, short-term traffic forecasting remains as one of the hot topics within research on Intelligent Transportation Systems. During the last decade, researchers have heavily focused on proposing advanced and complex modeling techniques based on Deep Learning architectures. Motivated by the revolution Deep Learning has supposed to computer vision and natural language processing, authors continuously evaluate state-of-the-art methods on traffic forecasting datasets. However, published performance improvements are narrow. This Thesis conducts first a literature review on short-term traffic forecasting models, intending to shift the community research efforts beyond increasing the accuracy of traffic predictions. The experience accumulated in the course of the presented survey, allows drawing a road map of challenges and research opportunities for the years to come. Aiming to lead by example, several of the above challenges are directly addressed in this Thesis, in detail those that gravitate around different levels of data constraints. Scholars rely on extensive datasets for adjusting proposed models, however, reality differs from these ideal experimental setups. Three levels of data availability are analyzed: 1) traffic measurements collected during a whole year; 2) traffic surveillance limited to a few weeks; 3) no traffic data available for a particular location. The first experimental setup aims to demonstrate that increasing the complexity of the models used for short-term traffic forecasting does not yield more accurate predictions in those scenarios where traffic recordings are accessible. The second case study explores how to learn traffic forecasting models under limited data holdouts, while maintaining a similar predictive performance regarding those models built without any data constraint. The last and most challenging scenario, delves into the characterization of sensorless locations. This research path has the potential of reducing the number of sensors permanently installed across a traffic network, by pairing sensorless road segments to those roads that share a similar traffic behavior.

Ver más...

Core Network-based Nodes for Next-Generation Broadcasting Transmitter Facilities.

CABRERA ALVAREZ, RUFINO REYDEL

Dirección:
ANGUEIRA BUCETA, PABLO;
MONTALBAN SANCHEZ, JON
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2024
Resumen:

Dada la creciente demanda de tráfico que se prevé en los próximos cinco años, se hace necesario buscar soluciones alternativas a las redes existentes para cubrir dicha demanda. Las redes heterogéneas son una alternativa para colaborar con los recursos e infraestructura existente. Las redes 3GPP (como 4G y 5G), WiFi y la Televisión Digital Terrestre (TDT) son las redes de distribución más usadas en la actualidad, y por lo tanto, candidatos perfectos para esta estructura colaborativa. Sin embargo, la TDT ofrece una arquitectura de red poco flexible para la escalabilidad de nuevos servicios y nuevos mercados, así como para su integración en una arquitectura heterogénea. Recientemente, algunos grupos de trabajo han identificado que evolucionar la red TDT a una arquitectura basada en una red central (core network) es uno de los pasos esenciales. Actualmente la arquitectura de red de la TDT presenta dos elementos fundamentales (el Centro Radiodifusor y el Transmisor de Radiodifusión) que comprenden la red de acceso por radio. Es por ello que para insertar una red central que orqueste, gestione y controle el funcionamiento actual de la red y provea nuevas configuraciones y servicios de forma flexible se necesita un elemento inteligente en la actual red que gestione los elementos actuales. Este trabajo tiene como principal objetivo el diseño de un nodo inteligente que interactúa con la red central y gestione/controle la actual infraestructura.

Ver más...

Machine Learning-aided Self-Interference Cancellation for In-Band Full-Duplex

BILBAO BARRENECHEA, IÑIGO

Dirección:
ANGUEIRA BUCETA, PABLO;
IRADIER GIL, ENEKO;
MONTALBAN SANCHEZ, JON
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2024
Resumen:

La demanda de datos que se transportan de manera inalámbrica ha crecido significativamente durante la última década y las previsiones indican que esta tendencia se mantendrá en el futuro. La demanda de datos impone la necesidad de optimizar la eficiencia del espectro electromagnético. La capa física de las comunicaciones (PHY) ha servido tradicionalmente para este propósito. El in-band full-duplex (IBFD) consiste en transmitir y recibir mensajes en la misma banda de frecuencias. La aplicación práctica de un sistema de estas características supondría doblar la eficiencia espectral de los sistemas half-duplex (HD) actuales. Por otra parte, la inteligencia artificial (AI), concretamente el machine learning (ML), recientemente ha sido propuesta activamente en el contexto de la PHY con resultados muy prometedores. Esta tesis pretende utilizar técnicas de AI para minimizar la realimentación intrínseca a los sistemas IBFD. De esta manera, se trata de partir de los métodos basados en ML para diseñar nuevos métodos que cancelen la señal de interferencia de manera optimizada.

Ver más...

Wireless Communication Techniques and Methodology for Functional Safety in Industry

SANZ FONTANEDA PABLO

Dirección:
ANGUEIRA BUCETA, PABLO;
VAL BEITIA, IÑAKI
Menciones:
Cum Laude
Tésis Industrial
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

Esta tesis estudia el impacto del medio inalámbrico en entornos industriales sobre las comunicaciones en sistemas de seguridad (safety). Se repasan las principales normativas safety, con especial interés en aquellas que juegan un papel en la caracterización de las comunicaciones industriales. Se identifican metodologías de caracterización safety, destacando la evaluación de las capas de seguridad de la comunicación (SCL - Safety Communication Layer). Se revisan y se estudian las principales herramientas de preservación de la integridad, así como los métodos para la caracterización de su rendimiento para definir la evaluación en situaciones características de los entornos industriales. La tesis abarca también la caracterización del resto de contramedidas que se pueden encontrar en una capa SCL genérica. Contribuye con modelos analíticos y también con estudios empíricos sobre diferentes maquetas de laboratorio. En definitiva, esta tesis aborda una metodología para el análisis de la satisfacción de los estrictos requisitos impuestos por la normativa que estandariza las aplicaciones safety.

Ver más...

A Holistic DLT Architecture for Industry 4.0.

STEFANESCU IVAN, DENIS IONUT

Dirección:
MONTALVILLO MENDIZABAL, LETICIA;
UNZILLA GALAN, JUAN JOSE;
URBIETA ARTETCHE, AITOR
Menciones:
Cum Laude
Tésis Industrial
Calificación:
Sobresaliente Cum Laude
Año:
2023
Resumen:

La Industria 4.0 representa una nueva etapa en la fabricación impulsada por tecnologías emergentes como la IA, IoT y Big Data. En este contexto, las fábricas y procesos pueden autoajustarse mediante análisis de datos en tiempo real, y los productos pueden interactuar con maquinaria. A pesar de las oportunidades de optimización y personalización que brinda, la transición a la Industria 4.0 presenta retos en seguridad de datos, gestión de grandes volúmenes de información y automatización. Una solución emergente es la utilización de Tecnologías de Registro Distribuido (DLT), destacando la blockchain, conocida por su descentralización y seguridad. Esta tesis propone una arquitectura basada en DLTs para abordar los desafíos de la Industria 4.0, desde la generación de datos en dispositivos IoT hasta su uso para decisiones empresariales, enfatizando la seguridad, integración y procesos automatizados.

Ver más...

Emisio Gidatuen Neurketa Behe-Tentsioko Banaketa-Sarean (2-500 kHz)/On the Measurement of Conducted Emissions in the LV distribution grid (2-500 kHz)

GALLARRETA CANTELI, ALEXANDER

Dirección:
DE LA VEGA MORENO, DAVID;
FERNANDEZ PEREZ, IGOR
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2024
Resumen:

This Doctoral Thesis is focused on the definition of new measurement methods for the characterization of conducted emissions, both non-intentional (such as disturbances) and intentional (such as PLC transmissions), present in the LV distribution grid for the 9-500 kHz range. This Doctoral Thesis has obtained 7 relevant contributions to achieve this main objective. Firstly, test signals, real recordings and synthetic waveforms, are defined for the evaluation of the measurement methods. Secondly, the existing measurement methods for the 2-500 kHz are compiled, and their performance and accuracy are evaluated. Thirdly, a measurement method to obtain the root-mean-square spectra in the 9-500 kHz range is defined. Then, 4 measurement methods for the obtention of quasi-peak values in the 9-500 kHz are described; 2 of them are defined for the 9-150 kHz band, and the other 2 are defined for the 150-500 kHz range. Afterward, a measurement technique for the characterization of the impulsive disturbances in the joint time-frequency domain is described, which detects and analyses these impulsive disturbances separately from the non-impulsive emissions. Additionally, a consistent measurement framework is presented, compiling all the novel methods defined in this Doctoral Thesis, showing that they provide the necessary metrics to comprehensively characterize the conducted emissions present in the LV grid in the 9-500 kHz range, and ensuring the consistency of their results with the measurement methodology defined in power-quality standards below 9 kHz. Finally, a set of measurement use cases is developed to fulfill the measurement needs in the 9-500 kHz range, defining their characteristics and the most suitable measurement methods in each use case. Doktorego Tesi honen ardatza neurketa-metodo berriak definitzea da, BTko banaketa-sarean 9-500 kHz tartean dauden emisio gidatuak, nahita ez igorritakoak (ekipoek sortutako perturbazioak) baita nahita igorritakoak (PLC transmisioak, esaterako), ezaugarritzeko. Doktorego-tesi honetan 7 ekarpen garrantzitsu aurkitzen dira helburu nagusi hori lortzeko. Lehenik eta behin, neurketa-metodoak ebaluatzeko proba-seinaleak definitu dira, BTko sarean egindako grabazio eta emisio sintetikoez osatutako datu base baten bidez. Bigarrenik, 2-500 kHz maiztasun tarterako dauden neurketa-metodoak bildu dira, eta horien ezaugarriak eta zehaztasuna ebaluatu dira. Hirugarrenik, batez besteko espektro koadratikoa 9-500 kHz-eko maiztasun tartean lortzeko neurketa-metodo bat definitu da. Jarraian, 9-500 kHz tartean `quasi-peak¿ balioak lortzeko 4 neurketa-metodo deskribatzen dira; horietako bi 9-150 kHz bandarako definitu dira, eta beste biak 150-500 kHz maiztasun tarterako. Jarraian, denbora-maiztasun domeinuan emisio inpultsiboak ezaugarritzeko neurketa-teknika bat deskribatu da. Teknika horrek emisio inpultsibo horiek detektatzen eta aztertzen ditu, emisio ez-inpultsiboetatik bereizita. Horrez gain, neurketa-esparru kontsistente bat aurkezten da, Doktorego Tesi honetan definitutako metodo berri guztiak bilduz, BTko sarean 9-500 kHz maiztasun tartean dauden emisio gidatuak zehatz-mehatz ezaugarritzeko. Neurketa-esparru honek emisio gidatuen analisia egiteko behar diren metrikak ematen ditu, baina potentziaren kalitatea definitzen duten estandarrek 9 kHz baino gutxiagoko maiztasunetan ezarritako neurketa-metodologia bermatuz. Azkenik, neurketa erabilera-kasuen multzo bat garatu da 9-500 kHz maiztasun tartean dauden neurketa-beharrak asebetetzeko. Gainera erabilera-kasuen ezaugarriak eta neurketa-metodo egokienen aukeraketa definitu da.

Ver más...

Desarrollo de Técnicas de Detección de Actividad en Entornos Industriales Mediante el Análisis de Señales de Radiofrecuencia

DE ARMAS SARDIÑAS, ELIZABET

Dirección:
EIZMENDI IZQUIERDO, IÑAKI;
MATIAS MARURI, JOSE MARIA
Menciones:
Tésis en Cotutela