• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 371
  • 356
  • 40
  • 34
  • 34
  • 32
  • 30
  • 28
  • 8
  • 7
  • 6
  • 4
  • 4
  • 3
  • 2
  • Tagged with
  • 1077
  • 1077
  • 331
  • 274
  • 193
  • 136
  • 117
  • 101
  • 93
  • 92
  • 77
  • 76
  • 76
  • 72
  • 66
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1061

Performance Evaluation of Kotlin Multiplatform Mobile and Native iOS Development in Swift / Prestandautvärdering av Kotlin Multiplatform Mobile och Native iOS-utveckling med Swift

Skantz, Anna January 2023 (has links)
Today's mobile development resides in the two main operating systems Android and iOS. It is popular to develop mobile applications individually for each respective platform, referred to as native development. To reduce additional costs, cross-platform solutions have emerged that enable shared development for both platforms. Kotlin Multiplatform Mobile (KMM) is a relatively unexplored cross-platform tool developed by JetBrains. The purpose of this study is to evaluate the performance of iOS applications developed in KMM compared to native Swift. We compare the two approaches for developing iOS apps by compiling a benchmark suite and measuring the performance metrics execution time, memory consumption, and CPU usage. Our benchmark suite is a collection of 7 benchmarks consisting of high-level functionalities networking and database management, as well as low-level computational tasks from the Computer Language Benchmarks Game (CLBG) suite. For the studied benchmarks, the results indicate that KMM generally achieves faster execution times, as higher memory consumption and CPU usage. but with a trade-off overhead in higher memory consumption and CPU usage. We have found KMM to achieve up to 2,7 seconds faster execution time, consume up to 390MB more memory, and up to 30% more CPU than with native Swift. libraries achieve faster execution times, but with a trade-off overhead in increased memory consumption and CPU usage. Besides, our results highlight correlations between the garbage collection cycles of KMM with profiling patterns of memory consumption and CPU usage. the specific benchmark implementations analyzed, and the device used to benchmark them. studies are therefore needed to further generalize our conclusions. / Den nutida mobilutvecklingen domineras av de två huvudsakliga operativsystemen Android och iOS. Det är populärt att utveckla mobilapplikationer separat för varje plattform, så kallad native utveckling. För att minska kostnader relaterade till native utveckling har plattformsoberoende lösningar tillkommit, som istället möjliggör delad utveckling för båda plattformarna. Kotlin Multiplatform Mobile (KMM) är ett relativt outforskat plattformsoberoende verktyg utvecklat av JetBrains. Syftet med denna studie är att utvärdera prestandan hos iOS-applikationer utvecklade i KMM jämfört med native Swift. Vi jämför de två tillvägagångssätten för att utveckla iOS-appar genom att sammanställa en benchmark-svit och mäta prestandametrikerna exekveringstid, minnesanvändning och CPU-användning. Vår benchmark svit består av 7 benchmark-program som omfattar högnivåfunktionaliteter som nätverk- och databashantering, samt lågnivåfunktionaliteter med benchmark-algoritmer från Computer Language Benchmarks Game (CLBG)-sviten. För att exekvera benchmark-programmen och samla in prestandametriker har en applikation utvecklats och använts för att utföra våra experiment på en iOS-enhet. För de undersökta benchmark-programmen visar resultaten att KMM generellt uppnår snabbare exekveringstider, men med en kompromiss i form av ökad minnesanvändning och CPU-användning. Vi har observerat att KMM kan uppnå upp till 2,7 sekunder snabbare exekveringstid, förbruka upp till 390MB mer minne och upp till 30% mer CPU-användning jämfört med native Swift. Dessutom antyder våra resultat korrelationer mellan KMM Garbage Collection cykler och profileringsbeteendet i dess minnes- och CPU-användning.
1062

[pt] DESENVOLVIMENTO DE MODELOS PARA PREVISÃO DE QUALIDADE DE SISTEMAS DE RECONHECIMENTO DE VOZ / [en] DEVELOPMENT OF PREDICTION MODELS FOR THE QUALITY OF SPOKEN DIALOGUE SYSTEMS

BERNARDO LINS DE ALBUQUERQUE COMPAGNONI 12 November 2021 (has links)
[pt] Spoken Dialogue Systems (SDS s) são sistemas baseados em computadores desenvolvidos para fornecerem informações e realizar tarefas utilizando o diálogo como forma de interação. Eles são capazes de reconhecimento de voz, interpretação, gerenciamento de diálogo e são capazes de ter uma voz como saída de dados, tentando reproduzir uma interação natural falada entre um usuário humano e um sistema. SDS s provém diferentes serviços, todos através de linguagem falada com um sistema. Mesmo com todo o desenvolvimento nesta área, há escassez de informações sobre como avaliar a qualidade de tais sistemas com o propósito de otimização do mesmo. Com dois destes sistemas, BoRIS e INSPIRE, usados para reservas de restaurantes e gerenciamento de casas inteligentes, diversos experimentos foram conduzidos no passado, onde tais sistemas foram utilizados para resolver tarefas específicas. Os participantes avaliaram a qualidade do sistema em uma série de questões. Além disso, todas as interações foram gravadas e anotadas por um especialista.O desenvolvimento de métodos para avaliação de performance é um tópico aberto de pesquisa na área de SDS s. Seguindo a idéia do modelo PARADISE (PARAdigm for DIalogue System Evaluation – desenvolvido pro Walker e colaboradores na AT&T em 1998), diversos experimentos foram conduzidos para desenvolver modelos de previsão de performance de sistemas de reconhecimento de voz e linguagem falada. O objetivo desta dissertação de mestrado é desenvolver modelos que permitam a previsão de dimensões de qualidade percebidas por um usuário humano, baseado em parâmetros instrumentalmente mensuráveis utilizando dados coletados nos experimentos realizados com os sistemas BoRIS e INSPIRE , dois sistemas de reconhecimento de voz (o primeiro para busca de restaurantes e o segundo para Smart Homes). Diferentes algoritmos serão utilizados para análise (Regressão linear, Árvores de Regressão, Árvores de Classificação e Redes Neurais) e para cada um dos algoritmos, uma ferramenta diferente será programada em MATLAB, para poder servir de base para análise de experimentos futuros, sendo facilmente modificado para sistemas e parâmetros novos em estudos subsequentes.A idéia principal é desenvolver ferramentas que possam ajudar na otimização de um SDS sem o envolvimento direto de um usuário humano ou servir de ferramenta para estudos futuros na área. / [en] Spoken Dialogue Systems (SDS s) are computer-based systems developed to provide information and carry out tasks using speech as the interaction mode. They are capable of speech recognition, interpretation, management of dialogue and have speech output capabilities, trying to reproduce a more or less natural spoken interaction between a human user and the system. SDS s provide several different services, all through spoken language. Even with all this development, there is scarcity of information on ways to assess and evaluate the quality of such systems with the purpose of optimization. With two of these SDS s ,BoRIS and INSPIRE, (used for Restaurant Booking Services and Smart Home Systems), extensive experiments were conducted in the past, where the systems were used to resolve specific tasks. The evaluators rated the quality of the system on a multitude of scales. In addition to that, the interactions were recorded and annotated by an expert. The development of methods for performance evaluation is an open research issue in this area of SDS s. Following the idea of the PARADISE model (PARAdigm for DIalogue System Evaluation model, the most well-known model for this purpose (developed by Walker and co-workers at AT&T in 1998), several experiments were conducted to develop predictive models of spoken dialogue performance. The objective of this dissertation is to develop and assess models which allow the prediction of quality dimensions as perceived by the human user, based on instrumentally measurable variables using all the collected data from the BoRIS and INSPIRE systems. Different types of algorithms will be compared to their prediction performance and to how generic they are. Four different approaches will be used for these analyses: Linear regression, Regression Trees, Classification Trees and Neural Networks. For each of these methods, a different tool will be programmed using MATLAB, that can carry out all experiments from this work and be easily modified for new experiments with data from new systems or new variables on future studies. All the used MATLAB programs will be made available on the attached CD with an operation manual for future users as well as a guide to modify the existing programs to work on new data. The main idea is to develop tools that would help on the optimization of a spoken dialogue system without a direct involvement of the human user or serve as tools for future studies in this area.
1063

Diseño de una propuesta para la regulación técnica de los servicios de agua en España

Estruch Juan, María Elvira 02 September 2021 (has links)
[ES] Los servicios de agua y saneamiento son un bien considerado un derecho humano por la Asamblea General de Naciones Unidas. Sin embargo, al mismo tiempo, son un monopolio natural. Es por ello que los usuarios no pueden escoger el prestador que les suministre el servicio, sino que deben conformarse con que el opere en la zona. Así, con el fin de proteger a los usuarios de las posibles prácticas monopolísticas, es necesario supervisar la calidad del servicio prestado, así como su precio a través de un marco regulatorio. Actualmente, el marco regulatorio del sector del agua español no cuenta con una ley que regule el ciclo urbano del agua a nivel nacional que provea seguridad legal a los prestadores ni homogeneice el servicio prestado. Se trata de un sector muy atomizado, con responsabilidades dispersas entre distintos organismos y niveles administrativos. La consecuencia directa es un entramado regulatorio complejo sin una autoridad clara de guie los pasos del sector. Es por ello que los distintos actores que componen el sector empiezan a demandar una reforma que englobe sus necesidades y permita superar con éxito los retos a los que se enfrenta el sector. El propósito de esta tesis es concretar una serie de propuestas técnicas a medida para el sector del agua español que promueva la voluntad de la administración y las partes interesadas para dar el paso de reformar el sector. Para ello, se parte del estudio de los diversos métodos regulatorios y herramientas existentes, con el fin de evaluar su aplicación en los distintos marcos regulatorios internacionales y analizar cuáles serían de aplicabilidad al caso español. Tras dicho análisis, se concluye que se requieren nuevas herramientas para regular el sector con éxito. Por ello, se han diseñado una serie de metodologías basadas en la evaluación del desempeño de los servicios de agua. Éstas permiten una adecuada comparación e interpretación de los resultados obtenidos por los operadores con el fin de posibilitar una regulación económica y de la calidad del servicio que sea justa para todas las partes implicadas. Asimismo, fomentan la transparencia, la eficiencia, la mejora continua del sector y su sostenibilidad. Para finalizar, se detallan una serie de directrices técnicas que tratan los diversos aspectos a tener en cuenta al implementar un regulador en España, como son: las características que debería reunir y los aspectos a regular, la articulación de la regulación de la calidad del servicio y la regulación económica o cómo financiar e implementar dicho organismo. La principal novedad de estas propuestas de regulación es que están enfocadas de forma técnica, evitando la perspectiva económica con la que generalmente se diseñan los marcos regulatorios. De este modo, se garantiza que los usuarios reciban un servicio de calidad al mejor precio, preservando el derecho humano al agua. / [CA] Els serveis d'aigua i sanejament són un bé considerat un dret humà per l'Assemblea General de Nacions Unides. No obstant això, al mateix temps, són un monopoli natural. Per aquesta raó, els usuaris no poden escollir el prestador que els subministra el servei, sinó que s'han de conformar amb el que treballe en la seua zona. Així, amb la fi de protegir als usuaris de les possibles pràctiques monopolístiques, cal supervisar la qualitat del servei prestat, així com el ser preu mitjançant un marc regulador. Actualment, el marc regulador del sector de l'aigua espanyol no compta amb una llei a nivell nacional que regule el cicle urbà de l'aigua, que proporcione seguretat legal als prestadors dels serveis i homogeneïtze el servei prestat. Es tracta d'un servei molt atomitzat, amb responsabilitats disperses entre diversos organismes i nivells administratius. La conseqüència directa és un entramat regulador complexe sense una autoritat clara que guie les passes del sector. Per aquesta raó, els distints actors que formen part del sector comencen a demandar una reforma d'aquest marc, de forma que s'engloben les seues necessitats i els permeta superar amb èxit els reptes als que s'enfronta el sector. El propòsit d'aquesta tesi es concretar una proposta tècnica a mesura per al sector de l'aigua espanyol, que fomente la voluntat de l'administració i les parts interessades per a donar el pas de reformar el sector. Així, es parteix de l'estudi dels diversos mètodes reguladors i ferramentes existents, amb la fi d'avaluar la seua aplicació en els distints marcs reguladors internacionals i analitzar quines serien d'aplicabilitat al cas espanyol. Després d'aquest anàlisi, es conclou que es requereixen noves ferramentes per a regular el sector amb èxit. Per això, s'han dissenyat una serie de metodologies basades en l'avaluació del rendiment dels serveis d'aigua. Aquestes permeten una adequada comparació e interpretació dels resultats obtinguts pels operadors amb la fi de possibilitar una regulació econòmica i de la qualitat del servei, que siga justa per a totes les parts implicades. A més, fomenten la transparència, l'eficiència, la millora continua del sector i la seua sostenibilitat. Per a finalitzar, es detallen una serie de directrius tècniques que tracten els diversos aspectes a considerar a l'implementar un regulador en Espanya, com són: les característiques que deuria reunir i els aspectes a regular, l'articulació de la regulació de la qualitat del servei i la regulació econòmica, o seu finançament i implementació. La principal novetat d'aquestes propostes reguladores és que estan enfocades de forma tècnica, evitant la perspectiva econòmica amb la que generalment es dissenyen els marcs reguladors. D'aquesta forma, es garantisca que els usuaris reben un servei de qualitat al millor preu, preservant el dret humà a l'aigua. / [EN] Access to Water services and sanitation are considered a human right by the United Nations. However, simultaneously, they are a natural monopoly which means that users cannot choose the utility. They will receive the services from the utility operating in that particular area, regardless its cost and quality of the services provided. Therefore, regulatory frameworks emerge with the aim of protecting customers from the possible monopolistic practices, supervising the quality of the service provided and the cost of the services. The Spanish water sector is very fragmented, with responsibilities dispersed among different agencies and administrative levels. In fact, the regulatory framework does not count with a law that regulates the urban water cycle, provides legal security to utilities and homogenizes the level of the service provided at a national level. The direct consequence is a complex regulatory framework without a clear authority to guide the steps of the sector. For that reason, the different stakeholders in the water sector request a reform in the regulatory framework that encompasses their needs and allows them to successfully overcome the challenges the sector is facing. The purpose of this thesis is to specify a series of technical proposals designed for the Spanish water sector in order to promote the determination of the government and the stakeholders to take a step forward and reform the sector. This work starts studying the existing regulatory methods and tools with the aim of evaluating their application in the different international regulatory frameworks and analyse their applicability into the Spanish case. This study concludes that new tools are required to regulate the sector successfully. Therefore, a series of methodologies have been designed, based on the performance assessment of utilities and enabling an adequate comparison and interpretation of the utilities' results. They have been created with the aim to allow for an economic and quality of the service regulation fair for all stakeholders. These methods are based in transparency and promote efficiency, continuous improvement of the sector and its sustainability. Finally, a series of technical guidelines are detailed with the aim to address the aspects to take into account when implementing a new regulatory framework in Spain, such as: the characteristics it should meet, the aspects to regulate, the articulation of the quality of the service and economic regulation, or how to finance and implement said body. The main novelty of his work is that it approaches regulation with a technical focus, avoiding the economic perspective with which regulatory frameworks are generally designed. In this way, it guarantees that users receive an appropriate quality of the service at the best price, preserving the human right to water. / Estruch Juan, ME. (2021). Diseño de una propuesta para la regulación técnica de los servicios de agua en España [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172222
1064

Managing Mobility for Distributed Smart Cities Services

LUZURIAGA QUICHIMBO, JORGE ELOY 07 July 2017 (has links)
The IoT refers to the idea of internetworking physical devices, vehicles, buildings, and any other item embedded with the appropriate electronics, software, sensors, actuators, and network connectivity to allows them to interchange data and to provide highly effective new services. In this thesis we focus on the communications issues of the IoT in relation to mobility and we provide different solutions to alleviate the impact of these potential problems and to guarantee the information delivery in mobile scenarios. Our reference context is a Smart City where various mobile devices collaboratively participate, periodically sending information from their sensors. We assume that these services are located in platforms based in cloud infrastructures where the information is protected through the use of virtualisation ensuring their security and privacy. This thesis is structured into seven chapters. We first detail our objectives and identify the current problems we intend to address. Next, we provide a thorough review of the state of the art of all the areas involved in our work, highlighting how we improved the existing solutions with our research. The overall approach of the solutions we propose in this thesis use prototypes that encompasses and integrates different technologies and standards in a small infrastructure, using real devices in real scenarios with two of the most commonly used networks around the world: WiFi and 802.15.4 to efficiently solve the problems we originally identified. We focussed on protocols based on a producer/consumer paradigm, namely AMQP and particularly MQTT. We observed the behaviour of these protocols using in lab experiments and in external environments, using a mesh wireless network as the backbone network. Various issues raised by mobility were taken into consideration, and thus, we repeated the tests with different messages sizes and different inter-message periodicity, in order to model different possible applications. We also present a model for dimensioning the number of sources for mobile nodes and calculating the number of buffers required in the mobile node as a function of the number of sources and the size of the messages. We included a mechanism for avoiding data loss based on intermediate buffering adapted to the MQTT protocol that, in conjunction with the use of an alternative to the Network Manager in certain contexts, improves the connection establishment for wireless mobile clients. We also performed a detailed study of the jitter behaviour of a mobile node when transmitting messages with this proposal while moving through a real outdoor scenario. To emulate simple IoT networks we used the Cooja simulator to study and determine the effects on the probability of delivering messages when both publishers and subscribers were added to different scenarios. Finally we present an approach that combines the MQTT protocol with DTN which we specifically designed for constrained environments and guarantees that important information will never be lost. The advantage of our proposed solutions is that they make an IoT system more resilient to changes in the point of attachment of the mobile devices in an IoT network without requiring IoT application & service developers to explicitly consider this issue. Moreover, our solutions do not require additional support from the network through protocols such as MobileIP or LISP. We close the thesis by providing some conclusions, and identifying future lines of work which we unable to address here. / Internet de las cosas (IoT) se refiere a la idea de interconectar sensores, actuadores, dispositivos físicos, vehículos, edificios y cualquier elemento dotado de la electrónica, así como del software y de la conectividad de red que los hace capaces de intercambiar datos para proporcionar servicios altamente efectivos. En esta tesis nos centramos en temas relacionados con la comunicación de sistemas IoT, específicamente en situaciones de movilidad y en los problemas que esto conlleva. Con este fin ofrecemos diferentes soluciones que alivian su impacto y garantizan la entrega de información en estas situaciones. El contexto de referencia es una ciudad inteligente donde varios dispositivos móviles participan de forma colaborativa enviando periódicamente información desde sus sensores hacia servicios ubicados en plataformas en la nube (cloud computing) donde mediante el uso de virtualización, la información está protegida garantizando su seguridad y privacidad. Las soluciones propuestas en esta tesis se enfocan en probar sobre una pequeña infraestructura un prototipo que abarca e integra diferentes tecnologías y estándares para resolver eficientemente los problemas previamente identificados. Hemos enfocado nuestro esfuerzo en el uso de dispositivos sobre escenarios reales con dos de las redes más extendidas en todo el mundo: WiFi y enlaces 802.15.4. Nos enfocamos en protocolos que ofrecen el paradigma productor/consumidor como el protocolo avanzado de colas de mensajes (AMQP) y particularmente el protocolo de transporte de mensajes telemétricos (MQTT), observamos su comportamiento a través de experimentos en laboratorio y en pruebas al aire libre, repitiendo las pruebas con diferentes tamaños de mensajes y diferente periodicidad entre mensajes. Para modelar las diferentes posibles aplicaciones de la propuesta, se tomaron en consideración varias cuestiones planteadas por la movilidad, resultando en un modelo para dimensionar eficientemente el número de fuentes para un nodo móvil y para calcular el tamaño requerido del buffer, en función del número de fuentes y del tamaño de los mensajes. Proponemos un mecanismo adaptado al protocolo MQTT que evita la pérdida de datos en clientes móviles, basado en un buffer intermedio entre la producción y publicación de mensajes que, en conjunto con el uso de una alternativa al gestor de conexiones inalámbricas "Network Manager", en ciertos contextos mejora el establecimiento de las conexiones. Para la evaluación de esta propuesta se presenta un estudio detallado de un nodo móvil que se mueve en un escenario real al aire libre, donde estudiamos el comportamiento del jitter y la transmisión de mensajes. Además, hemos utilizado emuladores de redes IoT para estudiar y determinar los efectos sobre la probabilidad de entrega de mensajes, cuando se agregan tanto publicadores como suscriptores a diferentes escenarios. Finalmente, se presenta una solución totalmente orientada a entornos con dispositivos de recursos limitados que combina los protocolos MQTT con redes tolerantes a retardos (DTN) para garantizar la entrega de información. La ventaja de las soluciones que proponemos reside en el hecho de que los sistemas IoT se vuelven resilientes a la movilidad y a los cambios de punto de acceso, permitiendo así que los desarrolladores creen fácilmente aplicaciones y servicios IoT evitando considerar estos problema. Otra ventaja de nuestras soluciones es que no necesitan soporte adicional de la red como sucede con protocolos como MobileIP o el protocolo que separa el identificador del localizador (LISP). Se destaca cómo hemos mejorado las soluciones existentes hasta el momento de la escritura de esta disertación, y se identifican futuras líneas de actuación que no han sido contempladas. / Internet de les coses (IoT) es refereix a la idea d'interconnectar sensors, actuadors, dispositius físics, vehicles, edificis i qualsevol element dotat de l'electrònica, així com del programari i de la connectivitat de xarxa que els fa capaces d'intercanviar dades per proporcionar serveis altament efectius. En aquesta tesi ens centrem en temes relacionats amb la comunicació de sistemes IoT, específicament en situacions de mobilitat i en els problemes que això comporta. A aquest efecte oferim diferents solucions que alleugeren el seu impacte i garanteixen el lliurament d'informació en aquestes situacions. El context de referència és una ciutat intel·ligent on diversos dispositius mòbils participen de forma col·laborativa enviant periòdicament informació des dels seus sensors cap a serveis situats en plataformes en el núvol (cloud computing) on mitjançant l'ús de virtualització, la informació està protegida garantint la seva seguretat i privadesa. Les solucions proposades en aquesta tesi s'enfoquen a provar sobre una xicoteta infraestructura un prototip que abasta i integra diferents tecnologies i estàndards per a resoldre eficientment els problemes prèviament identificats. Hem enfocat el nostre esforç en l'ús de dispositius sobre escenaris reals amb dos de les xarxes més esteses a tot el món: WiFi i enllaços 802.15.4. Ens enfoquem en protocols que ofereixen el paradigma productor/consumidor com el protocol avançat de cues de missatges (AMQP) i particularment el protocol de transport de missatges telemètrics (MQTT), observem el seu comportament a través d'experiments en laboratori i en proves a l'aire lliure, repetint les proves amb diferents grandàries de missatges i diferent periodicitat entre missatges. Per a modelar les diferents possibles aplicacions de la proposta, es van prendre en consideració diverses qüestions plantejades per la mobilitat, resultant en un model per a dimensionar eficientment el nombre de fonts per a un node mòbil i per a calcular la grandària requerida del buffer, en funció del nombre de fonts i de la grandària dels missatges. Proposem un mecanisme adaptat al protocol MQTT que evita la pèrdua de dades per a clients mòbils, basat en un buffer intermedi entre la producció i publicació de missatges que en conjunt amb l'ús d'una alternativa al gestor de connexions sense fils "Network Manager'', en certs contextos millora l'establiment de les connexions. Per a l'avaluació d'aquesta proposta es presenta un estudi detallat d'un node mòbil que es mou en un escenari real a l'aire lliure, on estudiem el comportament del jitter i la transmissió de missatges. A més, hem utilitzat emuladors de xarxes IoT per a estudiar i determinar els efectes sobre la probabilitat de lliurament de missatges, quan s'agreguen tant publicadors com subscriptors a diferents escenaris. Finalment, es presenta una solució totalment orientada a entorns amb dispositius de recursos limitats que combina els protocols MQTT amb xarxes tolerants a retards (DTN) per a garantir el lliurament d'informació. L'avantatge de les solucions que proposem resideix en el fet que els sistemes IoT es tornen resilients a la mobilitat i als canvis de punt d'accés, permetent així que els desenvolupadors creuen fàcilment aplicacions i serveis IoT evitant considerar aquests problema. Un altre avantatge de les nostres solucions és que no necessiten suport addicional de la xarxa com succeeix amb protocols com MobileIP o el protocol que separa l'identificador del localitzador (LISP). Es destaca com hem millorat les solucions existents fins al moment de l'escriptura d'aquesta dissertació, i s'identifican futures línies d'actuació que no han sigut contemplades. / Luzuriaga Quichimbo, JE. (2017). Managing Mobility for Distributed Smart Cities Services [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/84744
1065

A Multi-physics Framework for Wearable Microneedle-based Therapeutic Platforms: From Sensing to a Closed-Loop Diabetes Management.

Marco Fratus (19193188) 22 July 2024 (has links)
<p dir="ltr">Ultra-scaled, always-on, smart, wearable and implantable (WI) therapeutic platforms define the research frontier of modern personalized medicine. The WI platform integrates real-time sensing with on-demand therapy and is ideally suited for real-time management of chronic diseases like diabetes. Traditional blood tracking methods, such as glucometers, are insufficient due to their once-in-a-while measurements and the imprecision of insulin injections, which can lead to severe complications. To address these challenges, researchers have been developing smart and minimally invasive microneedle (MN) components for pain-free glucose detection and drug delivery, potentially functioning as an "artificial pancreas". Inspired by natural body homeostasis, these platforms must be accurate and responsive for immediate corrective interventions. However, artificial MN patches often have slow readings due to factors like MN morphology and composition that remain poorly understood, hindering their optimization and integration into real-time monitoring devices. Despite extensive, iterative experimental efforts worldwide, a holistic framework incorporating the interaction between MN sensing and therapy with fluctuating natural body functions is missing. In this thesis, we propose a generalized framework for glycemic management based on the interaction between biological processes and MN-based operations. The results, incorporating theoretical insights from the 1960s and recent advancements in MN technology, are platform-agnostic. This generality offers a unique template to interpret experimental observations, justify the recent introduction of drugs like GLP-1 cocktails, and optimize platforms for accurate and fast disease management. </p>
1066

Evaluación y Modelado de Redes Oportunistas

Chancay Garcia, Leonardo Javier 29 July 2019 (has links)
[ES] La disponibilidad y el rendimiento de las actuales tecnologías inalámbricas como WiFi o 4G, pueden tener serios problemas de congestión y propagación, especialmente en espacios muy concurridos, o bien ser inaccesibles en sitios remotos o con baja densidad de personas. La utilización de las Redes Oportunistas en este tipo de escenarios puede ser la solución a estos problemas. Estas redes se basan en la oportunidad de intercambiar mensajes utilizando algún tipo de tecnología de comunicación directa entre dispositivos móviles como son Bluetooth o WiFi. El rendimiento de las Redes Oportunistas depende principalmente de la movilidad de los nodos y los protocolos de enrutamiento utilizados, siendo estos últimos los encargados de decidir como son intercambiados los mensajes cuando un contacto ocurre, intentando encontrar la mejor ruta para que un mensaje alcance su destino. Por otra parte, la eficiencia de la difusión en estas redes está ligada especialmente a la movilidad de los usuarios y al comportamiento humano. Entonces, para el análisis y la evaluación del rendimiento de las Redes Oportunistas es necesario considerar tanto los aspectos técnicos relacionados con los protocolos de encaminamiento, como los aspectos de la movilidad humana. Esta tesis doctoral se centra principalmente en evaluar la diseminación de la información usando redes oportunistas en escenarios urbanos, en los que existen diferentes densidades y tasas de renovación de personas, es decir, con usuarios que puedan entrar y salir del escenario evaluado. Dado que la existencia de este tipo de trazas reales es muy limitada, en esta tesis se plantea la generación de este tipo de trazas de forma sintética. Para ello, mediante el uso de un simulador de movilidad peatonal, se han generado trazas realistas de movilidad con diferentes grados de densidad y tasas de renovación de usuarios con el objeto de evaluar diferentes aspectos de la difusión de mensajes en las Redes Oportunistas. El análisis de las características temporales y espaciales de estas trazas generadas refleja el realismo de los escenarios que se han considerado. Además, los experimentos relativos a la difusión de mensajes realizados con estas trazas, confirman que la tasa de renovación tiene un gran impacto en el rendimiento de los protocolos, lo que es particularmente evidente cuando el tamaño de los mensajes es mayor. Por otra parte, también se ha realizado el estudio, utilizando en este caso trazas reales, de la difusión de información a través de las Redes Oportunistas Vehiculares. Ya que de la misma manera la movilidad de estos vehículos está ligada al comportamiento humano, nos hemos centrado en la diseminación de la información en determinadas horas del día dependiendo del número de vehículos en circulación, debido a que este aspecto tiene un gran impacto en el reenvío de datos. Los resultados de estos experimentos confirman que los dos principales factores que afectan a la difusión de información son el grado de movilidad y el tamaño de mensaje. Aunque es bien sabido que al aumentar la densidad de nodos aumenta la velocidad de difusión, mostramos que, al mantener la densidad de nodos fija, las tasas de renovación más altas hacen que la relación de entrega disminuya. Además, descubrimos que la relación entre el tamaño del mensaje y la duración del contacto también es un factor clave, lo que demuestra que la transmisión de los mensajes grandes puede llevar a un rendimiento general muy bajo. Basándonos en todo lo expuesto anteriormente, se ha propuesto una mejora al protocolo Epidemic, a la que hemos denominado EpidemicX2, que se basa en la fragmentación de los datos a ser enviados con el fin de aprovechar la corta duración de los contactos para aumentar así la posibilidad de su entrega. Este protocolo es particularmente efectivo para la difusión de los mensajes grandes. Los resultados muestran que la tasa de entrega se increment / [CA] La disponibilitat i el rendiment de les actuals tecnologies sense fil com WiFi o 4G, poden tindre seriosos problemes de congestió i propagació, especialment en espais molt concorreguts, o bé ser inaccessibles en llocs remots o amb baixa densitat de persones. La utilització de les Xarxes Oportunistes en este tipus d'escenaris pot ser la solució a estos problemes. Estes xarxes es basen en l'oportunitat d'intercanviar missatges utilitzant algun tipus de tecnologia de comunicació directa entre dispositius mòbils com són Bluetooth o WiFi. El rendiment de les Xarxes Oportunistes depén principalment de la mobilitat dels nodes i els protocols d'enrutamiento utilitzats, sent estos últims els encarregats de decidir com són intercanviats els missatges quan un contacte ocorre, intentant trobar la millor ruta perquè un missatge abast el seu destí. D'altra banda, l'eficiència de la difusió en estes xarxes està lligada especialment a la mobilitat dels usuaris i al comportament humà. Llavors, per a l'anàlisi i l'avaluació del rendiment de les Xarxes Oportunistes és necessari considerar tant els aspectes tècnics relacionats amb els protocols d'acarrerament, com els aspectes de la mobilitat humana. Esta tesi doctoral se centra principalment a avaluar la disseminació de la informació usant xarxes oportunistes en escenaris urbans, en els que hi ha diferents densitats i taxes de renovació de persones, és a dir, amb usuaris que puguen entrar i eixir de l'escenari avaluat. Atés que l'existència d'este tipus de traces reals és molt limitada, en esta tesi es planteja la generació d'este tipus de traces de forma sintètica. Per a això, per mitjà de l'ús d'un simulador de mobilitat de vianants, s'han generat traces realistes de mobilitat amb diferents graus de densitat i taxes de renovació d'usuaris amb l'objecte d'avaluar diferents aspectes de la difusió de missatges en les Xarxes Oportunistes. L'anàlisi de les característiques temporals i espacials d'estes traces generades reflectix el realisme dels escenaris que s'han considerat. A més, els experiments relatius a la difusió de missatges realitzats amb estes traces, confirmen que la taxa de renovació té un gran impacte en el rendiment dels protocols, la qual cosa és particularment evident quan la grandària dels missatges és major. D'altra banda, també s'ha realitzat l'estudi, utilitzant en este cas traces reals, de la difusió d'informació a través de les Xarxes Oportunistes Vehiculares. Ja que de la mateixa manera la mobilitat d'estos vehicles està lligada al comportament humà, ens hem centrat en la disseminació de la informació en determinades hores del dia depenent del nombre de vehicles en circulació, pel fet que este aspecte té un gran impacte en el reexpedició de dades. Els resultats d'estos experiments confirmen que els dos principals factors que afecten la difusió d'informació són el grau de mobilitat i la grandària de missatge. Encara que és ben sabut que a l'augmentar la densitat de nodes augmenta la velocitat de difusió, mostrem que, al mantindre la densitat de nodes fixa, les taxes de renovació més altes fan que la relació d'entrega disminuïsca. A més, descobrim que la relació entre la grandària del missatge i la duració del contacte també és un factor clau, la qual cosa demostra que la transmissió dels missatges grans pot portar a un rendiment general molt davall. Basant-nos en tot el que exposa anteriorment, s'ha proposat una millora al protocol Epidemic, a la que hem denominat EpidemicX2, que es basa en la fragmentació de les dades a ser enviats a fi d'aprofitar la curta duració dels contactes per a augmentar així la possibilitat del seu entrega. Este protocol és particularment efectiu per a la difusió dels missatges grans. Els resultats mostren que la taxa d'entrega s'incrementa, el temps mitjana en l'entrega es reduïx, sense un substancial increment en termes de sobrecàrrega. / [EN] The availability and performance of current wireless technologies such as WiFi or 4G, can have severe problems of congestion and information diffusion, especially in crowded spaces, or, on the other side, be inaccessible in places with a low density of people. The use of Opportunistic Networks in these types of scenarios can be a solution to these problems. These networks are based on the opportunity to exchange messages using some type of direct communication technology between nearby mobile devices such as Bluetooth or WiFi. The performance of these networks depends mainly on the mobility of the nodes and the routing protocols used. The goal of these protocols is to decide how messages are exchanged when a pair of nodes are in contact, trying to find the best route for a message to reach its destination. The efficiency of the diffusion in these networks is related mainly to the mobility of users and human behaviour. Therefore, for the analysis and evaluation of the performance of the Opportunistic Networks, it is necessary to consider both the technical aspects related to the routing protocols, as well as the aspects of human mobility. This thesis mainly focuses on evaluating the dissemination of information using Opportunistic Networks in urban scenarios, in which there are different densities and renewal rates of people, that is, with users who can enter and leave the evaluated scenario. Given that the existence of this type of real traces is very limited, this thesis proposes the generation of realistic traces. For this, through the use of a pedestrian mobility simulator, realistic traces of mobility have been defined with different degrees of density and renewal rates of users to evaluate different aspects of the Opportunistic Network with this approach. The analysis of the temporal and spatial characteristics of these generated traces reflects the realism of the scenarios that have been considered. The experiments related to the diffusion of messages made with these traces, confirm that the renewal rate has a high impact on the performance of the protocols, which is particularly evident when the message size is longer. Furthermore, considering vehicular scenarios, a study has also been carried out using real traces, following the same methodology to evaluate the dissemination of information. Since in the same way the mobility of these vehicles is linked to human behaviour, we have focused on the dissemination of information at certain times of the day depending on the number of vehicles in circulation, since this aspect has a significant impact on data diffusion. The results of all these experiments show that the diffusion of contents is affected mainly by two factors: degree of mobility and message size. Although it is well known that increasing the density of nodes increases the speed of diffusion, we show that, by maintaining the density of fixed nodes, the higher renewal rates cause the delivery ratio to decrease. In addition, we discovered that the relationship between message size and contact duration is also a key factor, showing that large messages can lead to very reduced overall performance. Based on these results, an improvement to the Epidemic protocol has been proposed, called EpidemicX2, which is based on the fragmentation of the data to be sent in order to take advantage of the short duration of the contacts. This protocol is particularly effective for the dissemination of large messages. The results show that the delivery rate increases, the average time in the delivery is reduced, without a substantial increase in terms of overload. / Finalmente, quiero agradecer a la República del Ecuador junto con la “Secretaría de Educación Superior, Ciencia y Tecnología e Innovación” - SENESCYT, por su programa de apoyo y financiar mis estudios. / Chancay Garcia, LJ. (2019). Evaluación y Modelado de Redes Oportunistas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/124339
1067

ACCELERATING SPARSE MACHINE LEARNING INFERENCE

Ashish Gondimalla (14214179) 17 May 2024 (has links)
<p>Convolutional neural networks (CNNs) have become important workloads due to their<br> impressive accuracy in tasks like image classification and recognition. Convolution operations<br> are compute intensive, and this cost profoundly increases with newer and better CNN models.<br> However, convolutions come with characteristics such as sparsity which can be exploited. In<br> this dissertation, we propose three different works to capture sparsity for faster performance<br> and reduced energy. </p> <p><br></p> <p>The first work is an accelerator design called <em>SparTen</em> for improving two-<br> sided sparsity (i.e, sparsity in both filters and feature maps) convolutions with fine-grained<br> sparsity. <em>SparTen</em> identifies efficient inner join as the key primitive for hardware acceleration<br> of sparse convolution. In addition, <em>SparTen</em> proposes load balancing schemes for higher<br> compute unit utilization. <em>SparTen</em> performs 4.7x, 1.8x and 3x better than dense architecture,<br> one-sided architecture and SCNN, the previous state of the art accelerator. The second work<br> <em>BARISTA</em> scales up SparTen (and SparTen like proposals) to large-scale implementation<br> with as many compute units as recent dense accelerators (e.g., Googles Tensor processing<br> unit) to achieve full speedups afforded by sparsity. However at such large scales, buffering,<br> on-chip bandwidth, and compute utilization are highly intertwined where optimizing for<br> one factor strains another and may invalidate some optimizations proposed in small-scale<br> implementations. <em>BARISTA</em> proposes novel techniques to balance the three factors in large-<br> scale accelerators. <em>BARISTA</em> performs 5.4x, 2.2x, 1.7x and 2.5x better than dense, one-<br> sided, naively scaled two-sided and an iso-area two-sided architecture, respectively. The last<br> work, <em>EUREKA</em> builds an efficient tensor core to execute dense, structured and unstructured<br> sparsity with losing efficiency. <em>EUREKA</em> achieves this by proposing novel techniques to<br> improve compute utilization by slightly tweaking operand stationarity. <em>EUREKA</em> achieves a<br> speedup of 5x, 2.5x, along with 3.2x and 1.7x energy reductions over Dense and structured<br> sparse execution respectively. <em>EUREKA</em> only incurs area and power overheads of 6% and<br> 11.5%, respectively, over Ampere</p>
1068

ANALYSIS OF POWDER-GAS FLOW IN NOZZLES OF SPRAY-BASED ADDITIVE MANUFACTURING TECHNOLOGIES

Theodore Gabor (19332160) 06 August 2024 (has links)
<p dir="ltr">Powder Sprays such as Direct Energy Deposition and Cold Spray are rapidly growing and promising manufacturing methods in the Additive Manufacturing field, as they allow easy and localized delivery of powder to be fused to a substrate and consecutive layers. The relatively small size of nozzles allows for these methods to be mounted on CNC machines and Robotic Arms for the creation of complex shapes. However, these manufacturing methods are inherently stochastic, and therefore differences in powder size, shape, trajectory, and velocity can drastically affect whether they will deposit on a substrate. This variation results in an inherent reduction of deposition efficiency, leading to waste and the need for powder collection or recycling systems. The design of the nozzles can drastically affect the variation of powder trajectory and velocity on a holistic level, and thus understanding the gas-powder flow of these nozzles in respect to the features of said nozzles is crucial. This paper proposes and examines how changes in the nozzle geometry affect gas-powder flow and powder focusing for Direct Energy Deposition and Cold Spray. In addition, a new Pulsed Cold Spray nozzle design is proposed that will control the amount of gas and powder used by the nozzle via solenoid actuation. By making these changes to the nozzle, it is possible to improve deposition efficiency and reduce powder/gas waste in these processes, while also allowing for improved coating density. Furthermore, the research done in this thesis will also focus on novel applications to powder spray manufacturing methods, focusing on polymer metallization and part identification.</p>
1069

RELIABLE SENSING WITH UNRELIABLE SENSORS: FROM PHYSICAL MODELING TO DATA ANALYSIS TO APPLICATIONS

Ajanta Saha (19827849) 10 October 2024 (has links)
<p dir="ltr">In today’s age of information, we are constantly informed about our surroundings by the network of distributed sensors to decide the next action. One major class of distributed sensors is wearable, implantable, and environmental (WIE) electrochemical sensors, widely used for analyte concentration measurement in personalized healthcare, environmental monitoring, smart agriculture, food, and chemical industries. Although WIE sensors offer an opportunity for prompt and prudent decisions, reliable sensing with such sensors is a big challenge. Among them, one is uncontrolled outside environment. Rapidly varying temperature, humidity, and target concentration increase noise and decrease the data reliability of the sensors. Second, because they are closely coupled to the physical world, they are subject to biofouling, radiation exposure, and water ingress which causes physical degradation. Moreover, to correct the drift due to degradation, frequent calibration is not possible once the sensor is deployed in the field. Another challenge is the energy supply needed to support the autonomous WIE sensors. If the sensor is wireless, it must be powered by a battery or an energy harvester. Unfortunately, batteries have limited lifetime and energy harvesters cannot supply power on-demand limiting their overall operation.</p><p dir="ltr">The objective of this thesis is to achieve reliable sensing with WIE sensors by overcoming the challenges of uncontrolled environment, drift or degradation, and calibration subject to limited power supplies. First, we have developed a concept of “Nernst thermometry” for potentiometric ion-selective electrodes (ISE) with which we have self-corrected concentration fluctuation due to uncontrolled temperature. Next, by using “Nernst thermometry,” we have developed a physics-guided data analysis method for drift detection and self-calibration of WIE ISE. For WIE sensor, wireless data transmission is an energy-intensive operation. To reduce unreliable data transmission, we have developed a statistical approach to monitor the credibility of the sensor continuously and transmit only credible sensor data. To understand and monitor the cause of ISE degradation, we have proposed a novel on-the-fly equivalent circuit extraction method that does not require any external power supply or complex measurements. To ensure an on-demand power supply, we have presented the concept of “signal as a source of energy.” By circuit simulation and long-term experimental analysis, we have shown that ISE can indefinitely sense and harvest energy from the analyte. We have theoretically calculated the maximum achievable power with such systems and presented ways to achieve it practically. Overall, the thesis presents a holistic approach to developing a self-sustainable WIE sensor with environmental variation correction, self-calibration, reliable data transmission, and lifelong self-powering capabilities, bringing smart agriculture and environmental sensing one step closer to reality.</p>
1070

A study of stream temperature using distributed temperature sensing fiber optics technology in Big Boulder Creek, a tributary to the Middle Fork John Day River in eastern Oregon

Arik, Aida D. 08 November 2011 (has links)
The Middle Fork John Day Basin in Northeastern Oregon is prime habitat for spring Chinook salmon and Steelhead trout. In 2008, a major tributary supporting rearing habitat, Big Boulder Creek, was restored to its historic mid-valley channel along a 1 km stretch of stream 800 m upstream of the mouth. Reduction of peak summer stream temperatures was among the goals of the restoration. Using Distributed Temperature Sensing (DTS) Fiber Optic Technology, stream temperature was monitored prior to restoration in June 2008, and after restoration in September 2008, July 2009, and August 2009. Data gathered was used to determine locations of groundwater and hyporheic inflow and to form a stream temperature model of the system. The model was used both to develop an evaluation method to interpret components of model performance, and to better understand the physical processes important to the study reach. A very clear decreasing trend in surface temperature was seen throughout each of the DTS stream temperature datasets in the downstream 500 m of the study reach. Observed reduction in temperature was 0.5°C (±0.10) in June 2008, 0.3°C (±0.37) in September 2008, 0.6°C (±0.25) in July 2009, and 0.2°C (±0.08) in August 2009. Groundwater inflow was calculated to be 3% of the streamflow for July 2009 and 1% during the August 2009 installation. Statistically significant locations of groundwater and hyporheic inflow were also determined. July 2009 data was used to model stream temperature of the 1 km (RMSE 0.28°C). The developed model performance evaluation method measures timelag, offset, and amplitude at a downstream observed or simulated point compared with the boundary condition, rather than evaluating the model based on error. These measures are particularly relevant to small scale models in which error may not be a true reflection of the ability of a model to correctly predict temperature. Breaking down model performance into these three predictive measures was a simple and graphic method to show the model's predictive capability without sorting through large amounts of data. To better understand the model and the stream system, a sensitivity analysis was conducted showing high sensitivity to streamflow, air temperature, groundwater inflow, and relative humidity. Somewhat surprisingly, solar radiation was among the lowest sensitivity. Furthermore, three model scenarios were run: a 25% reduction in water velocity, a 5°C increase in air temperature, and no groundwater inflow. Simulations of removal of groundwater inflows resulted in a 0.5°C increase in average temperature over the modeled time period at the downstream end, further illustrating the importance of groundwater in this stream system to reduce temperatures. / Graduation date: 2012

Page generated in 0.158 seconds