• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 32
  • 11
  • 5
  • 3
  • 1
  • Tagged with
  • 364
  • 151
  • 149
  • 139
  • 138
  • 126
  • 67
  • 57
  • 53
  • 45
  • 45
  • 45
  • 41
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Liderazgo ético y regulación en un escenario empresarial global / Ethical leadership and regulation in the business scene

Álvarez Arce, José Luis, Calderón Cuadrado, Reyes, Rodríguez Tejedo, Isabel 10 April 2018 (has links)
In an increasingly integrated global business arena, local singularities still play a crucial role in many aspects. Business ethics is affected by this duality in profound ways. Legislators have tried to provide uniform ethical guidelines for transnational companies. In this effort to streamline the ethical management of the multinational corporation, regulation could be thought of as an attempt to reduce the role of the leader. We argue that this solution mistakenly presumes a high degree of uniformity across countries. In this paper, we consider how different legal traditions can be used to explain the divergences in implementation and configuration of ethics hotlines. We find that although national regulators established a legal standard (Sarbanes Oxley Act) for global companies, significant differences exist across legal traditions, which sometimes go even deeper, to region and country specific nuances. Legal regulation may never substitute a leader in ethical matters. / Incluso en un mundo empresarial cada vez más globalizado, las singularidades locales aún desempeñan un papel crucial en muchos aspectos; por lo tanto, la ética empresarial se ve afectada por esta dualidad. El legislador ha intentado crearpautas uniformes para compañías de carácter internacional y en el marco de este esfuerzo por uniformizar la gestión ética de las empresas multinacionales, la regulación puede verse como un intento de reducir el papel del líder. Este trabajo plantea que esta solución presupone de manera errónea un alto grado de uniformidad entre países puesto que las diversas tradiciones legales pueden usarse para explicar las diferencias en implementación y configuración de las líneas éticas. A pesar de la instauración de un sistema legal al respecto (la Ley Sarbanes-Oxley) para las compañías transnacionales, aún existen diferencias importantes entre las distintas tradiciones legales, que a veces llegan a manifestarse en variaciones específicas a la región o el país. Es por esto que quizá la regulación legal no pueda llegar a sustituir al líder en temas de naturaleza ética.
352

Comportamiento de los nudos semi-rígidos en estructuras metálicas de edificación

Guardiola Víllora, Arianna Paola 06 May 2008 (has links)
Considerar un comportamiento semi-rígido para las uniones permite reducir el dimensionado de las vigas respecto a la solución articulada, ya que al poseer una cierta rigidez a flexión el momento en centro de vano disminuye. Por otro lado, al tratarse de uniones no rigidizadas, el coste de ejecución de las mismas es sensiblemente inferior al de las rígidas. A pesar de las ventajas de este tipo de uniones no se utilizan en la práctica habitual. Hasta hace unos pocos años porque las normas de aplicación sólo incluían criterios para comprobar su resistencia, y más recientemente porque, a pesar de que el anejo J del Eurocódigo 3 permite, a partir de su geometría, determinar la rigidez y resistencia de las uniones semi-rígidas, no establece una estrategia de actuación para el diseño de pórticos con este tipo de nudos. Con el fin de establecerla, y considerando que la máxima reducción en el dimensionado de las vigas corresponde a estructuras de nudos rígidos, esta Tesis plantea analizar las posibilidades prácticas de diseño que ofrecen aquellas uniones no rigidizadas con un comportamiento lo más parecido posible al de las rígidas (uniones con soldadura perimetral directa y uniones atornilladas con chapa frontal extendida). Con este objeto se han calculado más de 1500 pórticos de edificación diseñados con este tipo de uniones considerando su rigidez real (obtenida mediante el método de los componentes) modelizando su comportamiento según las posibles idealizaciones del diagrama Momento-Rotación que establece la norma de referencia, analizando su influencia en la respuesta de la estructura, y verificando su resistencia, para diferentes longitudes de vigas y soportes y distinto número de plantes y vanos, comparando los resultados obtenidos con los de los mismos pórticos diseñados con uniones rígidas o articuladas, con el fin de obtener unas pautas de diseño y rango de validez de las mismas. / Guardiola Víllora, AP. (2007). Comportamiento de los nudos semi-rígidos en estructuras metálicas de edificación [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1880
353

COST EFFICIENT PROVISIONING OF MASS MOBILE MULTIMEDIA SERVICES IN HYBRID CELLULAR AND BROADCASTING SYSTEMS

Gómez Barquero, David 18 January 2010 (has links)
Uno de los retos a los que se enfrenta la industria de las comunicaciones móviles e inalámbricas es proporcionar servicios multimedia masivos a bajo coste, haciéndolos asequibles para los usuarios y rentables a los operadores. El servicio más representativo es el de TV móvil, el cual se espera que sea una aplicación clave en las futuras redes móviles. Actualmente las redes celulares no pueden soportar un consumo a gran escala de este tipo de servicios, y las nuevas redes de radiodifusión móvil son muy costosas de desplegar debido a la gran inversión en infraestructura de red necesaria para proporcionar niveles aceptables de cobertura. Esta tesis doctoral aborda el problema de la provisión eficiente de servicios multimedia masivos a dispositivos móviles y portables utilizando la infraestructura de radiodifusión y celular existente. La tesis contempla las tecnologías comerciales de última generación para la radiodifusión móvil (DVB-H) y para las redes celulares (redes 3G+ con HSDPA y MBMS), aunque se centra principalmente en DVB-H. El principal paradigma propuesto para proporcionar servicios multimedia masivos a bajo coste es evitar el despliegue de una red DVB-H con alta capacidad y cobertura desde el inicio. En su lugar se propone realizar un despliegue progresivo de la infraestructura DVB-H siguiendo la demanda de los usuarios. Bajo este contexto, la red celular es fundamental para evitar sobre-dimensionar la red DVB-H en capacidad y también en áreas con una baja densidad de usuarios hasta que el despliegue de un transmisor o un repetidor DVB-H sea necesario. Como principal solución tecnológica la tesis propone realizar una codificación multi-burst en DVB-H utilizando códigos Raptor. El objetivo es explotar la diversidad temporal del canal móvil para aumentar la robustez de la señal y, por tanto, el nivel de cobertura, a costa de incrementar la latencia de la red. / Gómez Barquero, D. (2009). COST EFFICIENT PROVISIONING OF MASS MOBILE MULTIMEDIA SERVICES IN HYBRID CELLULAR AND BROADCASTING SYSTEMS [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6881
354

Analysis and CFD-Guided optimization of advanced combustion systems in compression-ignited engines

Spohr Fernandes, Cássio 12 May 2023 (has links)
[ES] Reducir las emisiones de gases contaminantes de los motores de combustión interna alternativos (MCIA) es uno de los mayores retos para combatir el calentamiento global. Dado que los motores seguirán siendo utilizados por la industria durante décadas, es necesario desarrollar nuevas tecnologías. En este contexto, la presente tesis doctoral viene motivada por la necesidad de seguir mejorando los motores, tanto desde el punto de vista de la ingeniería técnica como desde el punto de vista social, debido a los efectos de los gases de efecto invernadero. El objetivo principal de esta tesis es desarrollar una metodología de optimización para sistemas de combustión de motores de encendido por compresión (MEC) mediante el acoplamiento de algoritmos de optimización con simulación por ordenador. Con la optimización de los sistemas de combustión es posible aumentar la eficiencia de los motores, reduciendo así el consumo de combustible junto con la reducción de emisiones contaminantes, en particular óxidos de nitrógeno (NOx) y hollín. En el primer paso, se abordan diferentes algoritmos de optimización con el fin de elegir el mejor candidato para esta metodología. A partir de aquí, la primera optimización se centra en un motor de encendido por compresión que funciona con combustible convencional para validar la metodología y también para evaluar el estado actual de evolución de estos motores. Con el objetivo de reducir el consumo de combustible manteniendo los niveles de NOx y hollín por debajo de los valores de un motor real, se inicia el proceso de optimización. Los resultados obtenidos confirman que un nuevo sistema de combustión específico para este motor podría generar una reducción del consumo de combustible manteniendo las emisiones de gases por debajo del valor estipulado. Además, se concluye que los motores MEC que utilizan combustible convencional se encuentran ya en un nivel de eficiencia muy elevado, y es difícil mejorarlos sin utilizar un sistema de postratamiento. Así pues, el segundo bloque de optimización se basa en el uso de motores MEC que funcionan con un combustible alternativo, que en este caso es el OME. El objetivo de este estudio es diseñar un sistema de combustión específico para un motor que utilice este combustible y que ofrezca un rendimiento del mismo orden de magnitud que un motor diésel. En la búsqueda de una mayor eficiencia, las emisiones de NOx son una restricción del sistema de optimización para que el sistema de combustión no emita más gases que un motor real. En este caso, el hollín no se tiene en cuenta debido a que las características del combustible no producen este tipo de contaminante. Los resultados mostraron que un sistema de combustión diseñado específicamente para esta operación podía ofrecer altas eficiencias, incluso la eficiencia obtenida fue alrededor de 2,2 % mayor en comparación con el motor diesel real. Además, fue posible reducir a la mitad las emisiones de NOx cuando el motor funciona con OME. El último bloque de optimización se refiere a una nueva arquitectura de motor que permite eliminar las emisiones de NOx. El modelo de oxicombustión resulta apasionante, ya que se elimina el nitrógeno de la mezcla de admisión y, por tanto, no se generan emisiones que contengan N2. Además, con el uso de este modo de combustión, es posible capturar CO$_{2}$ de los gases de escape, que luego puede venderse en el mercado. Dado que se trata de un tema nuevo y poco investigado, los resultados son prometedores. Demuestran que fue posible obtener un sistema de combustión específico capaz de ofrecer niveles de eficiencia cercanos a los de los motores convencionales. Además, se eliminaron las emisiones de NOx, así como las de hollín. Adicionalmente, este sistema fue capaz de reducir las emisiones de CO y HC a niveles similares a los motores convencionales. Por otra parte, los resultados presentados en esta tesis doctoral proporcionan una base de datos ampliada para explorar el funcionamiento del motor CI. / [CAT] Reduir les emissions de gasos contaminants dels motors de combustió interna alternatius (MCIA) és un dels majors reptes per a combatre el camvi climàtic. Atés que els motors continuaran sent utilitzats per la indústria durant dècades, és necessari desenvolupar noves tecnologies. En aquest context, la present tesi doctoral ve motivada per la necessitat de continuar millorant els motors, tant des del punt de vista de l'enginyeria tècnica com des del punt de vista social, degut a l'efecte dels gasos d'efecte d'hivernacle. L'objectiu principal d'aquesta tesi és desenvolupar una metodologia d'optimització per a sistemes de combustió de motors d'encesa provocada mitjançant l'acoblament d'algorismes d'optimització amb simulació per ordinador. Amb l'optimització dels sistemes de combustió és possible augmentar l'eficiència dels motors, reduint així el consum de combustible, concomitantment amb la reducció d'emissions de gasos, en particular òxids de nitrogen (NOx) i sutge. En el primer pas, s'aborden diferents algorismes d'optimització amb la finalitat d'elegir el millor candidat per a aquesta metodologia. A partir d'ací, la primera optimització se centra en un motor d'encesa per compressió que funciona amb combustible convencional per a validar la metodologia i també per a avaluar l'estat actual d'evolució d'aquests motors. Amb l'objectiu de reduir el consum de combustible mantenint els nivells de NOx i sutge per davall dels valors d'un motor real, s'inicia el procés d'optimització. Els resultats obtinguts confirmen que un nou sistema de combustió específic per a aquest motor podria generar una reducció del consum de combustible mantenint les emissions de gasos per davall del valor estipulat. A més, es conclou que els motors d'encesa per compressió que utilitzen combustible convencional es troben ja en un nivell d'eficiència molt elevat, i és difícil millorar-los sense utilitzar un sistema de posttractament. Així doncs, el segon bloc d'optimització es basa en l'ús de motors d'encesa per compressió que funcionen amb un combustible alternatiu, que en aquest cas és el OME. L'objectiu d'aquest estudi és dissenyar un sistema de combustió específic per a un motor que utilitze aquest combustible i que oferisca un rendiment del mateix ordre de magnitud que un motor dièsel. En la cerca d'una major eficiència, les emissions de NOx són una restricció del sistema d'optimització perquè el sistema de combustió no emeta més gasos que un motor real. En aquest cas, el sutge no es té en compte pel fet que les característiques del combustible no produeixen aquest tipus de contaminant. Els resultats van mostrar que un sistema de combustió dissenyat específicament per a aquesta operació podia oferir altes eficiències, fins i tot l'eficiència obtinguda va ser al voltant de 2,2 % major en comparació amb el motor dièsel real. A més, va ser possible reduir a la meitat les emissions de NOx quan el motor funciona amb OME. L'últim bloc d'optimització es refereix a una nova arquitectura del motor que permet eliminar les emissions de NOx. El model de oxicombustió resulta apassionant, ja que s'elimina el nitrogen de la mescla d'admissió i, per tant, no es generen emissions que continguen N2. A més, amb l'ús d'aquesta manera de combustió, és possible capturar CO$_{2}$ dels gasos de fuita, que després pot vendre's en el mercat. Atés que es tracta d'un tema nou i poc investigat, els resultats són prometedors. Demostren que va ser possible obtindre un sistema de combustió específic capaç d'oferir nivells d'eficiència pròxims als dels motors convencionals. A més, es van eliminar les emissions de NOx, així com les de sutge. Addicionalment, aquest sistema va ser capaç de reduir les emissions de CO i HC a nivells similars als motors convencionals. D'altra banda, els resultats presentats en aquesta tesi doctoral proporcionen una base de dades ampliada per a explorar el funcionament del motor CI. / [EN] Reducing emissions of pollutant gases from internal combustion engines (ICE) is one of the biggest challenges to combat global warming. As the engines will continue to be used by industry for decades, it is necessary to develop new technologies. In this context, the present doctoral thesis was motivated by the need to further improve engines, both from a technical engineering and social point of view, due to the effects of greenhouse gases. The main objective of this thesis is to develop an optimization methodology for compression ignition (CI) engine combustion systems by coupling optimization algorithms with computer simulation. With the optimization of the combustion systems, it is possible to increase the efficiency of the engines, thus reducing fuel consumption, concomitantly with the reduction of gas emissions, in particular nitrogen oxides (NOx) and soot. In the first step, different optimization algorithms are addressed in order to elect the best candidate for this methodology. From this point on, the first optimization is focused on a CI engine operating with conventional fuel in order to validate the methodology and also to evaluate the current state of evolution of these engines. With the goal of reducing fuel consumption while keeping NOx and soot levels below the values of a real engine, the optimization process begins. The results obtained confirm that a new combustion system specifically for this engine could generate a reduction in fuel consumption while keeping gas emissions below the stipulated value. Furthermore, it is concluded that CI engines using conventional fuel are already at a very high-efficiency level, and it is difficult to improve them without the use of an after-treatment system. Thus, the second optimization block is based on the use of CI engines operating on an alternative fuel, which in this case is OME. This study aimed to design a specific combustion system for an engine using this fuel that delivers efficiency on the same order of magnitude as a diesel engine. While searching for better efficiency, the NOx emissions are a restriction of the optimization system so that the combustion system does not emit more gases than a real engine. In this case, soot is not considered due to the characteristics of the fuel not producing this kind of pollutant. The results showed that a combustion system designed specifically for this operation could deliver high efficiencies, including the efficiency obtained was around 2.2 \% higher compared to the real diesel engine. In addition, it was possible to halve the NOx emissions when the engine operates with OME. The last optimization block concerns a new engine architecture that makes it possible to eliminate NOx emissions. The oxy-fuel combustion model is exciting since nitrogen is eliminated from the intake mixture, and thus no emissions containing N2 are generated. Furthermore, with the use of this combustion mode, it is possible to capture CO$_{2}$ from the exhaust gas, which can then be sold to the market. Since this is a new and little-researched topic, the results are promising. They show that it was possible to obtain a specific combustion system capable of delivering efficiency levels close to conventional engines. Furthermore, NOx emissions were eliminated, as well as soot emissions. Additionally, this system was able to reduce CO and HC emissions to levels similar to conventional engines. Moreover, the results presented in this doctoral thesis provide an extended database to explore the CI engine operation. Additionally, this work showed the potential of computational simulation allied with mathematical methods in order to design combustion systems for different applications. / I want to thanks the Universitat Politecnica de Valencia for his predoctoral contract (FPI-2019-S2-20-555), which is included within the framework of Programa de Apoyo para la Investigacion y Desarrollo (PAID). / Spohr Fernandes, C. (2023). Analysis and CFD-Guided optimization of advanced combustion systems in compression-ignited engines [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193292
355

Análise de sistemas CDMA ópticos / Analysis of optical CDMA systems

Santos Filho, Rivail Vilas Boas dos 01 September 2006 (has links)
A evolução das redes ópticas para atender o crescimento da demanda por largura de banda tem estimulado a busca por uma maior eficiência na utilização da largura de faixa disponível. O sucesso da implementação prática da técnica de acesso múltiplo por divisão de código (CDMA) em sistemas de comunicações móveis também despertou o interesse por aplicações em redes ópticas (OCDMA). Atributos únicos tais como capacidade flexível sob demanda, segurança na comunicação e alta escalabilidade, incentivaram significativamente as pesquisas. Neste contexto, este trabalho apresenta, primeiramente, uma revisão de várias configurações OCDMA propostas na literatura para qualificar e quantificar códigos válidos, com ênfase nas propriedades de correlação. Em seguida, realiza uma modelagem de sistema óptico abrangendo os subsistemas principais de geração, transmissão e recepção de sinal. O impacto das degradações, referentes à fibra óptica e aos diversos dispositivos que constituem o sistema, é então avaliado e sua influência sobre o desempenho de algumas configurações de codificação é investigado. O conhecimento da forma e das condições de manifestação destas degradações poderá servir de base ao processamento de sinal óptico à luz dos esquemas de codificação. Uma discussão sobre qualidade de serviço (QoS) e sobre flexibilização da aplicação OCDMA em sistemas de comunicação óptica também são também abordadas. / The evolution of optical networks verified in the last few years has been characterized by the search for better bandwidth utilization efficiency. The successful implementation of practical code division for multiple access techniques (CDMA) in mobile communications systems has stimulated new investigations on this topic, particularly in the optical domain (optical CDMA). This is justified due to some remarkable attributes of this technology, such flexibility in code design, capacity on demand, safety, and high scalability. In this context, this dissertation presents, initially, a comprehensive review of several code configurations for OCDMA proposed in the literature, with emphasis particularly on the correlation and users availability properties. Next, it describes the modeling of an optical system consisting of the following three subsystems: generation, transmission, and signal detection. The penalties imposed to the optical codes by the propagating medium, as well as by the devices employed in the system, are accounted for and their influence on the performance of some coding configurations is investigated. The knowledge of how and when these penalties will affect the system is crucial in optical signal processing based on codification schemes. Finally, this work also addresses some aspects related to quality of service (QoS) and flexibility of the OCDMA technology in optical communications systems.
356

Otimização dos parâmetros de um sistema de comunicação acústica subaquática para minimizar o consumo energético / Parameters optimization of an underwater communication system for minimizing energy consumption

Souza, Fabio Alexandre de 09 December 2016 (has links)
CAPES / Nesta Tese de Doutorado propõe-se um modelo de consumo de energia para redes acústicas subaquáticas que leva em consideração as especificidades do ambiente subaquático, como a comunicação utilizando ondas acústicas, a dependência da largura de banda do canal com a perda de percurso, que varia tanto com a distância quanto com a frequência, e o ruído. O desvanecimento, resultado do multipercurso, normalmente modelado pelas distribuições Rayleigh e Rice nas transmissões terrestres, é modelado pela distribuição K, que melhor representa a severidade do ambiente subaquático. O modelo considera uma rede subaquática linear de múltiplos saltos e a possibilidade de retransmissões para calcular a energia total consumida para cada bit de informação transmitido com sucesso entre a fonte e o destino. A fim de obter o menor consumo de energia, a SNR e a frequência de operação também são otimizadas, sendo considerado o uso de códigos convolucionais, cuja taxa ótima que leva ao menor consumo é determinada. Uma análise teórica é desenvolvida para cenários com e sem limitação de atraso. No primeiro caso avalia-se o consumo de energia quando retransmissões não são permitidas ou devem ser limitadas e, portanto, uma FER residual deve ser tolerada. No segundo caso infinitas retransmissões são permitidas até que um pacote seja recebido sem erros. Para ambos cenários o número ótimo de saltos que minimiza o consumo de energia é determinado, e na sequência o impacto do número de tentativas de transmissão é considerado. Resultados numéricos são apresentados, mostrando que o esquema de múltiplos saltos é mais eficiente em termos de consumo de energia que a transmissão direta. Além disso, os resultados mostram que um número pequeno de tentativas de transmissão é suficiente para alcançar uma redução considerável no consumo de energia em redes de múltiplos saltos, limitando o atraso médio por pacote transmitido, o que é muito interessante em aplicações reais. / In this Thesis, an energy consumption model for underwater acoustic networks is proposed. The model takes into account the specificities of the underwater environment, such as the use of acoustic waves for communication, dependence of the underwater acoustic channel bandwidth with the path loss, which varies with both the distance and frequency, and noise. The fading, usually modeled by Rayleigh and Rice distributions on terrestrial communications, in this work, is modeled by the K distribution, which best represents the severity of the underwater environment. The model considers a linear multi-hop underwater network and the possibility of retransmissions to calculate the total energy consumed for each bit of information successfully transmitted between the source and the destination. In order to obtain the minimum energy, the SNR and the operating frequency are also optimized. The use of convolutional codes is considered and the optimal code rate, which leads to the minimum energy consumption, is determined. A theoretical analysis was developed for two scenarios: delay constrained and delay unconstrained networks, indicating the optimal number of hops which minimizes energy consumption. Next, the impact of the number of transmission trials was considered. A numerical analysis was also performed for both the scenarios. The numerical results validate the theoretical analysis, showing that the multi-hop scheme is more efficient in terms of energy consumption when compared to direct transmission. Furthermore, the results show that a small number of transmission trials is sufficient to achieve a considerable reduction in energy consumption in multi-hop networks, limiting the average delay per packet transmitted, which is very interesting in real applications.
357

Deep learning methods for detecting anomalies in videos: theoretical and methodological contributions / Métodos de deep learning para a detecção de anomalias em vídeos: contribuições teóricas e metodológicas

Ribeiro, Manassés 05 March 2018 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A detecção de anomalias em vídeos de vigilância é um tema de pesquisa recorrente em visão computacional. Os métodos de aprendizagem profunda têm alcançado o estado da arte para o reconhecimento de padrões em imagens e o Autocodificador Convolucional (ACC) é uma das abordagens mais utilizadas por sua capacidade em capturar as estruturas 2D dos objetos. Neste trabalho, a detecção de anomalias se refere ao problema de encontrar padrões em vídeos que não pertencem a um conceito normal esperado. Com o objetivo de classificar anomalias adequadamente, foram verificadas formas de aprender representações relevantes para essa tarefa. Por esse motivo, estudos tanto da capacidade do modelo em aprender características automaticamente quanto do efeito da fusão de características extraídas manualmente foram realizados. Para problemas de detecção de anomalias do mundo real, a representação da classe normal é uma questão importante, sendo que um ou mais agrupamentos podem descrever diferentes aspectos de normalidade. Para fins de classificação, esses agrupamentos devem ser tão compactos (densos) quanto possível. Esta tese propõe o uso do ACC como uma abordagem orientada a dados aplicada ao contexto de detecção de anomalias em vídeos. Foram propostos métodos para o aprendizado de características espaço-temporais, bem como foi introduzida uma abordagem híbrida chamada Autocodificador Convolucional com Incorporação Compacta (ACC-IC), cujo objetivo é melhorar a compactação dos agrupamentos normais. Além disso, foi proposto um novo critério de parada baseado na sensibilidade e sua adequação para problemas de detecção de anomalias foi verificada. Todos os métodos propostos foram avaliados em conjuntos de dados disponíveis publicamente e comparados com abordagens estado da arte. Além do mais, foram introduzidos dois novos conjuntos de dados projetados para detecção de anomalias em vídeos de vigilância em rodovias. O ACC se mostrou promissor na detecção de anomalias em vídeos. Resultados sugerem que o ACC pode aprender características espaço-temporais automaticamente e a agregação de características extraídas manualmente parece ser valiosa para alguns conjuntos de dados. A compactação introduzida pelo ACC-IC melhorou o desempenho de classificação para a maioria dos casos e o critério de parada baseado na sensibilidade é uma nova abordagem que parece ser uma alternativa interessante. Os vídeos foram analisados qualitativamente de maneira visual, indicando que as características aprendidas com os dois métodos (ACC e ACC-IC) estão intimamente correlacionadas com os eventos anormais que ocorrem em seus quadros. De fato, ainda há muito a ser feito para uma definição mais geral e formal de normalidade, de modo que se possa ajudar pesquisadores a desenvolver métodos computacionais eficientes para a interpretação dos vídeos. / The anomaly detection in automated video surveillance is a recurrent topic in recent computer vision research. Deep Learning (DL) methods have achieved the state-of-the-art performance for pattern recognition in images and the Convolutional Autoencoder (CAE) is one of the most frequently used approach, which is capable of capturing the 2D structure of objects. In this work, anomaly detection refers to the problem of finding patterns in images and videos that do not belong to the expected normal concept. Aiming at classifying anomalies adequately, methods for learning relevant representations were verified. For this reason, both the capability of the model for learning automatically features and the effect of fusing hand-crafted features together with raw data were studied. Indeed, for real-world problems, the representation of the normal class is an important issue for detecting anomalies, in which one or more clusters can describe different aspects of normality. For classification purposes, these clusters must be as compact (dense) as possible. This thesis proposes the use of CAE as a data-driven approach in the context of anomaly detection problems. Methods for feature learning using as input both hand-crafted features and raw data were proposed, and how they affect the classification performance was investigated. This work also introduces a hybrid approach using DL and one-class support vector machine methods, named Convolutional Autoencoder with Compact Embedding (CAE-CE), for enhancing the compactness of normal clusters. Besides, a novel sensitivity-based stop criterion was proposed, and its suitability for anomaly detection problems was assessed. The proposed methods were evaluated using publicly available datasets and compared with the state-of-the-art approaches. Two novel benchmarks, designed for video anomaly detection in highways were introduced. CAE was shown to be promising as a data-driven approach for detecting anomalies in videos. Results suggest that the CAE can learn spatio-temporal features automatically, and the aggregation of hand-crafted features seems to be valuable for some datasets. Also, overall results suggest that the enhanced compactness introduced by the CAE-CE improved the classification performance for most cases, and the stop criterion based on the sensitivity is a novel approach that seems to be an interesting alternative. Videos were qualitatively analyzed at the visual level, indicating that features learned using both methods (CAE and CAE-CE) are closely correlated to the anomalous events occurring in the frames. In fact, there is much yet to be done towards a more general and formal definition of normality/abnormality, so as to support researchers to devise efficient computational methods to mimetize the semantic interpretation of visual scenes by humans.
358

Análise do consumo energético em redes subaquáticas utilizando códigos fontanais / Energy consumption analysis of underwater acoustic networks using fountain codes

Simão, Daniel Hayashida 06 February 2017 (has links)
O presente trabalho aborda a aplicação de códigos fontanais em redes subaquáticas. Tais redes transmitem dados abaixo da água fazendo uso de sinais acústicos e possuem diversas aplicações. No entanto, é sabido que esse tipo de rede é caracterizado por uma baixa velocidade de propagação e largura de banda menor que as redes que operam em meios de transmissão mais conhecidos, tais como a transmissão sem fio via ondas de rádio frequência, resultando num maior atraso na entrega de pacotes. Para tentar minimizar estes atrasos e aumentar a eficiência energética das redes subaquáticas, o trabalho otimizou o sistema de transmissão inserindo um código corretor de erros fontanal no transmissor de mensagens. Dentro desse contexto, foi necessário modelar o consumo energético necessário para a transmissão correta de pacotes de dados em redes subaquáticas utilizando códigos fontanais. Dentre os resultados do trabalho, o mais relevante conclui que o uso dos códigos fontanais é capaz de reduzir em até 30% o consumo de energia quando a distância de transmissão é de 20 km para o caso com a taxa de erro de quadro alvo (FER) de Po = 10^−5, e em ate 25% para a FER alvo de Po = 10^−3. / The present work employs fountain codes in an underwater network, in which data is transmitted using acoustic signals and has many applications. However, underwater networks are usually characterized by low propagation speed and smaller bandwidth than networks that use radio frequency signals, resulting in larger transmission delays. Then, aiming at minimizing the delays and increasing the energy efficiency of underwater networks, the present work employs fountain error-correcting codes at the transmitter. To that end, it was first necessary to model the energy consumption of a success data packet transmission in an underwater network using fountain codes. Our results show that the use of fountain codes is able to reduce up to 30% of energy consumption when the transmission distance is of 20 km for the case with a target frame error rate (FER) of Po = 10^−5 , and 25% for the same distance with a target FER of Po = 10^−3.
359

Desenvolvimento e implementação de chips dedicados para um novo decodificador de códigos corretores de erros baseado em conjuntos de informação

França, Sibilla Batista da Luz 22 August 2013 (has links)
CAPES / Códigos corretores de erros estão presentes em quase todos os sistemas modernos de comunicação e armazenamento de dados. Erros durante essas operações são praticamente inevitáveis devido a ruído e interferências nos meios de comunicação e degradação dos meios de armazenamento. Quando um sistema exige alto desempenho, os correspondentes algoritmos (codificador e decodificador) são implementados em hardware. O projeto de pesquisa apresentado nesta tese, um chip dedicado para uma nova família de decodificadores baseados em conjuntos de informação, é parte de um amplo projeto que visa obter um decodificador com desempenho semelhante à decodificação de máxima verossimilhança (MLD), porém com hardware muito mais simples, demonstrando assim que o uso dessa técnica (decodificação por conjuntos de informação), até então proibitiva devido à complexidade do hardware, poderia tornar-se viável. Visando simplificar o hardware, o primeiro passo foi modificar o algoritmo original de Dorsch para reduzir o número de ciclos de clock necessários para decodificar uma mensagem. As principais modificações realizadas foram na redução de Gauss-Jordan e no número de palavras-código candidatas, consideravelmente reduzidas em relação ao algoritmo original de Dorsch. Este algoritmo modificado foi primeiramente implementado utilizando linguagem de descrição de hardware e avaliado em diferentes famílias de FPGAs, onde demonstrou-se o mesmo ser viável, mesmo para grandes códigos. O algoritmo foi implementado posteriormente em um chip dedicado (ASIC), utilizando tecnologia CMOS, a fim de completar a demonstração da viabilidade de sua implementação e uso efetivo. / Error-correcting codes are present in almost all modern data communications and data storage systems. Errors during these operations are practically inevitable because of noise and interference in communication channels and degradation of storage media. When topperformance is required, the corresponding algorithms (encoder and decoder) are implemented in hardware. The research project presented in this dissertation, a dedicated chip for a new family of decoders based on information sets, is part of a broad project targeting the development of a new decoder capable of achieving near maximum likelihood decoding (MLD) performance, however with a much simpler hardware, thus demonstrating that the use of this technique (decoding based on information sets), previously prohibitive due to the complexity of the hardware, could now be feasible. Aiming to simplify the hardware, the first step was to modify the original Dorsch algorithm to reduce the number of clock cycles needed to decode a message. The main modifications performed were in the Gauss Jordan elimination procedure and in the number of candidate codewords, which was highly reduced with respect to original Dorsch algorithm. This modified algorithm was first implemented using a hardware description language and evaluated in different FPGA families, where the viability was demonstrated. The algorithm was later implemented in a dedicated chip (ASIC) using CMOS technology in order to complete the demonstration of the feasibility of their implementation, and effective use.
360

Desenvolvimento e implementação de chips dedicados para um novo decodificador de códigos corretores de erros baseado em conjuntos de informação

França, Sibilla Batista da Luz 22 August 2013 (has links)
CAPES / Códigos corretores de erros estão presentes em quase todos os sistemas modernos de comunicação e armazenamento de dados. Erros durante essas operações são praticamente inevitáveis devido a ruído e interferências nos meios de comunicação e degradação dos meios de armazenamento. Quando um sistema exige alto desempenho, os correspondentes algoritmos (codificador e decodificador) são implementados em hardware. O projeto de pesquisa apresentado nesta tese, um chip dedicado para uma nova família de decodificadores baseados em conjuntos de informação, é parte de um amplo projeto que visa obter um decodificador com desempenho semelhante à decodificação de máxima verossimilhança (MLD), porém com hardware muito mais simples, demonstrando assim que o uso dessa técnica (decodificação por conjuntos de informação), até então proibitiva devido à complexidade do hardware, poderia tornar-se viável. Visando simplificar o hardware, o primeiro passo foi modificar o algoritmo original de Dorsch para reduzir o número de ciclos de clock necessários para decodificar uma mensagem. As principais modificações realizadas foram na redução de Gauss-Jordan e no número de palavras-código candidatas, consideravelmente reduzidas em relação ao algoritmo original de Dorsch. Este algoritmo modificado foi primeiramente implementado utilizando linguagem de descrição de hardware e avaliado em diferentes famílias de FPGAs, onde demonstrou-se o mesmo ser viável, mesmo para grandes códigos. O algoritmo foi implementado posteriormente em um chip dedicado (ASIC), utilizando tecnologia CMOS, a fim de completar a demonstração da viabilidade de sua implementação e uso efetivo. / Error-correcting codes are present in almost all modern data communications and data storage systems. Errors during these operations are practically inevitable because of noise and interference in communication channels and degradation of storage media. When topperformance is required, the corresponding algorithms (encoder and decoder) are implemented in hardware. The research project presented in this dissertation, a dedicated chip for a new family of decoders based on information sets, is part of a broad project targeting the development of a new decoder capable of achieving near maximum likelihood decoding (MLD) performance, however with a much simpler hardware, thus demonstrating that the use of this technique (decoding based on information sets), previously prohibitive due to the complexity of the hardware, could now be feasible. Aiming to simplify the hardware, the first step was to modify the original Dorsch algorithm to reduce the number of clock cycles needed to decode a message. The main modifications performed were in the Gauss Jordan elimination procedure and in the number of candidate codewords, which was highly reduced with respect to original Dorsch algorithm. This modified algorithm was first implemented using a hardware description language and evaluated in different FPGA families, where the viability was demonstrated. The algorithm was later implemented in a dedicated chip (ASIC) using CMOS technology in order to complete the demonstration of the feasibility of their implementation, and effective use.

Page generated in 0.0431 seconds