• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 30
  • 11
  • 11
  • 8
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 186
  • 75
  • 52
  • 40
  • 29
  • 28
  • 24
  • 23
  • 23
  • 21
  • 19
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Bearbetningstid och CPU-användning i Snort IPS : En jämförelse mellan ARM Cortex-A53 och Cortex-A7 / Processing time and CPU usage in Snort IPS : A comparision between ARM Cortex-A53 and Cortex-A7

Nadji, Al-Husein, Sarbast Hgi, Haval January 2020 (has links)
Syftet med denna studie är att undersöka hur bearbetningstiden hos Snort intrångsskyddssystem varierar mellan två olika processorer; ARM Cortex-A53 och Cortex-A7. CPU-användningen undersöktes även för att kontrollera om bearbetningstid är beroende av hur mycket CPU Snort använder. Denna studie ska ge kunskap om hur viktig en processor är för att Snort ska kunna prestera bra när det gäller bearbetningstid och CPU användning samt visa det uppenbara valet mellan Cortex-A53 och Cortex-A7 när man ska implementera Snort IPS. Med hjälp av litteratursökning konstruerades en experimentmiljö för att kunna ge svar på studiens frågeställningar. Snort kan klassificeras som CPU-bunden vilket innebär att systemet är beroende av en snabb processor. I detta sammanhang innebär en snabb processor gör att Snort hinner bearbeta den mängd nätverkstrafik den får, annars kan trafiken passera utan att den inspekteras vilket kan skada enheten som är skyddat av Snort. Studiens resultat visar att bearbetningstiden i Snort på Cortex-A53 och Cortex-A7 skiljer sig åt och en tydlig skillnad i CPU-användning mellan processorerna observerades. Studien visar även kopplingen mellan bearbetningstiden och CPUanvändning hos Snort. Studiens slutsats är att ARM Cortex-A53 har bättre prestanda vid användning av Snort IPS avseende bearbetningstid och CPU-användning, där Cortex-A53 har 10 sekunder kortare bearbetningstid och använder 2,87 gånger mindre CPU. / The purpose of this study is to examine how the processing time of the Snort intrusion prevention system varies on two different processors; ARM Cortex-A53 and CortexA7. CPU usage was also examined to check if processing time depends on how much CPU Snort uses. This study will provide knowledge about how important a processor is for Snort to be able to perform well in terms of processing time and CPU usage. This knowledge will help choosing between Cortex-A53 and Cortex-A7 when implementing Snort IPS. To achieve the purpose of the study a literature search has been done to design an experimental environment. Snort can be classified as CPU-bound, which means that the system is dependent on a fast processor. In this context, a fast processor means that Snort is given enough time to process the amount of traffic it receives, otherwise the traffic can pass through without it being inspected, which can be harmful to the device that is protected by Snort. The results of the study show that the processing time in Snort on Cortex-A53 and Cortex-A7 differs and an obvious difference in CPU usage between the processors is shown. The study also presents the connection between processing time and CPU usage for Snort. In conclusion, ARM Cortex-A53 has better performance when using Snort IPS in terms of processing time and CPU usage, Cortex-A53 has 10 seconds less processing time and uses 2,87 times less CPU.
112

Utvärdering av JTAG Boundary scan somtestmetod vid temperaturchocker / Evaluation of JTAG Boundary scan as testmethod for temperature shocks

Bergman, Robin, Nilsson, Johan January 2020 (has links)
Rapporten beskriver ett examensarbete som har genomförts hos Scania R&D. Målet har varit att testa om det är möjligt att använda JTAG för kontroll av Ball Grid Array på komponenter som sitter på kretskort. Vanliga mätmetoder kan inte användas med mindre än att man separerar komponenten från kretskortet. Det som framkommer är att JTAG kan användas för att kontrollera Ball Grid Array samtidigt som kretskortet finns i ett så kallat temperaturchockskåp (som används för att testa hur utrustning och komponenter reagerar vid snabba temperaturändringar). Svårigheten består att den flatkabel som för över signaler mellan dator och kretskort är så lång att arrangemanget blir störningskänsligt. Detta kan lösas med en Extender som förstärker signalen så att kabeln kan vara längre än 0,5 meter. Resultat visar att JTAG kan användas med kretskort som befinner sig i temperaturchockskåpet. Målet har även varit att utveckla en kontrollmetod för att kontrollera att det kretskort som levereras till Scania uppfyller kraven i ISO 26262. För att kunna kontrollera om en leverantör uppfyller ISO 26262 behövs dokumentation som verifierar att produkten utvecklats i enlighet med ISO 26262. I ISO standarden finns det tolv delar som beskriver kraven på produkten. I rapporten har fokus lagts på delen som handlar om hårdvara. Ingen kontrollmetod har kunnat utvecklats då ISO standarden var mer omfattade än väntat.
113

Operación, reparación y mantenimiento de tarjetas de Centrales Telefónicas

Gonzales Cisneros, Cesar Ivan January 2010 (has links)
This report presents an exhibition all steps taken to implement a Laboratory of Plant Repairs Phone Cards. First are listed the issues that are missing from a laboratory to repair cards ATT call center technology. And no time to meet orders and preventive maintenance improvements and corrective. The lab is available to repair, diagnose and maintain the various cards that use technology call centers ATT - 5ESS. Besides being the burden that has more power, approximately 65% of full capacity at the national level. It also is taken into account the degree of quality of repairs and improvements to be made. Taking control and labeling of the cards and man hours worked, why are never short of supplies. Also be taken into account repair costs and inconvenience we have with the provider. And they must take into account the backs of phone cards have to be central in stock to operate smoothly and efficiently. At the end of this report presents recommendations and conclusions of the achievements in implementing this laboratory for repairs. Report called: “Operation, Repair and Maintenance of Central Telephone Cards” / Este informe expositivo presenta todos los pasos seguidos para poner en funcionamiento un Laboratorio de Reparaciones de Tarjetas de Centrales Telefónicas. Primero se enumeran las problemáticas que se tienen por falta de un laboratorio para reparar tarjetas de centrales telefónicas de tecnología ATT. Y no poder atender a tiempo los pedidos y mejoras de mantenimiento preventivo y correctivo. Dicho laboratorio se encargara de Reparar, Diagnosticar y dar Mantenimiento a las diferentes tarjetas que usan las Centrales Telefónicas de tecnología ATT - 5ESS. Además de ser la que tiene más carga de centrales, aproximadamente el 65% de toda su capacidad a nivel nacional. .Así mismo se tomara en cuenta el grado de calidad de las reparaciones y las mejoras a hacerse .Llevando un control y etiquetado de las tarjetas y horas hombre trabajadas, para qué nunca estén desabastecidas. Además se tomará en cuenta los costos de reparación y los inconvenientes que se tienen con el proveedor. Y se debe tener en cuenta los respaldos de tarjetas telefónicas de centrales que deban de tener en almacén para operar en forma ordenada y eficiente. Al final de este informe se presentan recomendaciones y conclusiones de lo realizado en la implementación de este laboratorio de Reparaciones. Informe que denominamos: “Operación, Reparación y Mantenimiento de Tarjetas de Centrales Telefónicas”
114

SIMD Optimizations of Software Rendering in 2D Video Games / SIMD optimeringar i mjukvarurendering av 2D spel

Mendel, Oskar, Bergström, Jesper January 2019 (has links)
Optimizing rendering is one of the greatest challenges faced by game developers. Most game engines make use of hardware rendering which uses technology specifically built for rendering. Before such hardware existed, game developers had to rely on the CPU to render their games. This is known as software rendering. Software rendering is not commonly used nowadays but has been seen in cases such as a backup for when the end users machine does not support the hardware based renderer of the application. Since the CPU is not purposely built for rendering, unlike the GPU, the developer has to perform optimizations to make the renderer more efficient in terms of speed. In this thesis, we present an approach which is a subset of parallel programming called Single Instruction, Multiple Data. This technique operates on vector based registers which means operations can be performed on multiple pieces of data at once. This is applied to an already built game engine in order to optimize its rendering. The results show a speed-up of 90.5% and a framerate increase from 30 frames per second to 133 frames per second within the rendering routine.
115

Modélisation simplifiée d'assemblages par éléments équivalents

Berot, Maxime 01 December 2009 (has links) (PDF)
Les départements de conception de pièces industrielles ont de plus en plus à modéliser de grandes structures contenant un nombre important de points d'assemblage (ex : avion, pont, rails, etc.). Cependant, exécuter des simulations avec une représentation explicite de chaque point d'assemblage reste à ce jour inenvisageable : problèmes numériques liés aux nombreux problèmes non-linéaires locaux à résoudre (contact, plasticité, endommagement), temps calculs et besoins mémoires trop importants, etc.). Afin de garder des temps de calcul raisonnables, une méthodologie visant à représenter en 3D le point d'assemblage de manière simple, tout en restant physiquement représentatif de la réalité, est nécessaire. Les travaux de cette thèse portent sur la mise au point d'une méthodologie basée sur une méthode innovante en éléments finis pour représenter de manière précise un point d'assemblage par déformation plastique (rivet, point clinché, vis, etc.) en prenant en compte le passé thermomécanique issu de la pose de ce point. Ces travaux sont réalisés sous FORGE et seront à terme développé dans la Cimlib. Plusieurs représentations du point d'assemblage sont proposées, notamment une représentation virtuelle, élaborée à partir des éléments finis définis par défaut lorsque deux plaques sont mises en contact. Le but d'un tel élément équivalent est de modéliser le comportement mécanique du point d'assemblage aussi précisément que possible selon six sollicitations mécaniques de base. Pour ce faire, le comportement équivalent optimal est identifiée à l'aide des courbes F/d et C/a des différentes sollicitations obtenus à l'aide d'un modèle complet numérique intégrant un comportement élasto-plastique. Une loi d'évolution de l'endommagement équivalent est aussi développée dans l'élément équivalent virtuel pour modéliser la rupture du point d'assemblage. Cette approche peut être assimilée à un problème d'optimisation où une fonction coût, définissant l'écart au sens des moindres carrés entre les deux courbes F/d ou C/a des modèles complet et équivalent, doit être minimisée. Une approche par Stratégie d'Evolution avec Métamodèle a été testée et s'est avérée fructueuse. Enfin, une synthèse du modèle équivalent virtuel vers un modèle simplifié utilisant un élément connecteur– plus rapide encore mais moins précis – est présentée. Toutes ces représentations sont validées sur des assemblages multipoints en comparant les résultats obtenus à la fois au modèle complet numérique et à des essais expérimentaux.
116

Simulations Physiques Interactives sur des Architectures Multi-Core et Multi-GPU

Hermann, Everton 30 June 2010 (has links) (PDF)
La simulation physique interactive est une composante clé pour les environnements virtuels. Toutefois, la quantité de calcul ainsi que la complexité du code augmente rapidement avec la variété, le nombre et la taille des objets simulés. Au cours de cette thèse nous avons étudié les différents moyens d'améliorer l'interactivité, et en même temps de minimiser l'impact sur le code de simulation. En premier lieu nous avons développé une nouvelle approche de détection de collisions pour les objets déformables qui est rapide et plus robuste que les approches traditionnelles de détection par proximité. Pour tirer profit des machines multi-core, nous proposons une approche de parallélisation qui repose sur un parallélisme des tâches. Avant l'éxecution d'un pas de temps nous extrayons un graphe de dépendance de tâche qui est partitionné pour définir la répartition des tâches entre les processeurs. Cette approche a un faible impact sur les algorithmes de simulation physique étant donné que le parallélisme est obtenu en changeant uniquement le code d'orchestration du lancement des tâches. Finalement, nous avons étendu nos travaux aux architectures multi-CPU et multi-GPU. L'utilisation de ces ressources de manière efficace et transparente est un enjeu de taille. Nous proposons un schéma de parallélisation pour l'équilibrage dynamique de charge entre plusieurs CPUs et GPUs. Nous nous appuyons sur une approche à deux niveaux associant un partitionement du graphe de tâches et l'équilibrage de charge par l'utilisation du vol de travail guidé par des critères d'affinité entre processeurs. Ces critères visent à limiter les migrations de taches entre les unités de calcul, et de favoriser l' association de petites tâches sur les processeurs et des grandes sur les GPU pour tirer parti de l'hétérogénéité.
117

Modelado y planificación de aplicaciones de Juegos masivos multijugador en red en entornos distribuidos

Barri Vilardell, Ignasi 02 March 2012 (has links)
El sector de los videojuegos ha estado en continuo crecimiento desde su aparición. Una muestra de ello es que, por ejemplo, la economía de los EUA tuvo un crecimiento de su PIB entre los años 2001 y 2004 (última época de crecimiento del PIB desde el año 2000) próximo al 3 %, en cambio, el mercado de los videojuegos creció en el mismo periodo cerca del 20%. A principios de milenio, la industria del videojuego tenía unos volúmenes de ingresos, clientes y trabajadores similares a los de la industria del cine y la música. Actualmente, el mercado del videojuego genera más beneficios que la música y el cine. Se ha llegado a una situación donde el videojuego tiene una hegemonía total sobre el resto de competidores de ocio doméstico; muestra de ello, son los datos sobre beneficios de la industria del videojuego, aportados en el año 2002, comprendidos entre 7 y 9 billones de dólares, sobrepasando así, los beneficios de la industria cinematográfica de Hollywood valorada en 8.1 billones. Este hecho ha sido posible debido a que durante los últimos años los videojuegos han ido expandiendo su ámbito de uso, pasando de la práctica en casa, a un modelo de accesibilidad totalmente ubicuo, donde es posible jugar desde cualquier parte haciendo uso de dispositivos móviles conectados a través de redes de datos (Internet, 3G. . . ). Acorde con su naturaleza, estos juegos se conocen como juegos masivos multijugador en red o con su nombre anglosajón MassivelyMultiplayer Online Games (MMOG). Dada la importancia económica y social de los MMOG, en el presente trabajo de tesis nos hemos centrado en estudiar y modelar este tipo de aplicaciones con el fin de mejorar la eficiencia de su ejecución. En la actualidad, la ejecución de este tipo de aplicaciones se lleva a cabo mayoritariamente mediante arquitecturas basadas en el paradigma Cliente-Servidor. Esto comporta que las infraestructuras de servidores y redes de conexión utilizadas para la ejecución de los MMOG sean frecuentemente actualizadas a costa de desembolsar grandes cantidades de dinero. Sin embargo, la afluencia masiva de nuevos usuarios (o jugadores) de este tipo de aplicaciones sigue comprometiendo día a día la escalabilidad de estas infraestructuras. Es por eso que existe una creciente línea de investigación, basada en solucionar estos problemas de escalabilidad presentes en las infraestructuras que dan servicio a los juegos MMOG. Una de las posibles soluciones, en las que se está centrando la comunidad científica, es en la ejecución paralela de los juegos MMOG, con el fin de distribuir la carga computacional que se genera y mejorar, de este modo, la eficiencia en su ejecución. Sin embargo, aplicar técnicas de computación paralela a las aplicaciones tipo MMOG es una tarea compleja, ya que este tipo de aplicaciones tienen un grado de dinamismo muy elevado, hecho que dificulta la generación de un modelo abstracto donde se identifiquen fácilmente la procedencia u orden de tareas. Por tanto, dividir este tipo de aplicaciones en un conjunto de tareas con el fin de asignarlas (o mapearlas) a distintos nodos de procesamiento resulta ser todo un desafío para la comunidad científica. Dentro de este marco, el presente trabajo de tesis se centra en la necesidad de presentar una solución para la ejecución de este tipo de aplicaciones MMOG en un entorno distribuido, donde el sistema sea capaz de crecer acorde con la demanda de servicios, al mismo tiempo que la calidad de servicio no se vea afectada. En este sentido se ha desarrollado una solución que afronta el problema desde una perspectiva global basada en dos fases. En una primera fase se estudia el comportamiento y las necesidades de recursos de cómputo de las aplicaciones MMOG, y se identifican las características diferenciales de los distintos tipos de juegos que existen. En una segunda fase, y a partir del modelo de comportamiento, se propone una arquitectura híbrida, formada por una parte central y una distribuida, que permite la ejecución paralela de juegos MMOG, aportando escalabilidad y eficiencia. Para ello se desarrollan un conjunto de políticas de asignación de tareas de cómputo, para ser ejecutadas concurrentemente, que explotan el sistema paralelo, contemplando a la vez, las características intrínsecas de los juegos en su modo de ejecución.
118

Deduplicerings påverkan på effektförbrukningen : en studie av deduplicering i ZFS

Andersson, Tommy, Carlsson, Marcus January 2011 (has links)
Uppsatsen beskriver arbetet och undersökning för hur deduplicering i filsystemet ZFS påverkar effektförbrukningen. En större mängd redundant data förekommer i centraliserade lagringssystem som förser virtualiserade servrar med lagringsutrymme. Deduplicering kan för den typen av lagringsmiljö eliminera redundant data och ger en stor besparing av lagringsutrymme. Frågan som undersökningen avsåg att besvara var hur ett lagringssystem påverkas av det extra arbete som det innebär att deduplicera data i realtid.Metoden för att undersöka problemet var att utföra fem experiment med olika typer av scenarion. Varje scenario innebar att filer kopierades till ett lagringssystem med eller utan deduplicering för att senare kunna analysera skillnaden. Dessutom varierades mängden deduplicerbar data under experimenten vilket skulle visa om belastningen på hårddiskarna förändrades.Resultatet av experimenten visar att deduplicering ökar effektförbrukning och processorbelastning medan antalet I/O-operationer minskar. Analysen av resultatet visar att med en stigande andel deduplicerbar data som skrivs till hårddiskarna så stiger också effektförbrukning och processorbelastning. / This report describes the process and outcome of the research on how the power consumption is affected by deduplication in a ZFS file system. A large amount of redundant data exists in centralized storage systems that provide virtualized servers with storage space. Deduplication can be used to eliminate redundant data and give an improved utilization of available space in this kind of storage environment. The question that the study sought to answer was how a storage systems power consumption is affected by the extra workload deduplication introduces.The method used to investigate the problem was to perform five experiments with different types of scenarios. The difference in each scenario was that the data was written to a storage system with or without deduplication to later analyze the difference. Each scenario had a varied amount deduplicatable data during the experiments which would show if the load on disks changed.The results show that deduplication increases the power consumption and CPU load while the I/O-operations decrease. The analysis of the result shows that increasing the deduplicatable data also increases the power consumption and CPU load.
119

Characterizing Middleware Mechanisms for Future Sensor Networks

Wolenetz, Matthew David 20 July 2005 (has links)
Due to their promise for supporting applications society cares about and their unique blend of distributed systems and networking issues, wireless sensor networks (SN) have become an active research area. Most current SN use an arrangement of nodes with limited capabilities. Given SN device technology trends, we believe future SN nodes will have the computational capability of today's handhelds, and communication capabilities well beyond today's 'motes'. Applications will demand these increased capabilities in SN for performing computations in-network on higher bit-rate streaming data. We focus on interesting fusion applications such as automated surveillance. These applications combine one or more input streams via synthesis, or fusion, operations in a hierarchical fashion to produce high-level inference output streams. For SN to successfully support fusion applications, they will need to be constructed to achieve application throughput and latency requirements while minimizing energy usage to increase application lifetime. This thesis investigates novel middleware mechanisms for improving application lifetime while achieving required latency and throughput, in the context of a variety of SN topologies and scales, models of potential fusion applications, and device radio and CPU capabilities. We present a novel architecture, DFuse, for supporting data fusion applications in SN. Using a DFuse implementation and a novel simulator, MSSN, of the DFuse middleware, we investigate several middleware mechanisms for managing energy in SN. We demonstrate reasonable overhead for our prototype DFuse implementation on a small iPAQ SN. We propose and evaluate extensively an elegant distributed, local role-assignment heuristic that dynamically adapts the mapping of a fusion application to the SN, guided by a cost function. Using several studies with DFuse and MSSN, we show that this heuristic scales well and enables significant lifetime extension. We propose and evaluate with MSSN a predictive CPU scaling mechanism for dynamically optimizing energy usage by processors performing fusion. The scaling heuristic seeks to make the ratio of processing time to communication time for each synthesis operation conform to an input parameter. We show how tuning this parameter trades latency degradation for improved lifetime. These investigations demonstrate MSSN's utility for exposing tradeoffs fundamental to successful SN construction.
120

Data Parallelism For Ray Casting Large Scenes On A Cpu-gpu Cluster

Topcu, Tumer 01 June 2008 (has links) (PDF)
In the last decade, computational power, memory bandwidth and programmability capabilities of graphics processing units (GPU) have rapidly evolved. Therefore, many researches have been performed to use GPUs in advanced graphics rendering. Because of its high degree of parallelism, ray tracing has been one of the rst algorithms studied on GPUs. However, the rendering of large scenes with ray tracing can easily exceed the GPU&#039 / s memory capacity. The algorithm proposed in this work uses a data parallel approach where the scene is partitioned and assigned to CPU-GPU couples in a cluster to overcome this problem. Our algorithm focuses on ray casting which is a special case of ray tracing mainly used in visualization of volumetric data. CPUs are pretty ecient in ow control and branching while GPUs are very fast performing intense oating point operations. Using these facts, the GPUs in the cluster are assigned the task of performing ray casting while the CPUs are responsible for traversing the rays. In the end, we were able to visualize large scenes successfully by utilizing CPU-GPU couples eectively and observed that the performance is highly dependent on the viewing angle as a result of load imbalance.

Page generated in 0.0449 seconds