• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 20
  • 11
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 88
  • 24
  • 20
  • 19
  • 16
  • 13
  • 12
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Efficient automotive electromagnetic modelling

Flint, James Alan January 2000 (has links)
The Transmission Line Modelling (TLM) method is applied to the electromagnetic modelling of vehicles. Implications of increasing frequencies in computer models of electromagnetic compatibility (EMC) studies are discussed. Efficient algorithms and resource management strategies are developed With a view to producing accurate results m a realistic computational run time. Theoretical aspects covered are: (1) the development and accuracy of the TLM method; (2) an improved Partial Huygens' surface for plane wave excitation; (3) an evaluation of high-performance local and global absorbing boundary conditions. Implementation aspects of TLM addressed include: (1) the effects of arithmetic precision on link line voltage and stub impedance calculations; (2) the development of an object-oriented computer code using the Object Modelling Technique; (3) methods for estimating and managing the memory requirement and run lime of simulations. It is shown that by optimizing algorithms and carefully managing resources, sufficient improvement can be made to allow relatively sophisticated models to be run on a modest desktop computer.
12

TLM para la verificación de integración en SoC

Soto, Manuel Francisco 28 September 2015 (has links)
La verificación de los sistemas digitales se ha vuelto una etapa crucial en el proceso de desarrollar un System on Chip (SoC). El esfuerzo que se debe de hacer en esta etapa es sustancial respecto de otras. Debido a esto se ha optado por incrementar los niveles de abstracción al momento de diseñar/verificar un sistema digital. En esta tesis se estudiará uno de estos niveles, TLM o Transaction Level Modelling, se presentar a su concepci on, sus ventajas y desventajas, con el n de poder diseñar un sistema de mediana complejidad atravesando varios niveles de abstracción. Se utilizarán métodos basados en simulación y métodos formales para verificar algunos de estos niveles. La tesis se centra como se dijo anteriormente en TLM, dándole un enfoque principal a la transacción como unidad atomica de transferencia de datos en un diseño. En el primer capítulo se hace una introducción a la problem atica/motivación, en el segundo capítulo se realiza un revelamiento del estado actual de la problem atica, el tercero introduce una breve introducción a TLM y su implementación en SystemC, el cuarto presenta la metodología propuesta para afrontar la problem atica. En el quinto capítulo se comenta cómo se realizó la implementación de la metodología. En el sexto capítulo se describen los resultados obtenidos. Mientras que el ultimo capítulo se realizar a una revisión de los resultados obtenidos, enumerándose los objetivos alcanzados y el trabajo a futuro en el area. La utilización de una metodología Top-Down facilito la generación de las correspondientes abstracciones del sistema (niveles) a fin de comprender sus problem aticas particulares. Se abordo la verificación tanto de bloques propios como bloques desarrollados por terceros, apreciando las características de los distintos enfoques de verificación según el caso. La inserción de los métodos formales como una herramienta adicional al flujo propuesto ha demostrado un aporte significativo al momento de realizar la verificación. La utilización de distintos lenguajes de descripción de hardware evidenci o las ventajas y desventajas de cada uno, análogamente se logró apreciar las ventajas y desventajas del entorno de verificación en comparación con entornos de verificación generados por otras metodologías ya establecidas. Por ultimo, se apreció el beneficio de la simulaci on mixta SystemC-Verilog o SystemC-VHDL, ganando una experiencia en el manejo de distintos lenguajes de HDL con el fin de generar conocimiento respecto de cuando debe de utilizarse o de que manera se debe utilizar los distintos lenguajes.
13

Tfdtlm: a New Computationally Efficient Frequency Domain Tlm Based on Transient Analysis Techniques

Salama, Iman Mohamed 01 October 1997 (has links)
The TLM was initially formulated and developed in the time domain. One key issue in a time domain analysis approach is the computational efficiency, where a single impulsive excitation could yield information over a wide frequency range. Also, it may be more natural and realistic to model non linear and frequency dispersive properties in the time domain rather than in the frequency domain. However, in some circumstances, frequency domain analysis may be more appealing. This might be due to the fact that the traditional teaching of electromagnetics emphasizes frequency domain concepts as frequency dispersive constitutive parameters, complex frequency dependent impedances and reflection coefficients. It might be even easier and more direct to be able to model these parameters in frequency domain rather than trying to synthesize an equivalent time domain model. The only limitation of frequency domain analysis, is that the analysis has to be repeated at every frequency point in the frequency range of interest. In this work, a new frequency domain TLM (FDTLM) approach is introduced which combines the superior features of both the time domain and the frequency domain TLM. The approach is based on a steady state analysis in the frequency domain using transient analysis techniques and hence is referred to as TFDTLM. In this approach, the link lines impedances are derived in the frequency domain and are chosen to model the frequency dispersive material parameters. The impedances and propagation constants are allowed to be complex and frequency dependent. Consequently, the TFDTLM can provide more accurate modeling for wave propagation in a frequency dispersive medium. The approach was inspired by the concept of bounce diagram in the time domain and the equivalent frequency domain bounce diagram. To make the TFDTLM approach computationally efficient as compared to other frequency domain TLM approaches, it was critical to maintain some relationship between the mesh response at one frequency point and any other frequency point. The goal was to be able to extract all the frequency domain information in a wide frequency range by performing only one simulation. To achieve this, the transitions between two adjacent cell in all media expressed by (exp(-gamma*L)) have to be expressed in terms of the propagation factor of some reference medium chosen to be the medium with the least propagation delay. This was done with the aid of a digital filter approximation that can be implemented iteratively inside the TLM mesh. The filter can be thought of as some type of compensation equivalent to the stubs in a time domain TLM, yet more accurate and more general. An important advantage of the TFDTLM is that it can easily be interfaced with existing time domain TLM schemes as well as absorbing boundary conditions originally developed for time domain TLM with the slightest modifications. The TFDTLM is implemented a three dimensional mesh and the superior performance of the new approach in modeling lossy inhomogeneous media is demonstrated. The new approach in addition to being computationally efficient as compared to other frequency domain TLM methods, has proven to have superior dispersion behavior in modeling lossy inhomogeneous media as compared to time domain TLM . / Ph. D.
14

Simulation de haut niveau de systèmes d'exploitations distribués pour l'exploration matérielle et logicielle d'architectures multi-noeuds hétérogènes / High level simulation of distributed operating system for hardware and software exploration of heterogeneous multi-nodes architectures

Huck, Emmanuel 25 November 2011 (has links)
Concevoir un système embarqué implique de trouver un compromis algorithme/architecture en fonction des contraintes temps-réel. Thèse : pour un MPSoC et plus particulièrement avec les circuits reconfigurables qui permettent de modifier le support d'exécution en cours de fonctionnement, l'évaluation préalable des comportements fluctuants d'un système réactif devient une nécessité. Il faut donc valider par simulation (de haut niveau) tout en permettant l'exploration de l'espace de conception architectural, matériel et logiciel. Le point de vue du gestionnaire de la plateforme est choisi pour explorer à haut niveau les réactions du système aux choix de partitionnement et surtout l'influence de l'algorithmique des services du système d'exploitation et de leurs implémentations possibles. Pour cela un modèle de services d'OS modulaire permet de simuler fonctionnellement et conjointement, en SystemC, le matériel, les tâches logicielles et le système d'exploitation, répartis sur plusieurs nœuds d'exécution hétérogènes communicants. Le modèle a permis d'évaluer l'architecture temps-réel idéale d'une application dynamique de vision robotique conjointement à l'exploration des services de gestion de zone reconfigurable modélisé. Par ailleurs, ce modèle d'OS à été intégré dans un simulateur de MPSoC hétérogène d'une puissance estimé à un Tera opérations par seconde. / Designing an embedded system implies to look for the right algorithm/architecture compromise depending on the real-time constraints. For MPSoC an especially with reconfigurable devices which enable to modify the running executing support, the preliminary evaluation of the variable behaviors of a reactive system becomes necessary.This could be done by a high level simulation allowing to explore the architectural design space, hardware and software. The platform manager point of view is used to explore the systems reactions to the partitioning choices and also the influence of the various algorithms and the impact of implementations of the operating system's services refined in hardware or software. For that, a SystemC model composed of modular OS services allow to jointly and functionally simulate hardware, software tasks and the operating system, distributed on heterogeneous communicating execution nodes. To evaluate the perfect real-time reconfigurable architecture of a dynamical robot vision application, we explored its partitioning and the useful OS services accordingly. This model has been integrated in a big simulator of an heterogeneous chip designed to provide a Tera operations per second power.
15

Vaizdų atpažinimo sistemos projektavimas ir tyrimas / Image processing system design and analysis

Jonutis, Vytautas, Jaraminas, Mindaugas 11 August 2008 (has links)
Darbe analizuojamas vaizdo apdorojimo sistemos modelis, kuris yra modeliuojamas. Pradinė modelio specifikacija yra aprašoma funkciniame lygyje. Modelio architektūrai modeliuoti mes naudojame transakcijų lygio SystemC, naudodamiesi ja mes galime greitai ir patogiai nustatyti, kokia turėtų būti modeliuojamos sistemos architektūra. Funkcinis modelis yra transformuojamas į sisteminį lygį naudojantis SystemC transakcijų modeliavimo kalba. Naudojantis pradine specifikacija ir TLM modeliu pereiname prie sintezuojamo aprašo. Transformuodami pradinį modelį aukštame abstrakcijos lygyje, mes sprendžiame sistemos architektūros problemą. Transformuodami aukšto lygio modelį į SystemC sintezuojamą aprašą, mes sprendžiame kintamųjų ir algoritmų transformavimo problemas. / In this work we analyzing video preprocessing system model. Primary model specifications are described in functional level. It is hard to decide what system architecture should be, so we used SystemC TLM modeling language, because it gives us easier way to change system architecture Using SystemC transaction level modeling (TLM) the functional primary specification are transformed from functional model to system level. To get synthesizable model we use primary specification and TLM model. We solve many system architecture problems while we where working on primary model transformation to high abstraction system. Transforming high abstraction level model to SystemC synthesizable code we solve variables selection problems and algorithms conversation problem.
16

Validation de systèmes sur puce complexes du niveau transactionnel au niveau transfert de registres / Validation of complex systems on a chip, from TLM level to RTL

Belhadj Amor, Zeineb 17 December 2014 (has links)
Cette thèse se situe dans le contexte de la vérification fonctionnelle des circuits intégrés complexes. L’objectif de ce travail est de créer un flot de vérification conjoint au flot de conception basé sur une technique appelée "vérification basée sur les assertions(ABV)". Le concept de base du flot est le raffinement automatique des spécifications formelles données sous la forme d’assertions PSL du niveau TLM au niveau RTL. La principale difficulté est la disparité des deux domaines : au niveau TLM, les communications sont modélisées par des appels de fonctions atomiques. Au niveau RTL, les échanges sont assurés par des signaux binaires évoluant selon un protocole de communication précis. Sur la base d’un ensemble de règles de transformation temporelles formelles, nous avons réalisé un outil permettant d’automatiser le raffinement de ces spécifications. Comme le raffinement des modèles, le raffinement des assertions n’est pas entièrement automatisable : des informations temporelles et structurelles doivent être fournies par l’utilisateur. L’outil réalise la saisie de ces informations de façon ergonomique, puis procède automatiquement à la transformation temporelle et structurelle de l’assertion. Il permet la génération d’assertions RTL mais aussi hybrides. Les travaux antérieurs dans ce domaine sont peu nombreux et les solutions proposées imposent de fortes restrictions sur les assertions considérées. À notre connaissance, le prototype que nous avons mis en oeuvre est le premier outil qui réalise un raffinement temporel fondé sur la sémantique formelle d’un langage de spécification standard (PSL). / The context of this thesis is the functional verification of complex integrated circuits.The objective of our work is to create a seamless verification flow joint to the design flowand based on a proved technique called Assertions-Based Verification (ABV). The mainchallenge of TLM to RTL refinement is the disparity of these two domains : at TLM,communications are modeled as atomic function calls handling all the exchanged data.At RTL, communications are performed by signals according to a specific communicationprotocol. The proposed temporal transformation process is based on a set of formaltransformation rules. We have developed a tool performing the automatic refinement ofPSL specifications. As for design refinement assertion refinement is not fully automated.Temporal and structural information must be provided by the user, using an ergonomicinterface. The tool allows the generation of assertions in RTL but also hybrid assertions.Little work has been done before in this area, and the proposed solutions suffer from severerestrictions. To our knowledge, our prototype is the first tool that performs a temporaltransformation of assertions based on the formal semantics of a standard specificationlanguage (PSL).
17

Simulation Native des Systèmes Multiprocesseurs sur Puce à l'aide de la Virtualisation Assistée par le Matériel / Native Simulation of Multiprocessor System-on-Chip using Hardware-Assisted Virtualization

Hamayun, Mian Muhammad 04 July 2013 (has links)
L'intégration de plusieurs processeurs hétérogènes en un seul système sur puce (SoC) est une tendance claire dans les systèmes embarqués. La conception et la vérification de ces systèmes nécessitent des plateformes rapides de simulation, et faciles à construire. Parmi les approches de simulation de logiciels, la simulation native est un bon candidat grâce à l'exécution native de logiciel embarqué sur la machine hôte, ce qui permet des simulations à haute vitesse, sans nécessiter le développement de simulateurs d'instructions. Toutefois, les techniques de simulation natives existantes exécutent le logiciel de simulation dans l'espace de mémoire partagée entre le matériel modélisé et le système d'exploitation hôte. Il en résulte de nombreux problèmes, par exemple les conflits l'espace d'adressage et les chevauchements de mémoire ainsi que l'utilisation des adresses de la machine hôte plutôt des celles des plates-formes matérielles cibles. Cela rend pratiquement impossible la simulation native du code existant fonctionnant sur la plate-forme cible. Pour surmonter ces problèmes, nous proposons l'ajout d'une couche transparente de traduction de l'espace adressage pour séparer l'espace d'adresse cible de celui du simulateur de hôte. Nous exploitons la technologie de virtualisation assistée par matériel (HAV pour Hardware-Assisted Virtualization) à cet effet. Cette technologie est maintenant disponibles sur plupart de processeurs grande public à usage général. Les expériences montrent que cette solution ne dégrade pas la vitesse de simulation native, tout en gardant la possibilité de réaliser l'évaluation des performances du logiciel simulé. La solution proposée est évolutive et flexible et nous fournit les preuves nécessaires pour appuyer nos revendications avec des solutions de simulation multiprocesseurs et hybrides. Nous abordons également la simulation d'exécutables cross- compilés pour les processeurs VLIW (Very Long Instruction Word) en utilisant une technique de traduction binaire statique (SBT) pour généré le code natif. Ainsi il n'est pas nécessaire de faire de traduction à la volée ou d'interprétation des instructions. Cette approche est intéressante dans les situations où le code source n'est pas disponible ou que la plate-forme cible n'est pas supporté par les compilateurs reciblable, ce qui est généralement le cas pour les processeurs VLIW. Les simulateurs générés s'exécutent au-dessus de notre plate-forme basée sur le HAV et modélisent les processeurs de la série C6x de Texas Instruments (TI). Les résultats de simulation des binaires pour VLIW montrent une accélération de deux ordres de grandeur par rapport aux simulateurs précis au cycle près. / Integration of multiple heterogeneous processors into a single System-on-Chip (SoC) is a clear trend in embedded systems. Designing and verifying these systems require high-speed and easy-to-build simulation platforms. Among the software simulation approaches, native simulation is a good candidate since the embedded software is executed natively on the host machine, resulting in high speed simulations and without requiring instruction set simulator development effort. However, existing native simulation techniques execute the simulated software in memory space shared between the modeled hardware and the host operating system. This results in many problems, including address space conflicts and overlaps as well as the use of host machine addresses instead of the target hardware platform ones. This makes it practically impossible to natively simulate legacy code running on the target platform. To overcome these issues, we propose the addition of a transparent address space translation layer to separate the target address space from that of the host simulator. We exploit the Hardware-Assisted Virtualization (HAV) technology for this purpose, which is now readily available on almost all general purpose processors. Experiments show that this solution does not degrade the native simulation speed, while keeping the ability to accomplish software performance evaluation. The proposed solution is scalable as well as flexible and we provide necessary evidence to support our claims with multiprocessor and hybrid simulation solutions. We also address the simulation of cross-compiled Very Long Instruction Word (VLIW) executables, using a Static Binary Translation (SBT) technique to generated native code that does not require run-time translation or interpretation support. This approach is interesting in situations where either the source code is not available or the target platform is not supported by any retargetable compilation framework, which is usually the case for VLIW processors. The generated simulators execute on top of our HAV based platform and model the Texas Instruments (TI) C6x series processors. Simulation results for VLIW binaries show a speed-up of around two orders of magnitude compared to the cycle accurate simulators.
18

Advances in SystemC/TLM virtual platforms : configuration, communication and parallelism / Contribution à l'amélioration des plateformes virtuelles SystemC/TLM : configuration, communication et parallélisme

Delbergue, Guillaume 18 December 2017 (has links)
Le marché de l’Internet des Objets (IdO) est en pleine progression. Il va continuer à croître et à se développer à un rythme soutenu dans les prochaines années. Les objets connectés sont constitués de composants électroniques dédiés, de processeurs et de codes logiciels. La conception de tels systèmes constitue aujourd’hui un challenge au niveau industriel. Ce challenge est renforcé par la concurrence du marché et le délai de commercialisation qui impactent directement sur le développement d’un système. Le processus de conception actuel consiste en l’élaboration d’un cahier des charges. Dans un premier temps, l’équipe en charge du développement matériel commence à développer le produit. Ensuite, la partie applicative peut être mise au point par les développeurs logiciels. Une fois le premier prototype matériel disponible, l’équipe logicielle peut alors intégrer sa partie et tenter de la valider fonctionnellement. Cette étape peut mettre en lumière des défauts dans le logiciel mais aussi lors de la conception matérielle. Malheureusement,la découverte ce type d’erreurs intervient beaucoup trop tard dans le processus de conception retardant la commercialisation du système. Afin de sécuriser au plus tôt les développements matériel et logiciel, des méthodologies basées sur le standard SystemC/Transaction Level Modeling (TLM) ont été proposées. Elles permettent de modéliser et de simuler du matériel. Durant les phases amont de conception d’un système, elles permettent de mettre en commun une version virtuelle du (futur) système entre les équipes logicielle et matérielle. Cette version virtuelle est plus couramment appelée plateforme virtuelle. Elle permet de tester et de valider le plus tôt possible lors du cycle de conception, de réduire le coût matériel en limitant la fabrication de prototypes, mais aussi de gagner du temps et donc de l’argent en diminuant les risques. Or, les objets intègrent de plus en plus de fonctionnalités aux niveaux matériel et logiciel. Les besoins ayant évolué, le standard de simulation SystemC/TLM ne répond plus à l’heure actuelle à toutes les attentes. Ces attentes concernent plus particulièrement les aspects liés à la simulation de systèmes composés de nombreuses fonctionnalités, de protocoles de communication disparates mais aussi de modèles complexes et consommateur de temps pendant la simulation. Des activités de recherche ont déjà été menées sur ces sujets. Cependant, elles ont pour la plupart abouti à des solutions qui ne sont pas interopérables. Les solutions existantes ne permettent donc pas de bénéficier de la réutilisation des modèles de la littérature. Afin de répondre à ces problèmes,une solution permettant la configuration de modèles SystemC/TLM a été recherchée. Cette dernière fait désormais partie du standard Configuration, Control and Inspection (CCI). Dans un second temps, la modélisation de protocoles de communication à un haut niveau d’abstraction(TLM Loosely Timed (LT) et Approximately Timed (AT)) a été étudiée, et plus précisément des protocoles de type non bus. Une évolution du standard actuel permettant d’améliorer le support,l’interopérabilité, la réutilisation a été proposée dans le cadre de la thèse. Ensuite, une évolution du standard SystemC et plus précisément du comportement du noyau de simulation a été étudiée pour supporter l’attente d’événements asynchrones. Ce type d’événement ouvre la voie à la parallélisation et la distribution de modèles sur différents threads / machines. Enfin, une solution permettant l’intégration de modèles de Central Processing Units (CPU) intégrés dans QuickEMUlator (QEMU), un émulateur / virtualisateur de système, a été étudiée. Finalement, toutes ces contributions ont été associées à travers la modélisation d’un ensemble d’objets connectés à une passerelle. / The market for Internet Of Things (IOT) is on the rise. It is predicted to continue to grow at a sustained pace in the coming years. Connected objects are composed of dedicated electronic components, processors and software. The design of such systems is today a challenge from an industrial point of view. This challenge is reinforced by market competition and time tomarket that directly impact the success of a system. In a current design process involvesthe development of a specification. Initially, the team in charge of hardware development beginsto design the system. Second, the application part can be done by software developers. Oncethe first hardware prototype is available, the software team can then integrate their part and try tovalidate the functionality. This step may reveal defects in the software but also in the hardware architecture. Unfortunately, the discovery of these errors occurs far too late in the design process,could impacts the marketing of the system and potentially its success. In order to ensure that the hardware and software designs will work together as early as possible, methodologies based onthe SystemC / Transaction Level Modeling (TLM) standard have been widely adopted. They involvethe modelling and simulation of the proposed hardware architectures. During the initial phasesof a product’s design, they enable the software and hardware team to share a virtual version ofthe (future) system. This virtual version is more commonly referred to as a virtual platform. It facilitates early software development, test and validation; reduces material cost by limiting the number of prototypes; saves time and money by reducing risks. However, connected objects are increasingly incorporating hardware and software features. As the requirements have evolved, theSystemC / TLM simulation standard no longer meets all expectations. It includes aspects related to the simulation of systems composed of many functionality, disparate communication protocolsbut also complex and time consuming models during the simulation. Some works have already been carried out on these subjects. However, as the number of components increases, all formsof interoperability of models and tools become increasingly difficult to handle. Moreover, mostof the research has resulted in solutions that are not inter-operable and can not reuse existingmodels. To solve these problems, this thesis proposes a solution for configuring SystemC / TLMmodels. It is now part of the standard Configuration, Control and Inspection (CCI). In a secondstep, the modeling of high-level abstraction communication protocols (TLM Loosely Timed (LT)and Approximately Timed (AT)) has been studied, as it relates to non-bus protocols. An evolution of the standard to improve support, interoperability and reuse is also proposed. In a third step,a change of the SystemC standard and more precisely of the behavior of the simulation kernelhas been studied to support asynchronous events. These open the way to parallelization and distribution of models on different threads / machines. In a fourth step, a solution to integrate Central Processing Units (CPU) models integrated in Quick EMUlator (QEMU), a system emulator/ virtualizer, has been studied. Finally, all these contributions have been applied in the modeling ofa set of objects connected to a gateway.
19

Nouveau modèle TLM thermique pour la dosimétrie numérique de structures fortement hétérogènes / New TLM thermal model for numerical dosimetry of highly heterogeneous structures

Makhlouf, Oualid 06 December 2016 (has links)
Depuis plusieurs années, le développement des technologies sans fil utilisant les ondes électromagnétiques dans différents milieux d’applications (télécommunications, médicales, militaires) ne cesse d’augmenter. Il devient donc nécessaire d’évaluer les effets de l’environnement sur les antennes en amont de leur conception afin d’optimiser la transmission entre les divers objets connectés. De plus, les études sur les systèmes utilisant les ondes électromagnétiques amènent à se poser un certain nombre de questions autour de l’interaction ondes/vivant, nous obligeant à considérer des modèles fortement hétérogènes tel que le corps humain.Face aux difficultés de mesures, la simulation permet de quantifier numériquement la puissance absorbée par les tissus au travers du DAS et l’élévation de la température correspondante. Dans ce domaine, la méthode TLM (Transmission Line Matrix) s’est révélée être particulièrement adaptée au calcul du DAS dans des structures fortement hétérogènes grâce à la colocalisation des champs au centre de la maille.Au cours de cette thèse, un outil basé sur la méthode TLM permettant d’effectuer des études dosimétriques en calculant le DAS et la température dans des milieux fortement hétérogènes a été développé. La première étape a été consacrée au développement d’un « module »pour calculer la DAS et la mise en place d’une interface pour lire les modèles voxélisés. Ensuite, un solveur thermique basé sur la TLM a été développé afin de simuler la température dans des milieux biologiques exposés aux ondes EM. Enfin, la comparaison avec le logiciel commercial CST a permis de valider notre outil et de l’appliquer par la suite pour étudier l’exposition d’une tête humaine au rayonnement d’un Smartphone modélisé par une PIFA fonctionnant à 900MHz / For several years, the development of the wireless technologies using the electromagnetic waves in various applications (telecommunications, medical, military …) does not stop increasing. Thus, it becomes necessary to evaluate the effects of the environment on antennas upstream to their conception to optimize the transmission between diverse connected objects. Furthermore, studies on the systems using the electromagnetic waves lead to ask a number of questions about waves/living interaction, obliging us to consider highly heterogeneous models such as human body.In front of difficulties of measures, the simulation allows to quantify numerically the power absorbed by tissues and the corresponding temperature rise. In this domain, the TLM method (Transmission Line Matrix) has proved to be particularly adapted to the simulation of the SAR in highly heterogeneous structures thanks to the co-localisation of the fields at the centre of mesh.In this thesis, a tool based on the TLM method to make dosimetrics studies by calculating the SAR and the temperature in highly heterogeneous media has been developed. The first step was dedicated to the development of a “module” to calculate the SAR and the implementation of an interface to read the voxelized models. Then, a thermal solver based on the TLM was developed in order to simulate the temperature in biological media exposed to the EM waves. Finally, the comparison with the commercial software CST allowed to validate our tool and to apply it afterward to study the exposure of a human head to the radiation of a Smartphone modelled by a PIFA antenna operating at 900MHz
20

Application of multi-core and cluster computing to the Transmission Line Matrix method

Browne, Daniel R. January 2014 (has links)
The Transmission Line Matrix (TLM) method is an existing and established mathematical method for conducting computational electromagnetic (CEM) simulations. TLM models Maxwell s equations by discretising the contiguous nature of an environment and its contents into individual small-scale elements and it is a computationally intensive process. This thesis focusses on parallel processing optimisations to the TLM method when considering the opposing ends of the contemporary computing hardware spectrum, namely large-scale computing systems versus small-scale mobile computing devices. Theoretical aspects covered in this thesis are: The historical development and derivation of the TLM method. A discrete random variable (DRV) for rain-drop diameter,allowing generation of a rain-field with raindrops adhering to a Gaussian size distribution, as a case study for a 3-D TLM implementation. Investigations into parallel computing strategies for accelerating TLM on large and small-scale computing platforms. Implementation aspects covered in this thesis are: A script for modelling rain-fields using free-to-use modelling software. The first known implementation of 2-D TLM on mobile computing devices. A 3-D TLM implementation designed for simulating the effects of rain-fields on extremely high frequency (EHF) band signals. By optimising both TLM solver implementations for their respective platforms, new opportunities present themselves. Rain-field simulations containing individual rain-drop geometry can be simulated, which was previously impractical due to the lengthy computation times required. Also, computationally time-intensive methods such as TLM were previously impractical on mobile computing devices. Contemporary hardware features on these devices now provide the opportunity for CEM simulations at speeds that are acceptable to end users, as well as providing a new avenue for educating relevant user cohorts via dynamic presentations of EM phenomena.

Page generated in 0.0314 seconds