Spelling suggestions: "subject:"applicatications)"" "subject:"applicationoptions)""
861 |
Etude et optimisation d'une décharge "Plasma Gun" à pression atmosphérique, pour des applications biomédicales / Characterization of an atmospheric pressure pulsed plasma gun for biomedical applicationsSarron, Vanessa 16 December 2013 (has links)
L’utilisation de plasmas, qu’ils soient thermiques ou basse pression, dans le domaine biomédical remonte aux années 1970. Au cours de ces dernières années, les développements concernant des jets de plasma froid à pression atmosphérique, ont permis un élargissement des domaines d’applications biomédicales des plasmas. Au sein du GREMI, un type de jet de plasma a été développé : le Plasma Gun. Le plasma généré par le Plasma Gun se propage sur de longues distances à l’intérieur de capillaires. L’optimisation des traitements visés nécessite une étude approfondie des décharges créées par le Plasma Gun. La caractérisation du Plasma Gun a mis en évidence la génération de Pulsed Atmospheric pressure Plasma Streams ou PAPS, ces derniers se propageant du réacteur jusque dans l’air ambiant où ils génèrent une plume plasma. Ces PAPS présentent deux modes de propagation, au cours desquels une connexion entre le front d’ionisation et le réacteur est présente en permanence. Ces deux modes nommés respectivement Wall-hugging et Homogène, diffèrent principalement par la morphologie et la vitesse de propagation des PAPS qui leur sont associés. Chacun de ces modes présentent donc des caractéristiques qui leur sont propres mais certaines propriétés de propagation leur sont communes, telles que la possibilité de division ou de réunion de PAPS, ainsi que du transfert de PAPS à travers une barrière diélectrique ou via un capillaire métallique creux. L’étude de la plume plasma, propagation des PAPS dans l’air ambiant, a souligné l’importance de la longueur des capillaires sur la longueur du jet plasma. De plus, la génération du plasma a une très forte influence sur l’écoulement du gaz et la structuration du jet lors de son expansion dans l’air. / The use of plasmas, thermic or low pressure, in biomedical goes back up to 1970s. During these last years, atmospheric pressure cold plasma jets have been developed, allowed an increase of biomedical applications of plasmas. In GREMI, a plasma jet was developed : the Plasma Gun (PG). The plasma generated by the PG propagates on long distances inside capillaries. The optimization of the aimed treatments requires a detailed study of the discharges created by the PG. The characterization of the PG highlights the generation of Pulsed Atmospheric pressure Plasma Streams or PAPS, these last ones propagating from the reactor to the capillary outlet (ambient air) where they generate a plasma plume. These PAPS present two propagation modes, during which a connection between the ionization front and the reactor is present permanently. These two modes named respectively Wall-hugging and Homogeneous, differ mainly by the morphology and their propagation velocity. These modes have common characteristics, such as the possibility of division or meeting of PAPS, as well as the transfer of PAPS through a dielectric barrier or via a hollow metal capillary. The study of the plasma plume underlined the importance of the length of capillaries on the length of the plasma jet. Furthermore, the generation of the plasma has a very strong influence on the gas flow and the jet structuration during air expansion.
|
862 |
Optimizing PaaS provider profit under service level agreement constraints / Optimisation du profit des fournisseurs PaaS sous des contraintes de contrat de serviceDib, Djawida 07 July 2014 (has links)
L'informatique en nuage (cloud computing) est un paradigme émergent qui révolutionne l'utilisation et la commercialisation des services informatiques. De nos jours, l'impact socio-économique de l'informatique en nuage et plus particulièrement des services de PaaS (plate-forme en tant que service) devient essentiel, puisque le nombre d'utilisateurs et de fournisseurs des cloud PaaS est en pleine croissance. L'objectif principal des fournisseurs de cloud PaaS est de générer le maximum de profit des services qu'ils fournissent. Cela les oblige à faire face à un certain nombre de défis, tels que la gestion efficace des ressources sous-jacentes et la satisfaction des SLAs (contrat de service) des applications hébergées. Dans cette thèse, nous considérons un environnement PaaS hybride de cloud bursting, où le fournisseur PaaS possède un nombre limité de ressources privées et a la possibilité de louer des ressources publiques. Ce choix permet au fournisseur PaaS d'avoir un contrôle complet sur les services hébergés dans les ressources privées et de profiter de ressources publiques pour gérer les périodes de pointe. De plus, nous proposons une solution rentable pour gérer un tel système PaaS sous des contraintes de SLA. Nous définissons une politique d'optimisation de profit qui, à chaque requête d'un nouveau client, évalue le coût d'hébergement de son application en utilisant les ressources publiques et privées et choisit l'option qui génère le plus de profit. Pendant les périodes de pointe la politique considère deux autres options. La première option consiste à emprunter quelques ressources aux applications en cours d'exécution tout en considérant le paiement de pénalités si leur qualité de service est affectée. La seconde option consiste à attendre que des ressources privées soient libérés tout en considérant le paiement de pénalités si la qualité de service de la nouvelle application est affectée. En outre, nous avons conçu et mis en œuvre une architecture de cloud PaaS, appelée Meryn, qui intègre la politique d'optimisation proposée, supporte le cloud bursting et héberge des applications du type batch et MapReduce. Les résultats de notre évaluation montrent l'efficacité de notre approche dans l'optimisation du profit du fournisseur. En effet, comparée à une approche de base, notre approche fournit jusqu'à 11.59 % et 9.02 % plus de profits pour le fournisseur dans respectivement les simulations et les expériences. / Cloud computing is an emerging paradigm revolutionizing the use and marketing of information technology. As the number of cloud users and providers grows, the socio-economical impact of cloud solutions and particularly PaaS (platform as a service) solutions is becoming increasingly critical. The main objective of PaaS providers is to generate the maximum profit from the services they provide. This requires them to face a number of challenges such as efficiently managing the underlying resources and satisfying the SLAs of the hosted applications. This thesis considers a cloud-bursting PaaS environment where the PaaS provider owns a limited number of private resources and is able to rent public cloud resources, when needed. This environment enables the PaaS provider to have full control over services hosted on the private cloud and to take advantage of public clouds for managing peak periods. In this context, we propose a profit-efficient solution for managing the cloud-bursting PaaS system under SLA constraints. We define a profit optimization policy that, after each client request, evaluates the cost of hosting the application using public and private resources and chooses the option that generates the highest profit. During peak periods the optimization policy considers two more options. The first option is to take some resources from running applications, taking into account the payment of penalties if their promised quality of service is affected. The second option is to wait until private resources become available, taking into account the payment of penalties if the promised quality of service of the new application is affected. Furthermore we designed and implemented an open cloud-bursting PaaS system, called Meryn, which integrates the proposed optimization policy and provides support for batch and MapReduce applications. The results of our evaluation show the effectiveness of our approach in optimizing the provider profit. Indeed, compared to a basic approach, our approach provides up to 11.59% and 9.02% more provider profit in, respectively, simulations and experiments.
|
863 |
Synthèse de nouveaux nanomateriaux par ablation laser ultra-brève en milieu liquide pour des applications biomédicales / Synthesis of novel nanomaterials for biomedical applications by ultrashort laser ablation in liquidsMaximova, Ksenia 15 December 2014 (has links)
De nos jours, les nanomatériaux inorganiques sont devenus des objets importants pour de nombreuses applications. En même temps la pureté du matériau employé est le facteur clé, et souvent les méthodes de synthèse chimiques ne peuvent assurer l'absence d'une contamination résiduelle. Dans ce contexte, nous avons investigué et développé la synthèse par laser de nanoparticules d'or et de silicium en contrôlant leurs taille et composition. Cette technique se révèle être une approche entièrement physique de la fabrication des nanoparticules pures et exemptes d'agents tensioactifs et de sous-produits toxiques. L'approche engagé comprend deux étapes : 1) la génération de la suspension de micro- et nanoparticules par broyage mécanique, et par ablation préliminaire d'une cible solide ; 2) la fragmentation laser ultra-rapide de colloïdes en suspension qui aboutit à la formation de nanoparticules stables, non agrégées, cristallines et avec une faible dispersion de taille. Ce travail se concentre sur la synthèse de nanoparticules d'or de taille contrôlable entre 7 et 50 nm en absence de ligands. De plus, cette technique nous permet d'obtenir des nano-alliages bimétalliques et d'effectuer un couplage in situ de nanoparticules d'or avec des molécules organiques. Ensuite nous montrons la possibilité d'ajuster la taille moyenne et l'épaisseur de la couche d'oxyde des nanoparticules de Si en variant la concertation des particules initiale, le pH et la quantité d'oxygène dissoutes. Enfin, nous démontrons les propriétés optiques et plasmoniques des nanoparticules obtenues au cours de ce travail et leur potentiel pour les applications catalytiques et biomédicales. / Inorganic nanomaterials are of a major interest for numerous applications, specifically bioimaging, biomedicine, catalysis, and also surface enhanced Raman scattering spectroscopy. In most cases, the purity of the employed material is a key factor. Often the conventional chemical ways of synthesis cannot provide the desirable cleanliness. The aim of this thesis is to investigate and develop a laser-based synthetic concept for the fabrication of Au and Si-based nanoparticles with controlled parameters, free of surfactants and toxic by-products. The engaged approach includes two steps: 1) the generation of a raw suspension of micro- and nanoparticles by either mechanical milling or preliminary ablation of a target; 2) ultrafast laser-induced fragmentation from the suspended colloids leading to the formation of stable, non-aggregated, low-size dispersed and crystalline nanoparticles. In particular, we focus on the technique of the synthesis of bare Au nanoparticles with tunable size between 7 and 50 nm in the absence of any ligands. Moreover, this technique allows performing the in situ coupling of the Au nanoparticles with organic molecules and alloying at the nanoscale. Furthermore, we show the possibility of tuning the mean size and the thickness of the oxide shell of Si nanoparticles by varying the initial concentration of microparticles, the pH and the amount of dissolved oxygen. Finally, we demonstrate the optic and plasmonic properties of the nanoparticles synthesized by the techniques established in our work and their potential for the applications in catalysis and biomedicine.
|
864 |
Contributions à une nouvelle approche de Recherche d'Information basée sur la métaphore de l'impédance et illustrée sur le domaine de la santé / Contributions to a new information retrieving approach based on the impedance metaphor and illustrated on the health domainGuemeida, Abdelbasset 16 October 2009 (has links)
Les récentes évolutions dans les technologies de l’information et de la communication, avec le développement de l’Internet, conduisent à l’explosion des volumes des sources de données. Des nouveaux besoins en recherche d’information émergent pour traiter l’information en relation aux contextes d’utilisation, augmenter la pertinence des réponses et l’usabilité des résultats produits, ainsi que les possibles corrélations entre sources de données, en rendant transparentes leurs hétérogénéités. Les travaux de recherche présentés dans ce mémoire apportent des contributions à la conception d’une Nouvelle Approche de Recherche d’Information (NARI) pour la prise de décision. NARI vise à opérer sur des grandes masses de données cataloguées, hétérogènes, qui peuvent être géo référencées. Elle est basée sur des exigences préliminaires de qualité (standardisation, réglementations), exprimées par les utilisateurs, représentées et gérées à l’aide des métadonnées. Ces exigences conduisent à pallier le manque de données ou leur insuffisante qualité, pour produire une information de qualité suffisante par rapport aux besoins décisionnels. En utilisant la perspective des utilisateurs, on identifie et/ou on prépare des sources de données, avant de procéder à l’étape d’intégration des contenus. L’originalité de NARI réside dans la métaphore de l’écart d’impédance (phénomène classique lorsque on cherche à connecter deux systèmes physiques hétérogènes). Cette métaphore, dont R. Jeansoulin est à l’origine, ainsi que l’attention portée au cadre réglementaire, en guident la conception. NARI est structurée par la dimension géographique (prise en compte de divers niveaux de territoires, corrélations entre plusieurs thématiques) : des techniques d’analyse spatiale supportent des tâches de la recherche d’information, réalisées souvent implicitement par les décideurs. Elle s’appuie sur des techniques d’intégration de données (médiation, entrepôts de données), des langages de représentation des connaissances et des technologies et outils relevant du Web sémantique, pour supporter la montée en charge, la généralisation et la robustesse théorique de l’approche. NARI est illustrée sur des exemples relevant de la santé / The recent developments in information and communication technologies along with the growth of the Internet have lead to the explosion of data source volumes. This has created many growing needs such as in information retrieval to: treat the information according to its usage context, to increase the relevance of answers and the usability of results, and to increase the potential correlations between results, which can be done by making the heterogeneities and source distribution transparent. Our contributions consist in designing a NARI (New Approach to Information Retrieval) for decision-making. NARI is designed to operate on large amounts of catalogued and heterogeneous data that can be geo-referenced. It is based on quality preliminary requirements expressed by users, which are represented and managed using metadata. These requirements lead to the lack of data or their insufficient quality in relation to decision-making needs. Using the users’ perspective, we identify and/or prepare the data sources, before integration step processing. NARI’s originality relies on the metaphor of the impedance mismatch (classical phenomenon when we try to connect two physical heterogeneous systems), due to R. Jeansoulin. This metaphor, as well as the attention paid to regulatory framework (standardization), guides the design of NARI. The geographical dimension structures NARI, taking into account various territorial levels, correlations between several themes. Thus, it takes advantage of spatial analysis techniques, by automating information retrieval tasks, often implicitly made by policy makers. NARI is based on data integration techniques (mediation, data warehouses), knowledge representation languages and a set of Semantic Web technologies and tools, adapted to support the scalability, robustness and generalization theory of the approach. NARI is illustrated on examples relevant to the health domain
|
865 |
Images et fibres des applications rationnelles et algèbres d'éclatement / Images and fibers of rational applications and burst algebraTran, Quang Hoa 17 November 2017 (has links)
Les applications rationnelles sont des objets fondamentaux en géométrie algébrique. Elles sont utilisées pour décrire certains objets géométriques, tels que la représentation paramétrique d'une variété algébrique rationnelle. Plus récemment, les applications rationnelles sont apparues dans des contextes d'informatique pour l'ingénierie, dans le domaine de la modélisation de formes, en utilisant des méthodes de conception assistée par ordinateur pour les courbes et les surfaces. Des paramétrisations des courbes et des surfaces sont utilisées de manière intensive afin décrire des objets dans la modélisation géométrique, tel que structures des voitures, des avions. Par conséquent, l'étude des applications rationnelles est d'intérêt théorique dans la géométrie algébrique et l'algèbre commutative, et d'une importance pratique dans la modélisation géométrique. Ma thèse étudie les images et les fibres des applications rationnelles en relation avec les équations des algèbres de Rees et des algèbres symétriques. Dans la modélisation géométrique, il est important d'avoir une connaissance détaillée des propriétés géométriques de l'objet et de la représentation paramétrique avec lesquels on travaille. La question de savoir combien de fois le même point est peint (c'est-à-dire, correspond à des valeurs distinctes du paramètre), ne concerne pas seulement la variété elle-même, mais également la paramétrisation. Il est utile pour les applications de déterminer les singularités des paramétrisations. Dans les chapitres 2 et 3, on étudie des fibres d'une application rationnelle de P^m dans P^n qui est génériquement finie sur son image. Une telle application est définie par un ensemble ordonné de (n+1) polynômes homogènes de même degré d. Plus précisément, dans le chapitre 2, nous traiterons le cas des paramétrisations de surfaces rationnelles de P^2 dans P^3, et y donnons une borne quadratique en d pour le nombre de fibres de dimension 1 de la projection canonique de son graphe sur son image. Nous déduisons ce résultat d'une étude de la différence du degré initial entre les puissances ordinaires et les puissances saturées. Dans le chapitre 3, on affine et généralise les résultats sur les fibres du chapitre précédent. Plus généralement, nous établissons une borne linéaire en d pour le nombre de fibres (m-1)-dimensionnelles de la projection canonique de son graphe sur son image, en utilisant des idéaux de mineurs de la matrice jacobienne.Dans le chapitre 4, nous considérons des applications rationnelles dont la source est le produit de deux espaces projectifs.Notre principal objectif est d'étudier les critères de birationalité pour ces applications. Tout d'abord, un critère général est donné en termes du rang d'une couple de matrices connues sous le nom "matrices jacobiennes duales". Ensuite, nous nous concentrons sur des applications rationnelles de P^1 x P^1 vers P^2 en bidegré bas et fournissons de nouveaux critères de birationalité en analysant les syzygies des équations de définition de l'application; en particulier en examinant la dimension de certaines parties bigraduées du module de syzygies. Enfin, les applications de nos résultats au contexte de la modélisation géométrique sont discutées à la fin du chapitre. / Rational maps are fundamental objects in algebraic geometry. They are used to describe some geometric objects,such as parametric representation of rational algebraic varieties. Lately, rational maps appeared in computer-engineering contexts, mostly applied to shape modeling using computer-aided design methods for curves and surfaces. Parameterized algebraic curves and surfaces are used intensively to describe objects in geometric modeling, such as car bodies, airplanes.Therefore, the study of rational maps is of theoretical interest in algebraic geometry and commutative algebra, and of practical importance in geometric modeling. My thesis studies images and fibers of rational maps in relation with the equations of the symmetric and Rees algebras. In geometric modeling, it is of vital importance to have a detailed knowledge of the geometry of the object and of the parametric representation with which one is working. The question of how many times is the same point being painted (i.e., corresponds to distinct values of parameter), depends not only on the variety itself, but also on the parameterization. It is of interest for applications to determine the singularities of the parameterizations. In the chapters 2 and 3, we study the fibers of a rational map from P^m to P^nthat is generically finite onto its image. More precisely, in the second chapter, we will treat the case of parameterizations of algebraic rational surfaces. In this case, we give a quadratic bound in the degree of the defining equations for the number of one-dimensional fibers of the canonical projection of the graph of $\phi$ onto its image,by studying of the difference between the initial degree of ordinary and saturated powers of the base ideal. In the third chapter, we refine and generalize the results on fibers of the previous chapter.More generally, we establish a linear bound in the degree of the defining equations for the number of (m-1)-dimensional fibers of the canonical projection of its graph onto its image, by using ideals of minors of the Jacobian matrix.In the fourth chapter, we consider rational maps whose source is a product of two subvarieties, each one being embedded in a projective space. Our main objective is to investigate birationality criteria for such maps. First, a general criterion is given in terms of the rank of a couple of matrices that came to be known as "Jacobian dual matrices". Then, we focus on rational maps from P^1 x P^1 to P^2 in very low bidegrees and provide new matrix-based birationality criteria by analyzing the syzygies of the defining equations of the map, in particular by looking at the dimension of certain bigraded parts of the syzygy module. Finally, applications of our results to the context of geometric modeling are discussed at the end of the chapter.
|
866 |
Data hiding algorithms for healthcare applicationsFylakis, A. (Angelos) 12 November 2019 (has links)
Abstract
Developments in information technology have had a big impact in healthcare, producing vast amounts of data and increasing demands associated with their secure transfer, storage and analysis. To serve them, biomedical data need to carry patient information and records or even extra biomedical images or signals required for multimodal applications. The proposed solution is to host this information in data using data hiding algorithms through the introduction of imperceptible modifications achieving two main purposes: increasing data management efficiency and enhancing the security aspects of confidentiality, reliability and availability. Data hiding achieve this by embedding the payload in objects, including components such as authentication tags, without requirements in extra space or modifications in repositories. The proposed methods satisfy two research problems. The first is the hospital-centric problem of providing efficient and secure management of data in hospital networks. This includes combinations of multimodal data in single objects. The host data were biomedical images and sequences intended for diagnoses meaning that even non-visible modifications can cause errors. Thus, a determining restriction was reversibility. Reversible data hiding methods remove the introduced modifications upon extraction of the payload. Embedding capacity was another priority that determined the proposed algorithms. To meet those demands, the algorithms were based on the Least Significant Bit Substitution and Histogram Shifting approaches. The second was the patient-centric problem, including user authentication and issues of secure and efficient data transfer in eHealth systems. Two novel solutions were proposed. The first method uses data hiding to increase the robustness of face biometrics in photos, where due to the high robustness requirements, a periodic pattern embedding approach was used. The second method protects sensitive user data collected by smartphones. In this case, to meet the low computational cost requirements, the method was based on Least Significant Bit Substitution. Concluding, the proposed algorithms introduced novel data hiding applications and demonstrated competitive embedding properties in existing applications. / Tiivistelmä
Modernit terveydenhuoltojärjestelmät tuottavat suuria määriä tietoa, mikä korostaa tiedon turvalliseen siirtämiseen, tallentamiseen ja analysointiin liittyviä vaatimuksia. Täyttääkseen nämä vaatimukset, biolääketieteellisen tiedon täytyy sisältää potilastietoja ja -kertomusta, jopa biolääketieteellisiä lisäkuvia ja -signaaleja, joita tarvitaan multimodaalisissa sovelluksissa. Esitetty ratkaisu on upottaa tämä informaatio tietoon käyttäen tiedonpiilotusmenetelmiä, joissa näkymättömiä muutoksia tehden saavutetaan kaksi päämäärää: tiedonhallinnan tehokkuuden nostaminen ja luottamuksellisuuteen, luotettavuuteen ja saatavuuteen liittyvien turvallisuusnäkökulmien parantaminen. Tiedonpiilotus saavuttaa tämän upottamalla hyötykuorman, sisältäen komponentteja, kuten todentamismerkinnät, ilman lisätilavaatimuksia tai muutoksia tietokantoihin. Esitetyt menetelmät ratkaisevat kaksi tutkimusongelmaa. Ensimmäinen on sairaalakeskeinen ongelma tehokkaan ja turvallisen tiedonhallinnan tarjoamiseen sairaaloiden verkoissa. Tämä sisältää multimodaalisen tiedon yhdistämisen yhdeksi kokonaisuudeksi. Tiedon kantajana olivat biolääketieteelliset kuvat ja sekvenssit, jotka on tarkoitettu diagnosointiin, missä jopa näkymättömät muutokset voivat aiheuttaa virheitä. Siispä määrittävin rajoite oli palautettavuus. Palauttavat tiedonpiilotus-menetelmät poistavat lisätyt muutokset, kun hyötykuorma irrotetaan. Upotuskapasiteetti oli toinen tavoite, joka määritteli esitettyjä algoritmeja. Saavuttaakseen nämä vaatimukset, algoritmit perustuivat vähiten merkitsevän bitin korvaamiseen ja histogrammin siirtämiseen. Toisena oli potilaskeskeinen ongelma, joka sisältää käyttäjän henkilöllisyyden todentamisen sekä turvalliseen ja tehokkaaseen tiedonsiirtoon liittyvät haasteet eHealth-järjestelmissä. Työssä ehdotettiin kahta uutta ratkaisua. Ensimmäinen niistä käyttää tiedonpiilotusta parantamaan kasvojen biometriikan kestävyyttä valokuvissa. Korkeasta kestävyysvaatimuksesta johtuen käytettiin periodisen kuvion upottamismenetelmää. Toinen menetelmä suojelee älypuhelimien keräämää arkaluontoista käyttäjätietoa. Tässä tapauksessa, jotta matala laskennallinen kustannus saavutetaan, menetelmä perustui vähiten merkitsevän bitin korvaamiseen. Yhteenvetona ehdotetut algoritmit esittelivät uusia tiedonpiilotussovelluksia ja osoittivat kilpailukykyisiä upotusominaisuuksia olemassa olevissa sovelluksissa.
|
867 |
Měření kvalitativních parametrů datových sítí / Measurement of data network quality parametersRipper, David January 2016 (has links)
The aim of this thesis was studying and describing known methods for testing transmission parameters in data networks based on protocol stack TCP/IP. Firstly were individual transmission parameters specified and determined their impact on service quality. Another aim was to carry out a comparison of the different methodologies of measurement of transmission parameters, performed their qualifications on the basis of these findings and methodology for measuring service quality from the user's perspective was proposed. It was a web application where users measured basic transmission parameters, then the users judged videos according to the evaluation scale MOS (Mean Opinion Score) and with the help of these data was analysis, classification connection and impact of connection on MOS evaluation.
|
868 |
Development of a Versatile High-Brightness Electron Impact Ion Source for Nano-Machining, Nano-Imaging and Nano-Analysis / Développement d'une source d'ions polyvalente à haute brillance basée sur l'impact électronique pour la nano-fabrication, la nano-imagerie et la nano-analyseCastro, Olivier de 07 December 2016 (has links)
Les nano-applications utilisant des faisceaux d'ions focalisés nécessitent des sources d'ions à haute brillance avec une faible dispersion en énergie (ΔE) ce qui permet une excellente résolution latérale et un courant d'ions suffisamment élevé pour induire des vitesses d'érosion raisonnables et des rendements élevés d'émission électronique et ionique. Les objectifs de cette thèse sont le développement d'une source d'ions basée sur l'impact électronique ayant une brillance réduite Br de 10³ – 10⁴ A m⁻² sr ⁻ ¹ V⁻ ¹, une dispersion en énergie ΔE ≲ 1 eV et un choix polyvalent d'ions. Le premier concept évalué consiste à focaliser un faisceau d'électrons à une énergie de 1 keV entre deux électrodes parallèles distant de moins d'un millimètre. Le volume d'ionisation « micrométrique » est formé au-dessus d'une ouverture d'extraction de quelques dizaines de µm. En utilisant un émetteur d'électrons LaB₆ et une pression de 0.1 mbar dans la région d'ionisation, Br est proche de 2.10² A m⁻² sr ⁻ ¹ V ⁻ ¹ avec des tailles de source de quelques µm, des courants de quelques nA pour Ar⁺/Xe⁺/O₂ ⁺ et une dispersion en énergie ΔE < 0.5 eV. La brillance réduite Br est encore en dessous de la valeur minimum de notre objectif et la pression de fonctionnement très faible nécessaire pour l'émetteur LaB₆ ne peut être obtenue avec une colonne d'électrons compacte, donc ce prototype n'a pas été construit.Le deuxième concept de source d'ions évalué est basé sur l’idée d’obtenir un faisceau ionique à fort courant avec une taille de source et un demi-angle d’ouverture similaire aux résultats du premier concept de source, mais en changeant l’interaction électron-gaz et la collection des ions. Des études théoriques et expérimentales sont utilisées pour l’évaluation de la performance de ce deuxième concept et de son utilité pour les nano-applications basées sur des faisceaux d'ions focalisés. / High brightness low energy spread (ΔE) ion sources are needed for focused ion beam nano-applications in order to get a high lateral resolution while having sufficiently high ion beam currents to obtain reasonable erosion rates and large secondary electron/ion yields. The objectives of this thesis are: the design of an electron impact ion source, a reduced brightness Br of 10³ – 10⁴ A m⁻² sr⁻ ¹ V⁻ ¹ with an energy distribution spread ΔE ≲ 1 eV and a versatile ion species choice. In a first evaluated concept an electron beam is focussed in between two parallel plates spaced by ≲1 mm. A micron sized ionisation volume is created above an extraction aperture of a few tens of µm. By using a LaB₆ electron emitter and the ionisation region with a pressure around 0.1 mbar, Br is close to 2.10² A m⁻² sr ⁻ ¹ V ⁻ ¹ with source sizes of a few µm, ionic currents of a few nA for Ar⁺/Xe⁺/O₂ ⁺ and the energy spread being ΔE < 0.5 eV. The determined Br value is still below the minimum targeted value and furthermore the main difficulty is that the needed operation pressure for the LaB₆ emitter cannot be achieved across the compact electron column and therefore a prototype has not been constructed. The second evaluated source concept is based on the idea to obtain a high current ion beam having a source size and half-opening beam angle similar to the first concept, but changing the electron gas interaction and the ion collection. Theoretical and experimental studies are used to evaluate the performance of this second source concept and its usefulness for focused ion beam nano-applications.
|
869 |
Architectures parallèles reconfigurables pour le traitement vidéo temps-réel / Parallel reconfigurable hardware architectures for video processing applicationsAli, Karim Mohamed Abedallah 08 February 2018 (has links)
Les applications vidéo embarquées sont de plus en plus intégrées dans des systèmes de transport intelligents tels que les véhicules autonomes. De nombreux défis sont rencontrés par les concepteurs de ces applications, parmi lesquels : le développement des algorithmes complexes, la vérification et le test des différentes contraintes fonctionnelles et non-fonctionnelles, la nécessité d’automatiser le processus de conception pour augmenter la productivité, la conception d’une architecture matérielle adéquate pour exploiter le parallélisme inhérent et pour satisfaire la contrainte temps-réel, réduire la puissance consommée pour prolonger la durée de fonctionnement avant de recharger le véhicule, etc. Dans ce travail de thèse, nous avons utilisé les technologies FPGAs pour relever certains de ces défis et proposer des architectures matérielles reconfigurables dédiées pour des applications embarquées de traitement vidéo temps-réel. Premièrement, nous avons implémenté une architecture parallèle flexible avec deux contributions principales : (1) Nous avons proposé un modèle générique de distribution/collecte de pixels pour résoudre le problème de transfert de données à haut débit à travers le système. Les paramètres du modèle requis sont tout d’abord définis puis la génération de l’architecture a été automatisée pour minimiser le temps de développement. (2) Nous avons appliqué une technique d’ajustement de la fréquence pour réduire la consommation d’énergie. Nous avons dérivé les équations nécessaires pour calculer le niveau maximum de parallélisme ainsi que les équations utilisées pour calculer la taille des FIFO pour le passage d’un domaine de l’horloge à un autre. Au fur et à mesure que le nombre de cellules logiques sur une seule puce FPGAaugmente, passer à des niveaux d’abstraction plus élevés devient inévitable pour réduire la contrainte de « time-to-market » et augmenter la productivité des concepteurs. Pendant la phase de conception, l’espace de solutions architecturales présente un grand nombre d’alternatives avec des performances différentes en termes de temps d’exécution, ressources matérielles, consommation d’énergie, etc. Face à ce défi, nous avons développé l’outil ViPar avec deux contributions principales : (1) Un modèle empirique a été introduit pour estimer la consommation d’énergie basé sur l’utilisation du matériel (Slice et BRAM) et la fréquence de fonctionnement ; en plus de cela, nous avons dérivé les équations pour estimer les ressources matérielles et le temps d’exécution pour chaque alternative au cours de l’exploration de l’espace de conception. (2) En définissant les principales caractéristiques de l’architecture parallèle comme le niveau de parallélisme, le nombre de ports d’entrée/sortie, le modèle de distribution des pixels, ..., l’outil ViPar génère automatiquement l’architecture matérielle pour les solutions les plus pertinentes. Dans le cadre d’une collaboration industrielle avec NAVYA, nous avons utilisé l’outil ViPar pour implémenter une solution matérielle parallèle pour l’algorithme de stéréo matching « Multi-window Sum of Absolute Difference ». Dans cette implémentation, nous avons présenté un ensemble d’étapes pour modifier le code de description de haut niveau afin de l’adapter efficacement à l’implémentation matérielle. Nous avons également exploré l’espace de conception pour différentes alternatives en termes de performance, ressources matérielles, fréquence, et consommation d’énergie. Au cours de notre travail, les architectures matérielles ont été implémentées et testées expérimentalement sur la plateforme d’évaluation Xilinx Zynq ZC706. / Embedded video applications are now involved in sophisticated transportation systems like autonomous vehicles. Many challenges faced the designers to build those applications, among them: complex algorithms should be developed, verified and tested under restricted time-to-market constraints, the necessity for design automation tools to increase the design productivity, high computing rates are required to exploit the inherent parallelism to satisfy the real-time constraints, reducing the consumed power to extend the operating duration before recharging the vehicle, etc. In this thesis work, we used FPGA technologies to tackle some of these challenges to design parallel reconfigurable hardware architectures for embedded video streaming applications. First, we implemented a flexible parallel architecture with two main contributions: (1)We proposed a generic model for pixel distribution/collection to tackle the problem of the huge data transferring through the system. The required model parameters were defined then the architecture generation was automated to minimize the development time. (2) We applied frequency scaling as a technique for reducing power consumption. We derived the required equations for calculating the maximum level of parallelism as well as the ones used for calculating the depth of the inserted FIFOs for clock domain crossing. As the number of logic cells on a single FPGA chip increases, moving to higher abstraction design levels becomes inevitable to shorten the time-to-market constraint and to increase the design productivity. During the design phase, it is common to have a space of design alternatives that are different from each other regarding hardware utilization, power consumption and performance. We developed ViPar tool with two main contributions to tackle this problem: (1) An empirical model was introduced to estimate the power consumption based on the hardware utilization (Slice and BRAM) and the operating frequency. In addition to that, we derived the equations for estimating the hardware resources and the execution time for each point during the design space exploration. (2) By defining the main characteristics of the parallel architecture like parallelism level, the number of input/output ports, the pixel distribution pattern, etc. ViPar tool can automatically generate the parallel architecture for the selected designs for implementation. In the context of an industrial collaboration, we used high-level synthesis tools to implement a parallel hardware architecture for Multi-window Sum of Absolute Difference stereo matching algorithm. In this implementation, we presented a set of guiding steps to modify the high-level description code to fit efficiently for hardware implementation as well as we explored the design space for different alternatives in terms of hardware resources, performance, frequency and power consumption. During the thesis work, our designs were implemented and tested experimentally on Xilinx Zynq ZC706 (XC7Z045- FFG900) evaluation board.
|
870 |
Twitterverse / TwitterverseNývltová, Táňa January 2015 (has links)
(in English): The diploma thesis deals with yet in czech language unprocessed complex issue of Twitterverse with a focus on community Twitter and third party applications. The thesis is mapping origin and development of Twitter and the related phenomenon Twitterverse using quantative research methods and case study. The work should contribute to a better and more detailed understanding of this issue.
|
Page generated in 0.1573 seconds