• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 2
  • 2
  • Tagged with
  • 20
  • 7
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ellipsométrie de speckle sur champ diffus : annulation sélective de sources pour l'imagerie en milieu diffusant

Georges, Gaelle 23 October 2007 (has links) (PDF)
Ce travail est consacré à l'étude expérimentale et théorique du speckle de l'onde diffusée par des hétérogénéités en surface ou en volume des substrats ou des systèmes interférentiels multicouches. La première étude est basée sur le contraste en intensité du speckle diffusé dans chaque direction de l'espace, que l'on étudie pour discriminer les effets d'interface et de volume, ou pour identifier le niveau de diffusion en l'absence d'étalonnage. Des résultats expérimentaux sont présentés pour des surfaces polies et doucies, et des liquides diffusant, avec des niveaux de pertes croissants. Ces résultats sont ensuite complétés par l'étude du déphasage polarimétrique de l'onde diffusée dans le "grain" de speckle. L'écart-type de ce déphasage est calculé et mesuré pour les mêmes échantillons, ainsi que pour des membranes poreuses pour des applications à la caractérisation du colmatage. On obtient ainsi une nouvelle signature pour discriminer les différents effets. Puis le déphasage polarimétrique est utilisé pour l'étude des coefficients d'intercorrélation entre les interfaces d'un système multicouche. Une procédure d'annulation des flux diffusés polarisés est ensuite présentée dans le cadre de théories perturbatives. Les conditions d'annulation sont calculées pour différents types d'échantillons, et obtenues grâce à un réglage en champ lointain et pour chaque direction, de lames polarisantes et déphasantes. Les résultats expérimentaux confirment ces prédictions, pour des surfaces et liquides diffusant. La technique d'annulation est alors étendue pour éliminer de façon sélective les différentes sources de diffusion. On montre ainsi comment annuler de façon sélective la diffusion par une surface ou un volume, ou comment isoler une interface dans un système multicouche. La confrontation des calculs numériques avec les résultats de mesure sont encourageants, et ouvrent une première porte au domaine de l'imagerie en milieu diffusant. Enfin, les problèmes des fortes diffusions sont abordés, et amènent à traiter de l'influence des irrégularités de structure sur les phénomènes de dépolarisation partielle ou totale. Selon la microstructure des composants, la dépolarisation est plus ou moins marquée et impose la dynamique de réduction sélective des flux diffusés. Ce travail trouve des applications dans l'optique sous-marine, l'imagerie du petit animal ou le biomédical, le transport terrestre ou l'avionique, l'environnement, la défense...
2

Une métaheuristique pour le problème d'affectation de longueurs d'onde, de groupage et de routage du trafic dans les réseaux optiques WDM

Solari, Yannick January 2005 (has links)
No description available.
3

TEMPOS : un modèle d'historiques pour un SGBD temporel

Canavaggio, Jean-François 22 November 1997 (has links) (PDF)
Un SGBD temporel doit offrir les fonctionnalités permettant aux applications de dater les informations et de gérer l'histoire de leur évolution. Cette thèse présente le modèle d'historiques TEMPOS et le prototype qui a été réalisé au dessus du SGBD O2. TEMPOS s'appuie sur un modèle du temps, qui permet de manipuler des valeurs temporelles, simples et complexes, exprimées dans différentes unités. Le jeu d'unité est extensible, et les opérations définies sont indépendantes des unités. La multiplicité des formes externes des valeurs temporelles est également prise en compte. Le modèle d'historiques proposé dans TEMPOS intègre les fonctionnalités essentielles attendues pour gérer la dimension historique des informations d'une base de données. La définition de différents types d'historiques (discret, en escalier, interpolé) permet de donner la signification des valeurs saisies et d'interpoler les autres valeurs. Ainsi, en TEMPOS, un historique est vu comme une chronique (séquence de valeurs datées), un domaine temporel d'observation, et une fonction d'interpolation. Le modèle permet diverses structurations des historiques basées sur le regroupement d'instants. Les opérations d'interrogation des historiques sont issues de l'extension temporelle des opérateurs de l'algèbre relationnelle et également d'une adaptation d'opérateurs sur les séquences, qui permettent en particulier de raisonner sur la succession dans le temps. Les opérations classiques de mise à jour sont étendues pour prendre en compte la dimension temporelle. Toutes les opérations sur les historiques sont définies de manière à être indépendantes de la représentation et de l'unité d'observation temporelle des historiques. Le prototype comprend une hiérarchie de classes implantant les types et les opérations proposés dans TEMPOS, et un préprocesseur TempOQL permettant de manipuler des valeurs temporelles dans des requêtes OQL.
4

Modélisation et optimisation des réseaux optiques à plusieurs niveaux de granularité

Ghobril, Paul 04 1900 (has links) (PDF)
La migration d'un réseau optique en anneaux interconnectés vers un réseau arbitrairement maillé et d'un trafic statique vers un trafic dynamique nécessite l'introduction de plusieurs niveaux de granularité pour s'adapter à cette diversité spatiale et temporelle et réduire ainsi la complexité et la taille des brasseurs optiques. Cette taille peut être réduite en traitant en bloc un groupe de longueurs d'onde contiguës. Cette bande d'ondes sera éventuellement traitée comme une seule entité. Par contre, ce traitement en bloc complique l'opération de routage et d'allocation de longueurs d'onde. Quelques ports d'entrée/sortie du brasseur de bandes peuvent éventuellement être connectés à des démultiplexeurs/multiplexeurs pour passer à un brassage par longueurs d'onde. De cette manière, on résout la commutation en bloc et quelques bandes pourront sortir de la continuité des tunnels établis pour passer d'un tunnel à l'autre. Cette notion peut être étendue pour couvrir différentes granularités et différents niveaux de brassage à l'aide de brasseurs optiques hiérarchiques. La coexistence des différents concepts de groupage optique et électronique ainsi que la manipulation de plusieurs niveaux et différentes échelles d'agrégation forment l'idée de base derrière ce qu'on appelle "réseau optique à plusieurs niveaux de granularité". Dans cette thèse, On propose un nouveau modèle graphique adapté au réseau optique à plusieurs niveaux de granularité. Le modèle d'un composant optique est formé par l'interconnexion d'un nombre d'éléments de base (BNE). Chaque BNE est une représentation graphique des supports du trafic. On introduit la notion de "groupes" qui permet l'abstraction des agrégateurs/désagrégateurs et définit par suite la granularité de commutation de chaque côté du BNE. Étant modulable, ce modèle pourra servir au développement d'un outil d'aide à la conception de ce type de réseaux. On propose un nouveau modèle combinatoire du brasseur hiérarchique permettant de comparer différentes réalisations matérielles. Ceci nous a permis d'étudier la réduction de la complexité du matériel et l'augmentation de la complexité opérationnelle quand on remplace un brasseur optique simple par un brasseur optique hiérarchique. On propose le nouveau concept de modifier les canaux de longueurs d'onde sans modifier l'allocation logique des longueurs d'onde et par suite, permettre un réarrangement avec un minimum d'interruptions afin d'optimiser le brassage à plusieurs granularités. Ce réarrangement est réalisé sans changer la distribution du trafic résultant du routage et de l'attribution des longueurs d'onde. On montre l'importance de la gestion des granularités et on propose une nouvelle méthode de contrôler l'allocation des multiplexeurs/démultiplexeurs dans le contexte du trafic dynamique. Dans ce contexte et en utilisant le modèle graphique, on propose de construire une topologie logique multicouche dans le but d'avoir une base d'informations adaptée à la proposition d'ingénierie de trafic. Dans cette solution, on estime la diversité potentielle d'acheminement des tunnels établis par le brassages hiérarchique en considérant une distribution de charge donnant le flot maximal. cette distribution est considérée comme objectif à atteindre et est mise à jour après tout changement. On donne aux tunnels ayant la plus grande diversité potentielle d'acheminement la priorité de passer aux fines granularités. L'ensemble des propositions est renforcé par des analyses et simulations et plusieurs domaines à aborder en perspective sont présentés en conclusion.
5

Towards experimentation at a Future Linear Collider

Pöschl, R. 22 February 2010 (has links) (PDF)
Ce mémoire accentue des aspects du programme de recherche pour un futur collisionneur linéaire des électrons et positrons permettant de faire de la physique de précision à l'echelle de TeV où l'apparition des phénomènes au-delà du Modèle Standard de la physique de particules est attendue. La proposition la plus mature pour une telle machine est l'International Linear Collider (ILC) conçue pour des énergies dans le centre de masse entre 90 GeV et 1 TeV. Les résultats obtenus avec des expériences de précision précédentes suggèrent l'existence du boson de Higgs ayant une masse d'environ 120 GeV. En assumant des paramètres nominaux pour les faisceaux et la luminosité, l'ILC est prometteur d'atteindre une précision de 2-3% sur la section efficace de la Higgs-strahlung et d'environ 30 MeV sur la masse du boson de Higgs. Les détecteurs qui seront opérés au sein de l'ILC comprendront des calorimètres à haute granularité. Ce nouveau type de calorimètre constitue l'outil principal pour atteindre une résolution en énergie des jets de 30%/\sqrt{E}. Le calorimètre électromagnétique sera composé par tungstène comme matériel absorbant et il est actuellement favorisé d'employer des diodes de silicium comme matériel actif. Le document décrit des détails du programme de R&D pour ce calorimètre par rapport à la mécanique et du développement de l'électronique frontale qui sera integrée dans les couches du calorimètre. En plus, l'état actuel du développement des galettes de silicium est abordé. Les résultats obtenus dans les campagnes de test en faisceau avec un premier prototype confirment les paramètres appliqués dans les études de la ''Letter of Intent'' publiée par le groupe de concept ILD en 2009.
6

Synchronization costs in parallel programs and concurrent data structures / Coûts de synchronization dans les programmes parallèlles et les structures de données simultanées

Aksenov, Vitalii 26 September 2018 (has links)
Pour utiliser la puissance de calcul des ordinateurs modernes, nous devons écrire des programmes concurrents. L’écriture de programme concurrent efficace est notoirement difficile, principalement en raison de la nécessité de gérer les coûts de synchronisation. Dans cette thèse, nous nous concentrons sur les coûts de synchronisation dans les programmes parallèles et les structures de données concurrentes.D’abord, nous présentons une nouvelle technique de contrôle de la granularité pour les programmes parallèles conçus pour un environnement de multi-threading dynamique. Ensuite, dans le contexte des structures de données concurrentes, nous considérons la notion d’optimalité de concurrence (concurrency-optimality) et proposons la première implémentation concurrence-optimal d’un arbre binaire de recherche qui, intuitivement, accepte un ordonnancement concurrent si et seulement si l’ordonnancement est correct. Nous proposons aussi la combinaison parallèle (parallel combining), une technique qui permet l’implémentation efficace des structures de données concurrences à partir de leur version parallèle par lots. Nous validons les techniques proposées par une évaluation expérimentale, qui montre des performances supérieures ou comparables à celles des algorithmes de l’état de l’art.Dans une perspective plus formelle, nous considérons le phénomène d’assistance (helping) dans des structures de données concurrentes. On observe un phénomène d’assistance quand l’ordre d’une opération d’un processus dans une trace linéarisée est fixée par une étape d’un autre processus. Nous montrons qu’aucune implémentation sans attente (wait-free) linéarisable d’une pile utilisant les primitives read, write, compare&swap et fetch&add ne peut être “sans assistance” (help-free), corrigeant une erreur dans une preuve antérieure de Censor-Hillel et al. Finalement, nous proposons une façon simple de prédire analytiquement le débit (throughput) des structures de données basées sur des verrous à gros grains. / To use the computational power of modern computing machines, we have to deal with concurrent programs. Writing efficient concurrent programs is notoriously difficult, primarily due to the need of harnessing synchronization costs. In this thesis, we focus on synchronization costs in parallel programs and concurrent data structures.First, we present a novel granularity control technique for parallel programs designed for the dynamic multithreading environment. Then in the context of concurrent data structures, we consider the notion of concurrency-optimality and propose the first implementation of a concurrency-optimal binary search tree that, intuitively, accepts a concurrent schedule if and only if the schedule is correct. Also, we propose parallel combining, a technique that enables efficient implementations of concurrent data structures from their parallel batched counterparts. We validate the proposed techniques via experimental evaluations showing superior or comparable performance with respect to state-of-the-art algorithms.From a more formal perspective, we consider the phenomenon of helping in concurrent data structures. Intuitively, helping is observed when the order of some operation in a linearization is fixed by a step of another process. We show that no wait-free linearizable implementation of stack using read, write, compare&swap and fetch&add primitives can be help-free, correcting a mistake in an earlier proof by Censor-Hillel et al. Finally, we propose a simple way to analytically predict the throughput of data structures based on coarse-grained locking
7

Une approche de calibrage géométrique de caméras par speckle laser pour la vision artificielle stéréoscopique active et passive

Samson, Éric 17 April 2018 (has links)
Le calibrage des caméras est l'une des pierres angulaires de la plupart des systèmes de vision artificielle car c'est cette opération qui établit le lien entre le monde physique et l'image. On dispose aujourd'hui de plusieurs techniques bien établies pour réaliser cette opération. Il existe toutefois certaines situations pour lesquelles les techniques usuelles ne sont pas assez précises. C'est le cas notamment des systèmes de vision 3D actifs. Les systèmes dits ``actifs'' disposent d'un mécanisme d'entraînement qui leur permet repositionner leurs caméras en temps réel. Puisque les mesures 3D en vision reposent sur la connaissance de la position relative des caméras, les déplacements de celles-ci à l'intérieur d'un système actif doivent être modélisés et calibrés afin que leur position exacte puisse être mise à jour en continue. Mener à bien ce type de calibrage exige que les déplacements des caméras puissent être mesurés avec une très grande précision. Cette thèse propose une approche pour le calibrage géométrique de caméras qui répond aux besoins en précision des systèmes actifs. L'originalité de cette approche vient du fait qu'elle exploite les propriétés du speckle laser. Les bases théoriques sur lesquelles elle s'appuie sont tirées du domaine de la mesure par speckle (``speckle metrology''). C'est la première fois que les principes de la mesure par speckle sont appliqués au domaine de la vision artificielle. L'intérêt de faire intervenir le speckle laser dans le calibrage est qu'il permet de découpler les composantes en rotation de celles en translation du mouvement des caméras. Dans le contexte des systèmes actifs, ce découplage des deux types de mouvements permet d'atteindre un niveau de précision de calibrage qu'il est impossible d'atteindre avec les approches classiques basées sur l'observation d'une cible de calibrage conventionnelle. Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant deux avantages pratiques importants. Le premier est que le dispositif permettant d'effectuer le calibrage est compact et le second est que le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. %Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant les avantages pratiques suivant. Le dispositif permettant d'effectuer le calibrage est compact. Le calibrage peut être complété avec moins de manipulations. Enfin, le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. / Because it establishes the link between image coordinates and the physical world, camera calibration is one of the corner stones of computer vision systems. Several existing techniques can perform this operation, but these are not always accurate enough, depending on circumstances. This is particularly the case for ``active'' 3D systems that incorporate mechanisms to allow real time repositioning of cameras. Since 3D measurements in computer vision rely on the knowledge of the relative camera positions, their exact movements within the active system must be updated in a continuous fashion. Calibrating such systems is only feasible when camera movements can be measured very accurately, which is not possible using current techniques. In this thesis, an original approach is proposed for the geometric camera calibration of active vision systems, based on the theoretical foundations of speckle metrology. It exploits the unique properties of laser speckle to meet the special requirements of active vision systems. It also represents the first use of laser speckle in this field. The main benefit of laser speckle is that it allows the measurement of rotational component of the camera movements independently from its translational component. The ability to perform independent measurements of these two components is what gives this new approach a much improved accuracy compared to conventional techniques based on the use of calibration targets. Besides the calibration of active vision systems, the proposed approach can be applied to other types of vision systems as well. In particular, the thesis shows that the proposed approach can also be applied to calibrate a classical pair of static stereoscopic cameras. The proposed technique show equivalent accuracy compared to conventional techniques while providing two major practical advantages. First, the calibration device is very compact and second, the calibration procedure doesn't require the working area of the stereo pair to be accessed.
8

Nouvelles Méthodes de Synthèse Logique et Application aux Réseaux Programmables

Belrhiti Alaoui, Mohammed 16 December 1996 (has links) (PDF)
Cette thèse propose et analyse de nouvelles méthodes de synthèse logique. L'analyse concerne des outils de la "troisième génération" d'écriture de bases irrédondantes de fonctions booléennes, à savoir les minimiseurs dits symboliques. Cette génération de minimiseurs conduit à la solution optimale plus rapidement et avec moins d'espace mémoire que les heuristiques de la minimisation explicite. Elle permet également le calcul de la forme complémentée minimale sans être exposée à des problèmes d'explosion en complexité, ce qui permet d'aboutir à un choix efficace entre une fonction et son complément. Nous avons abordé ensuite les problèmes de granularité des expressions factorisées. Nous avons proposé une méthode originale de réinjection qui intègre d'une façon concurrente une phase de minimisation symbolique des expressions booléennes. Cette méthode a permis de "corriger" la granularité: d'une part, des expressions booléennes obtenues par la factorisation, d'autre part, des équations obtenues par une description de haut niveau de type VHDL. La méthode proposée peut être également appliquée en tant que minimiseur logique qui tient compte du partage de la logique entre les expressions booléennes, ce qui n'est pas possible avec un minimiseur logique local ou global. Les expériences pratiques et l'application sur les réseaux programmables de type CPLD sont concluantes. Enfin, nous avons proposé une méthode originale de l'exploration de l'espace des solutions des macro-générateurs de type additionneur. Cette méthode est fondée sur le filtrage des solutions générées et l'amélioration par dérivation d'une solution donnée. Cette approche peut être efficacement appliquée sur la macro-génération sous contraintes temporelles
9

Un nouvel essai de retrait : facteurs influençant le phénomène de retrait

Robiquet, Pascal 01 December 1983 (has links) (PDF)
Le présent rapport synthétise l'étude du retrait réalisée sur des sols équatoriaux africains. Nous décrivons les différents types de sols étudiés et situons les lieux de prélèvements. Nous expliquons comment nous avons été amenés à établir un nouvel essai de retrait et décrivons le mode opératoire de l'essai réalisé sur la fraction (0-1 mm). Les résultats obtenus permettent : - de tracer les courbes de retrait des sols, qui rendent compte de l'évolution des variations de longueur d'une éprouvette, en fonction de la perte d'eau, - de comparer les potentiels de retrait des sols, - et de définir une limite de retrait. Nous présentons une synthèse bibliographique sur le retrait de travaux réalisés sur des argiles et sur des sols fins. Nous confirmons et avons tenté, lorsque cela était possible, d'expliquer les influences des facteurs intervenant sur le retrait, à savoir : la granularité, la densité sèche, l'intensité de compactage, la minéralogie et la teneur en argile. Les essais réalisés sur la fraction (0-10 mm) montrent que pour rendre compte du potentiel de retrait d'un graveleux, il est nécessaire de réaliser des essais sur la fraction totale du matériau. Les résultats obtenus sur la matrice (0-1 mm) ne permettent pas de déduire le potentiel de retrait du graveleux correspondant.
10

Vers une analyse syntaxique à granularité variable

Vanrullen, Tristan 12 December 2005 (has links) (PDF)
Il est souhaitable qu'une analyse syntaxique -en traitement automatique des langues naturelles- soit réalisée avec plus ou moins de précision en fonction du contexte, c'est-à-dire que sa granularité soit réglable. Afin d'atteindre cet objectif, nous présentons ici des études préliminaires permettant d'appréhender les contextes technique et scientifique qui soulèvent ce problème. Nous établissons un cadre pour les développements à réaliser et pour leur évaluation. Nous choisissons un formalisme d'analyse par satisfaction de contraintes (celui des Grammaires de Propriétés) ayant l'avantage de permettre l'utilisation des mêmes ressources linguistiques avec un degré de précision réglable. Nous introduisons une reformulation mathématique du formalisme des Grammaires de Propriétés et nous définissons une mesure (la densité de satisfaction), qui permet de contrôler la granularité de l'analyse. Puis nous décrivons un ensemble d'outils modulaires (LPLSuite) et de ressources (lexique et sous-lexiques DicoLPL) développés pour permettre une analyse syntaxique et susceptibles d'être embarqués<br />dans des applications de haut niveau. Nous présentons et évaluons ensuite plusieurs analyseurs syntaxiques dans ce formalisme, le dernier (SeedParser) étant destiné à mettre en oeuvre une véritable analyse à granularité variable. L'évaluation de ces outils est l'objet d'une étude approfondie. Enn, nous présentons quelques applications développées à l'aide de nos outils.

Page generated in 0.0678 seconds