• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 192
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 963
  • 354
  • 284
  • 190
  • 150
  • 103
  • 94
  • 91
  • 89
  • 89
  • 87
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Contribution à l'analyse et à l'exploitation des singularités dans le cadre de l'amélioration en terme de précision des systèmes mécatroniques / Contribution to the analysis and exploitation the singularities to improve the precision of mechatronic systems

Hijazi, Anas 01 January 2017 (has links)
Cette thèse porte sur l'analyse de la singularité d'un manipulateur plan pour l'application d'une XY-Théta plate-forme. Cette plate-forme possède une cinématique brevetée, conçue pour garder l’erreur finale de position en dessous de 2mμ dans son espace de travail de dimensions 300 mm × 300 mm. Ces performances de haute précision s'expliquent par la proximité des singularités. Certains inconvénients peuvent survenir lorsque la trajectoire se rapproche des singularités, notamment si une vitesse articulaire élevée est atteinte. Par conséquent, l'objectif principal de cette thèse est d'identifier les lieux des singularités. Habituellement, quand un robot non-redondant se déplace dans un espace à trois dimensions, le lieu de singularité est défini par une surface. Une contribution majeure de ce travail de thèse réside dans l'identification d'une ligne hélicoïdale pour définir le lieu de la singularité au sein de l'espace de travail. Une autre partie du travail réalisé a consisté à prendre en compte la redondance du robot à identifier les lieux des singularités et dans ce cas à analyser les problèmes de contrôle liés à la traversée de surfaces de singularités. En dernier lieu, une attention a été portée sur l'indice de maniabilité afin d'évaluer la distance entre le manipulateur et la singularité. / This thesis deals with the singularity analysis of a planar robotic manipulator for the application of an XY-Theta platform. This XY-Theta platform has a patented kinematics designed to keep the final position error below 2 μm in its 300 mm × 300 mm workspace. But as the high precision performances are due to the proximity of singularities, some drawbacksmay also appear when the trajectory is too close to singularities, such as large joint velocities, high forces and torques. Therefore, the main objective of this thesis is to identify the singularity loci. Usually, when a non-redundant robot operates in a 3D space, the singularity locus is represented by a surface. Here, one contribution is the identification of an helicoidal line for the singularity locus within the workspace. Another contribution is to take into account the redundancy of the robot, identify the singularity loci in this case and analyze the control problems linked to the crossing of singularity surfaces. Finally, the manipulability index is calculated to show how far the manipulator is from the singularity configuration.
272

Construction d'une nouvelle expérience pour l'étude de gaz quantiques dégénérés des réseaux optiques, et étude d'un système d'imagerie super-résolution / Construction of a new experiment for studying degenerated quantum gases in optical lattices, and study a of a super resolution imaging system.

Vasquez Bullon, Hugo Salvador 29 February 2016 (has links)
Depuis quelques temps, les physiciens théoriciens de la matière condensée sont confrontés à un problème majeur : la puissance de calcul nécessaire pour simuler numériquement et étudier certains systèmes à N corps est insuffisante. Comme le contrôle et l’utilisation des systèmes d’atomes ultra-froids se sont développés de manière importante,principalement durant les deux dernières décennies, nous sommes peut-être en mesure d eproposer une solution alternative : utiliser des atomes ultra-froids piégés dans des réseaux optiques en tant que simulateur quantique. En effet, la physique des électrons se déplaçant sur la structure cristalline d’un solide, ainsi que celle des atomes piégés dans des réseaux optiques, sont toutes les deux décrites par le même modèle de Fermi-Hubbard, qui est une présentation simplifiée du comportement des fermions sur un réseau périodique. Les simulateurs quantiques peuvent donc simuler des propriétés électriques des matériaux, telle sque la conductivité ou le comportement isolant, et potentiellement aussi des propriété smagnétiques telles que l’ordre antiferromagnétique.L’expérience AUFRONS, sur laquelle j’ai travaillé pendant mon doctorat, a pour but d’étudie rla physique des fermions fortement corrélés, avec un simulateur quantique basé sur l’utilisation d’atomes ultra-froids de rubidium 87 et de potassium 40, piégés dans le potentiel nanostructuré des réseaux optiques bidimensionnels, générés en champ proche. Pour détecter la distribution atomique à d’aussi courtes distances, nous avons développé une technique d’imagerie novatrice, qui nous permettra de contourner la limite de diffraction. Une fois terminé, notre système d’imagerie pourrait potentiellement détecter et identifier des sites individuels du réseau optique sub-longueur d’onde.Dans ce manuscrit, je décris le travail que j’ai effectué pour construire l’expérience AUFRONS,ainsi que l’étude de faisabilité que j’ai réalisée pour la technique d’imagerie à super-résolution. / For some time now, theoretical physicists in condensed matter face a majorproblem: the computing power needed to numerically simulate and study some interactingmany-body systems is insufficient. As the control and use of ultracold atomic systems hasexperimented a significant development in recent years, an alternative to this problem is to usecold atoms trapped in optical lattices as a quantum simulator. Indeed, the physics of electronsmoving on a crystalline structure of a solid, and the one of trapped atoms in optical lattices areboth described by the same model, the Fermi-Hubbard model, which is a simplifiedrepresentation of fermions moving on a periodic lattice. The quantum simulators can thusreproduce the electrical properties of materials such as conductivity or insulating behavior, andpotentially also the magnetic ones such as antiferromagnetism.The AUFRONS experiment, in which I worked during my PhD, aims at building a quantumsimulator based on cooled atoms of 87Rb and 40K trapped in near field nanostructured opticalpotentials. In order to detect the atom distribution at such small distances, we have developedan innovative imaging technique for getting around the diffraction limit. This imaging systemcould potentially allow us to detect single-site trapped atoms in a sub-wavelength lattice.In this thesis, I introduce the work I have done for building the AUFRONS experiment, as wellas the feasability study that I did for the super-resolution imaging technique.
273

Fonctionnement et vulnérabilité d'un système karstique multicouche à partir d'une approche multi-traceurs et d'un suivi haute-résolution : application aux Sources du Toulon à Périgueux (Dordogne, France) / Functioning and Vulnerability of a multilayered karst aquifer using multitracers approach and high resolution monitoring. : application to Toulon Springs (Dordogne, France)

Lorette, Guillaume 10 July 2019 (has links)
Ce travail de thèse s’inscrit dans une démarche d’approfondissement des connaissances du fonctionnement des aquifères karstiques. Pour cela, le site pilote des Sources du Toulon, siège d’une alimentation multiréservoirs, a été choisi et offre une fenêtre d’observation privilégiée sur les relations hydrogéologiques entre les aquifères de la marge Nord du Bassin aquitain. Elles sont utilisées depuis 1832 pour l’alimentation en eau potable de la ville de Périgueux, et constituent actuellement son unique ressource.L’objectif de ce travail a été de tester une approche multi-traceurs et un suivi haute-résolution pour caractériser le fonctionnement et la vulnérabilité d’un aquifère karstique multicouche.L’utilisation d’une approche couplée hydrodynamique et hydrochimie a mis en évidence l’alimentation des Sources du Toulon par une ressource profonde et captive en complément d’un aquifère libre plus superficiel. Ces informations ont été intégrées dans le contexte hydrogéologique global de la zone d’étude pour proposer une nouvelle délimitation du bassin d’alimentation des Sources du Toulon.L’utilisation d’un suivi haute-résolution a permis de préciser le fonctionnement hydrogéologique du système karstique étudié. Il en ressort des fonctionnements différents suivants les crues, avec des transferts de masse pouvant s’étendre de quelques jours à quelques semaines.L’apport des isotopes des nitrates (δ15N-NO3- ; δ18O-NO3-) a permis d’identifier deux origines des nitrates mesurés dans les eaux de surface et souterraines : les fertilisants minéraux de synthèse utilisés pour l’agriculture, et les rejets d’assainissement individuels.L’évaluation temporelle de la vulnérabilité spécifique des Sources du Toulon à certains marqueurs de contamination tels que les particules, les éléments bactériologiques et les nitrates a permis de distinguer plusieurs masses d’eau superficielles et subsuperficielles participant à l’alimentation pendant les crues, et jouant un rôle différent dans le transfert des contaminants. / This work is included in an approach for a better knowledge of karst aquifers. For this, the Toulon Springs pilot site was chosen, and provides the opportunity to study relationships between multilayered karst aquifers of the northern edge of the Aquitaine sedimentary basin. Toulon Springs are major regional springs and are located in Périgueux (Dordogne County, France). They have been supplying water to the metropolitan area of Périgueux since 1832.This work aim to test an innovative multitracer approach coupled with a physicochemical high-resolution auto-monitoring to characterize functioning and vulnerability of a multilayered karst aquifer.The use of a coupled hydrodynamic and hydrochemical approach has highlighted Toulon Springs supply by a deep and captive aquifer, in addition to a more subsuperficial aquifer. This information has been incorporated into the global hydrogeological situation of the study area to propose a new delineation of Toulon Springs hydrogeological cathment.The use of a high-resolution monitoring enables to specify the hydrogeological functioning of the studied karst system. The analysis performed on several flood events, identify that mass transfer can range from a few days to a few weeks.The use of nitrate isotope (δ15N-NO3- ; δ18O-NO3-) enables to identify two main nitrate sources in both surface water and groundwater: (i) inorganic fertilizer; (ii) sewage from individual house.The last part of this work was to analyse Toulon Springs temporal vulnerability during floods to marker of contamination such as particles, dissolved organic carbon, nitrate, and bacteria. Hence, several water type from surface runoff, unsaturated zone and saturated zone were identify as responsible of contaminant transfer: (i) water from saturated zone is responsible of vulnerability to mineral particles ; (ii) water from unsaturated zone is responsible of vulnerability to nitrare ; (iii) water from surface runoff is responsible of vulnerability to bacteria contamination.
274

Algorithms for super-resolution of images based on sparse representation and manifolds / Algorithmes de super-résolution pour des images basées sur représentation parcimonieuse et variété

Ferreira, Júlio César 06 July 2016 (has links)
La ''super-résolution'' est définie comme une classe de techniques qui améliorent la résolution spatiale d’images. Les méthodes de super-résolution peuvent être subdivisés en méthodes à partir d’une seule image et à partir de multiple images. Cette thèse porte sur le développement d’algorithmes basés sur des théories mathématiques pour résoudre des problèmes de super-résolution à partir d’une seule image. En effet, pour estimer un’image de sortie, nous adoptons une approche mixte : nous utilisons soit un dictionnaire de « patches » avec des contraintes de parcimonie (typique des méthodes basées sur l’apprentissage) soit des termes régularisation (typiques des méthodes par reconstruction). Bien que les méthodes existantes donnent déjà de bons résultats, ils ne prennent pas en compte la géométrie des données dans les différentes tâches. Par exemple, pour régulariser la solution, pour partitionner les données (les données sont souvent partitionnées avec des algorithmes qui utilisent la distance euclidienne comme mesure de dissimilitude), ou pour apprendre des dictionnaires (ils sont souvent appris en utilisant PCA ou K-SVD). Ainsi, les méthodes de l’état de l’art présentent encore certaines limites. Dans ce travail, nous avons proposé trois nouvelles méthodes pour dépasser ces limites. Tout d’abord, nous avons développé SE-ASDS (un terme de régularisation basé sur le tenseur de structure) afin d’améliorer la netteté des bords. SE-ASDS obtient des résultats bien meilleurs que ceux de nombreux algorithmes de l’état de l’art. Ensuite, nous avons proposé les algorithmes AGNN et GOC pour déterminer un sous-ensemble local de données d’apprentissage pour la reconstruction d’un certain échantillon d’entrée, où l’on prend en compte la géométrie sous-jacente des données. Les méthodes AGNN et GOC surclassent dans la majorité des cas la classification spectrale, le partitionnement de données de type « soft », et la sélection de sous-ensembles basée sur la distance géodésique. Ensuite, nous avons proposé aSOB, une stratégie qui prend en compte la géométrie des données et la taille du dictionnaire. La stratégie aSOB surpasse les méthodes PCA et PGA. Enfin, nous avons combiné tous nos méthodes dans un algorithme unique, appelé G2SR. Notre algorithme montre de meilleurs résultats visuels et quantitatifs par rapport aux autres méthodes de l’état de l’art. / Image super-resolution is defined as a class of techniques that enhance the spatial resolution of images. Super-resolution methods can be subdivided in single and multi image methods. This thesis focuses on developing algorithms based on mathematical theories for single image super-resolution problems. Indeed, in order to estimate an output image, we adopt a mixed approach: i.e., we use both a dictionary of patches with sparsity constraints (typical of learning-based methods) and regularization terms (typical of reconstruction-based methods). Although the existing methods already perform well, they do not take into account the geometry of the data to: regularize the solution, cluster data samples (samples are often clustered using algorithms with the Euclidean distance as a dissimilarity metric), learn dictionaries (they are often learned using PCA or K-SVD). Thus, state-of-the-art methods still suffer from shortcomings. In this work, we proposed three new methods to overcome these deficiencies. First, we developed SE-ASDS (a structure tensor based regularization term) in order to improve the sharpness of edges. SE-ASDS achieves much better results than many state-of-the-art algorithms. Then, we proposed AGNN and GOC algorithms for determining a local subset of training samples from which a good local model can be computed for reconstructing a given input test sample, where we take into account the underlying geometry of the data. AGNN and GOC methods outperform spectral clustering, soft clustering, and geodesic distance based subset selection in most settings. Next, we proposed aSOB strategy which takes into account the geometry of the data and the dictionary size. The aSOB strategy outperforms both PCA and PGA methods. Finally, we combine all our methods in a unique algorithm, named G2SR. Our proposed G2SR algorithm shows better visual and quantitative results when compared to the results of state-of-the-art methods.
275

La rupture du contrat / Breach of contract

Saidani, Hariz 13 December 2016 (has links)
Le contentieux contractuel éclate lorsque l'une des parties n'exécute plus ou pas ses obligations. La préoccupation essentielle en matière contractuelle, consiste à lutter contre une rupture abusive et arbitraire du contrat. La particularité du droit civil français en matière de rupture du contrat, est la place très importante qu'occupe le juge judiciaire. L'assurance de la protection des intérêts des parties et la garantie d'une sanction juste et équitable, reposent en effet, sur les épaules du juge. Il est par conséquent inconcevable que le juge soit écarté du jeu de la rupture contractuelle. L'orientation traditionnelle a toujours fait du juge un pilier dans le domaine de la séparation contractuelle, mais cette tendance commence quelque peu à se dissiper. Le juge doit toujours jouer un rôle très important en droit des contrats en général et dans sa rupture en particulier. Une protection efficace des parties donnerait à l'intervention du juge une utilité plus importante. Il est primordial, que le juge soit un acteur, en matière de rupture contractuelle, dont le rôle serait la garantie du respect des lois et la protection complète des parties ; le cas contraire, pourrait réduire alors la portée du code civil actuel à un simple catalogue de lois régissant l'anéantissement du contrat. / Contractual litigation arises when one of the parties fails to fulfill its obligations. Its main concern is to fight against abusive and arbitrary breach of contracts. In the French civil law, the judge occupies a very important place when debating breach of contracts. It is impossible to alienate the judge when it comes down to contract breaches. In fact, he insures that the interests of every concerned party are protected. He also guarantees that fair and equitable sanctions will be applied. Traditionally, the judge was very important when discussing breach of contracts. However, this trend is beginning to dissipate. In general, the judge plays a very important role in contract law, but his role is primordial when disputing contract termination. Effective protection of the parties would give the intervention of the judge a greater utility. It is essential that the judge remains an important actor when it comes to breach of contract as his role is to guarantee that the law is respected and that every party is adequately protected. On the contrary, it could reduce the importance of the current Civil Code to a mere catalog of laws governing the annulment contracts
276

Etude des performances d'un banc interférométrique en frange noire dans le cadre de la préparation de la mission Darwin

Gabor, Pavel 22 September 2009 (has links) (PDF)
Une future mission spatiale (Darwin, TPF-I) est en préparation pour étudier les planètes extrasolaires telluriques dans les zones habitables respectives de leurs étoiles, notamment, pour établir combien, parmi ces exoplanètes, ont une composition atmosphérique indiquant la présence de la photosynthèse biotique. Travaillant dans la bande spectrale de 6 à 18 m, l'interfèrométrie en frange noire doit permettre de distinguer le flux lumineux de l'exoplanète de celui de son étoile ainsi que des sources diffuses. La thèse résume les travaux expérimentaux conduits sur le banc Synapse à l'Institut d'Atrophysique Spatiale à Orsay. Le banc a été testé dans la bande K, de 2.0 à 2.5 µm, ainsi qu'avec une source laser à 3.39 µm. Les fibres optiques monomodes sont employées comme filtres du front d'onde. Le banc utilise deux paires (une dans chacun des deux bras) de prismes dispersifs qui servent de compensateur du chromatisme et de d´ephaseur achromatique. Les résultats confirment la tendance observée par d'autres équipes : les performances sont meilleures en lumière monochromatique qu'en bande large (taux d'extinction : 1E-5 monochromatique et 3E-4 bande large). Des études expérimentales extensives de ce phénomène sont décrites. A part ces travaux portant sur le principe de l'interférométrie en frange noire, nous avons testé un prototype du déphaseur achromatique basé sur le passage par un foyer optique. Nous avons d´eveloppé une technique pour stabiliser la différence de marche, mesurant le flux recombiné en modulant la différence de marche. Nous avons obtenu des niveaux de stabilité comparables à ceux qui sont nécessaires pour la future mission spatiale.
277

Approche d'évolution d'ontologie guidée par des patrons de gestion de changement.

Djedidi, Rim 26 November 2009 (has links) (PDF)
Les travaux de recherche développés dans cette thèse, définissent une approche d'évolution d'ontologie Onto-Evoal (Ontology Evolution-Evaluation) qui s'appuie sur une modélisation de patrons de gestion de changement CMP (Change Management Patterns). Ces patrons spécifient des classes de changements, des classes d'incohérences et des classes d'alternatives de résolution. Sur la base de ces patrons et des relations sémantiques entre eux, un processus automatisé permettant de conduire l'application des changements tout en maintenant la cohérence de l'ontologie évoluée a été développé. L'approche intègre également une activité d'évaluation basée sur un modèle de qualité d'ontologie qui a été défini. Ce modèle est employé pour guider la gestion des incohérences en évaluant l'impact des résolutions proposées sur le contenu et l'usage de l'ontologie à travers un ensemble de métriques quantitatives et ce, afin de choisir une résolution qui préserve la qualité de l'ontologie évoluée. La gestion des changements étant fortement liée au modèle dans lequel est représentée l'ontologie, nous nous sommes focalisés sur le langage OWL en tenant compte de l'impact des changements sur la cohérence logique de l'ontologie telle que spécifiée dans la couche OWL DL. Les principales contributions de l'approche résident dans la modélisation des patrons de gestion de changement guidant le processus d'évolution, l'intégration de l'évaluation de la qualité pour optimiser la résolution des changements et la modélisation formelle et explicite du journal d'évolution.
278

APPROCHE DIRECTE DE L'ESTIMATION AUTOMATIQUE DE L'ORIENTATION 3D D'IMAGES

Kalantari, Mahzad 04 September 2009 (has links) (PDF)
Récemment, la géomatique grand public s'est emparée de la représentation 3D des bâtiments. Le besoin d'acquérir des images et de les restituer en 3D, sous forme de maquettes parfaitement fidèles à la réalité, est ainsi devenu immense. On a donc vu depuis une décennie, se construire des véhicules capables de photographier en stéréoscopie des villes entières, et il a fallu concevoir les algorithmes capables de traiter ces énormes quantités d'images. Très naturellement, les industriels en charge de ces problèmes se sont tournés vers les outils de vision par ordinateur et de robotique, très bien adaptés aux calculs temps réel, oubliant l'essentiel de l'héritage de la photogrammétrie, orientée quant à elle vers une extrême précision, jugée ici comme une moindre priorité. Néanmoins, les algorithmes publiés en vision par ordinateur présentaient de réels défauts lorsqu'ils étaient appliqués à des surfaces planes alors que ce cas est extrêmement courant dans des scènes urbaines pour traiter les façades de bâtiments. Les recherches que nous avons menées ont porté sur la recherche de solutions nouvelles, capables d'exploiter les spécificités de telles images : tout d'abord, nos travaux ont cherché à accélérer l'orientation relative des images, en tirant bénéfice des points de fuite figurant dans celles-ci. Pour ce faire, de nouvelles méthodes d'extraction automatique de ces points ont été mises au point et évaluées plus performantes que celles disponibles jusqu'ici. Ensuite, nos recherches ont porté sur les moyens de corriger le défaut évoqué précédemment pour les surfaces planes, et de nouveaux algorithmes capables de donner en temps quasi-réel de bonnes solutions d'orientation relative pour de telles scènes ont été développés. A cette fin, de nouveaux outils mathématiques ont été utilisés : les bases de Gröbner. En rupture complète avec les solutions linéaires habituelles, ils permettent en effet une résolution directe des équations sous leur forme polynomiale. Ils évitent de passer par l'habituelle linéarisation, qui nécessitait une solution approchée parfois difficile à trouver dans les usages de photogrammétrie terrestre. Finalement, nos travaux ont porté sur les moyens d'accélérer les méthodes d'orientation relative en exploitant opportunément la connaissance de la direction verticale, obtenue par exemple à l'aide du nouvel algorithme de détection des points de fuite. Au total, la thèse présente une remise à plat générale des solutions permettant l'orientation et la localisation de tout un ensemble d'images.
279

Etude et mise au point d'une portion de calorimetre a cristaux de bgo du detecteur L3 a LEP

Chakir, H. 20 January 1989 (has links) (PDF)
Dans le cadre de la préparation de l'expérience L3 sur LEP au CERN, cette thèse présente une étude d'une portion du calorimètre électromagnétique formée de 100 cristaux de germanate de bismuth (B.G.O.). La lumière de scintillation de chacun des cristaux est lue par des photodiodes de grande surface (2 X 1.5 cm2).<br />L'electronique asociée aux photodiodes est étudiée de façon détaillée depuis les préamplificateurs de charge (responsabilité spécifique du groupe de lyon) jusqu'aux convertisseurs analogique-digital.<br />En particulier, le rapport signal sur bruit est discuté en relation avec les performances du détecteur à basse énergie. Le bruit électronique obtenu par cristal est de l'ordre de 1300 électrons, soit 1.5 MeV B.G.O. Il comporte une partie intrinsèque et une forte partie corrélée qui joue un rôle important à basse énergie dans la dégradation de la résolution en énergie. L'ensemble des résultats obtenus a permis d'atteindre le stade final de la construction du calorimètre électromagnétique.
280

Complémentarité polarimétrie/interférométrie pour la détection et la caractérisation de cibles.

Guillaso, Stéphane 27 November 2003 (has links) (PDF)
Ce travail est consacré à l'étude de la complémentarité polarimétrie / interférométrie pour la détection et la caractérisation de cibles en utilisant des données SAR. La télédétection polarimétrique concerne l'étude du comportement de l'onde interagissant avec une scène et renseigne sur la nature physique de la zone étudiée. L'interférométrie informe sur la nature topographique de la scène ou sur les déformations de celle-ci. L'interférométrie et la polarimétrie sont des outils très performants en télédétection SAR qui sont généralement appliqués séparément.<br />La notion de complémentarité polarimétrie/interférométrie consiste à relier une phase interférométrique avec un mécanisme de diffusion. Les approches exposées introduisent les méthodes à haute résolution, principalement la méthode ESPRIT, dans l'imagerie SAR. Elles permettent ainsi de distinguer la phase d'un sol de celle de la canopée, dans une zone forestière et d'isoler la phase d'un bâtiment du reste de son environnement.<br />Un autre concept de la complémentarité est proposé : la superrésolution. Il s'agit d'utiliser des données interférométriques afin d'améliorer la résolution d'une image SAR. Les résultats d'analyses polarimétriques en appliquant le principe de la superrésolution permettent une meilleure caractérisation de la nature des cibles, comme la détection des contours de bâtiments.<br />Les différentes méthodes exposées ont été appliquées sur des données SAR polarimétriques interférométriques en bande L afin d'améliorer l'estimation et la caractérisation des zones urbaines, par rapport à l'utilisation de la polarimétrie ou de l'interférométrie de façon séparée.

Page generated in 0.0739 seconds