• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 461
  • 98
  • 63
  • 11
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 652
  • 208
  • 139
  • 76
  • 59
  • 51
  • 51
  • 50
  • 47
  • 46
  • 43
  • 41
  • 40
  • 40
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Etude des caractéristiques physico-chimiques de nouveaux bétons éco-respectueux pour leur résistance à l'environnement dans le cadre du développement durable

Bur, Nicolas 05 September 2012 (has links) (PDF)
La compréhension des mécanismes à l'origine de la formation de la porosité et de ses propriétés dans les matériaux cimentaires est un enjeu majeur pour l'évaluation de leur durabilité. L'utilisation des laitiers de haut fourneau comme liant hydraulique modifie les phases formées, leur proportion et la microstructure des mortiers et bétons. Il reste un grand nombre de verrous scientifiques à lever concernant les paramètres modifiant les valeurs de porosité, le rayon des capillaires et, par conséquent, la perméabilité. Des échantillons de mortiers ont été réalisés avec différents mélanges de CEM I et de laitiers de haut-fourneau puis différentes cures ont été utilisées afin d'évaluer l'influence de la baisse de la température ou de l'hygrométrie sur la géométrie de leur porosité. Différentes techniques d'analyses de porosité et de perméabilité ont permis de mettre en évidence principalement une augmentation de la porosité totale et libre, des rayons des capillaires et de la perméabilité avec l'augmentation de la proportion de laitier et la diminution de l'hygrométrie. Des observations au microscope électronique à balayage à pression de vapeur d'eau contrôlée ont permis de montrer le lien entre l'ouverture des capillaires et l'hygrométrie. Ainsi les forces exercées par les pressions de disjonction et les pressions capillaires déforment les hydrates de manière à fermer les capillaires avec l'augmentation de l'hygrométrie. La mise au point d'une méthode originale de cartographie de la porosité à partir de données de conductivité thermique a permis de confirmer la présence d'une peau et de déterminer son étendue. Grâce à cette technique, il est possible d'évaluer la distribution des taux de porosité au travers des échantillons. De plus, une nouvelle approche d'analyse a permis de cartographier à partir du même modèle la distribution des proportions relatives de granulats.
412

Exploration de corpus scientifiques et techniques.

Ibekwe-Sanjuan, Fidelia 30 June 2010 (has links) (PDF)
Ce mémoire d'HDR met en perspective les recherches que nous avons conduites en Sciences de l'information et de la communication (SIC) au cours des douze dernières années. Partie d'une problématique pratique d'accès à l'information spécialisée dans le cadre de la veille scientifique et technologique, nous avons été amenée peu à peu à interroger les fondements mêmes de la discipline, ses concepts fondamentaux et les paradigmes qui la traversent. Les quatre premiers chapitres reviennent sur le chemin parcouru par les SIC depuis leurs origines (1972) jusqu'à présent. Les cinq chapitres suivants mettent en perspective les axes de recherche que nous avons développés dont l'exploration de corpus scientifiques et techniques forme le noyau. Cet axe de travail a conduit à la mise au point d'un dispositif technique d'analyse des publications permettant de générer une cartographie thématique des principales tendances observées dans le corpus. Un deuxième axe, conçu dans le prolongement du premier, porte sur l'analyse discursive des textes scientifiques pour la caractérisation des marques d'énonciation des auteurs. Cet axe de recherche trouve ses racines dans la théorie des facettes développée dans le milieu documentaire par Ranganathan en 1933. Le troisième axe porte sur une analyse du paradigme orienté-système qui domine actuellement les recherches en recherche d'information. Nous revenons sur les modalités d'évaluation des systèmes de recherche d'information et sur leur réelle l'utilité pour de vrais usagers. Un quatrième axe portant sur les usages des TIC (Technologies de l'Information et de la Communication) étudie les ressorts du concept de " bibliothèques participatives " (participatory libraries) outre-Atlantique. Les thèmes abordés dans les chapitres précédents permettent de dégager les perspectives d'avenir.
413

Fusion de données multi capteurs pour la détection et le suivi d'objets mobiles à partir d'un véhicule autonome

Baig, Qadeer 29 February 2012 (has links) (PDF)
La perception est un point clé pour le fonctionnement d'un véhicule autonome ou même pour un véhicule fournissant des fonctions d'assistance. Un véhicule observe le monde externe à l'aide de capteurs et construit un modèle interne de l'environnement extérieur. Il met à jour en continu ce modèle de l'environnement en utilisant les dernières données des capteurs. Dans ce cadre, la perception peut être divisée en deux étapes : la première partie, appelée SLAM (Simultaneous Localization And Mapping) s'intéresse à la construction d'une carte de l'environnement extérieur et à la localisation du véhicule hôte dans cette carte, et deuxième partie traite de la détection et du suivi des objets mobiles dans l'environnement (DATMO pour Detection And Tracking of Moving Objects). En utilisant des capteurs laser de grande précision, des résultats importants ont été obtenus par les chercheurs. Cependant, avec des capteurs laser de faible résolution et des données bruitées, le problème est toujours ouvert, en particulier le problème du DATMO. Dans cette thèse nous proposons d'utiliser la vision (mono ou stéréo) couplée à un capteur laser pour résoudre ce problème. La première contribution de cette thèse porte sur l'identification et le développement de trois niveaux de fusion. En fonction du niveau de traitement de l'information capteur avant le processus de fusion, nous les appelons "fusion bas niveau", "fusion au niveau de la détection" et "fusion au niveau du suivi". Pour la fusion bas niveau, nous avons utilisé les grilles d'occupations. Pour la fusion au niveau de la détection, les objets détectés par chaque capteur sont fusionnés pour avoir une liste d'objets fusionnés. La fusion au niveau du suivi requiert le suivi des objets pour chaque capteur et ensuite on réalise la fusion entre les listes d'objets suivis. La deuxième contribution de cette thèse est le développement d'une technique rapide pour trouver les bords de route à partir des données du laser et en utilisant cette information nous supprimons de nombreuses fausses alarmes. Nous avons en effet observé que beaucoup de fausses alarmes apparaissent sur le bord de la route. La troisième contribution de cette thèse est le développement d'une solution complète pour la perception avec un capteur laser et des caméras stéréo-vision et son intégration sur un démonstrateur du projet européen Intersafe-2. Ce projet s'intéresse à la sécurité aux intersections et vise à y réduire les blessures et les accidents mortels. Dans ce projet, nous avons travaillé en collaboration avec Volkswagen, l'Université Technique de Cluj-Napoca, en Roumanie et l'INRIA Paris pour fournir une solution complète de perception et d'évaluation des risques pour le démonstrateur de Volkswagen.
414

Localisation d'un véhicule à l'aide d'un SLAM visuel contraint

Larnaout, Dorra 06 May 2014 (has links) (PDF)
Pour se localiser en ville, la majorité des solutions commercialisées se base sur les systèmes GPS. Même si ces systèmes offrent une précision suffisante hors agglomération, celle-ci se dégradent considérablement en villes à cause des phénomènes connus sous le nom du canyon urbain (i.e. réflexion du signal GPS sur les façades des bâtiments). Pour pallier ce problème, les solutions basées sur un SLAM visuel (Simultaneous Localization And Mapping) semblent une alternative prometteuse. En plus de l'estimation des six degrés de liberté de la caméra mobile, il fournit une carte 3D de la scène observée. Toutefois, la localisation assurée par le SLAM visuel n'est pas géo-référencée et présente souvent des dérives (e.g. mauvaise estimation du facteur d'échelle, accumulation des erreurs). Pour faire face à ces limitations et afin de proposer une solution facile à déployer, nous avons étudié la possibilité d'intégrer au SLAM des informations supplémentaires qui pourraient contraindre l'ensemble de la reconstruction fournie. Ces dernières doivent alors être peu couteuses et disponibles en milieux urbains denses et péri-urbains. C'est pour cette raison que nous avons choisi d'exploiter les contraintes fournies par un GPS standard et celles apportées par des modèles issus des Systèmes d'Information Géographique, plus précisément : des modèles 3D des bâtiments et des modèles d'élévation de terrain. La principale contribution de ces travaux réside en l'intégration de ces contraintes au sein de l'ajustement de faisceaux (i.e. processus d'optimisation du SLAM). Ceci n'est pas trivial étant donné que combiner des contraintes agissant sur la trajectoire de la caméra et la reconstruction 3D peut entrainer des problèmes de convergences, en particulier lorsque les informations exploitées ont des incertitudes variées, voire même des données biaisées ou aberrantes (e.g. Pour les mesures du GPS). Différentes solutions Larnaout et al. (2012, 2013a,b,c) permettant de combiner plusieurs de ces contraintes simultanément tout en limitant les problèmes de convergence ont été développées. Les solutions proposées ont été validées sur des séquences de synthèse et d'autres réelles de plusieurs kilomètres enregistrées dans des conditions de circulation normale. Les résultats obtenus montrent que la précision atteinte au niveau de l'estimation des six degrés de liberté de la caméra permet d'assurer des nouvelles applications d'aide à la navigation par le biais de la Réalité Augmentée. En plus de leur précision, nos approches ont l'avantage d'être rapides, peu couteuses et faciles à déployer (ne nécessitant pas un matériel sophistiqué).
415

Rejeu de chemin et localisation monoculaire : Application du Visual SLAM sur carte peu dense en environnement extérieur contraint.

Thomas, Féraud 09 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un ltre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normale de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
416

Rejeu de chemin et localisation monoculaire : application du Visual SLAM sur carte peu dense en environnement extérieur contraint

Féraud, Thomas 09 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un filtre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normal de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM ; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
417

Toponymie et espace en Algérie

Atoui, Brahim 15 July 1996 (has links) (PDF)
CE TRAVAIL UNIVERSITAIRE EST UNE TENTATIVE DE LECTURE DE L'ESPACE ALGERIEN A PARTIR DES TOPONYMIES PAR LE BIAIS DE METHODES PROPRES A LA GEOGRAPHIE. L'ETUDE DE LA RELATION HOMME ESPACE PEUT ETRE ENVISAGEE SOUS L'ANGLE DE LA LECTURE DES NOMS DE LIEUX OU DES NOMS D'ESPACES, DANS L'EXACTE MESURE OU N'EXISTE QUE CE QUI EST NOMME. DES MULTIPLES METHODES QUI SONT OFFERTES, NOUS AVONS JUGE UTILE DE RETENIR CELLE QUI CONSISTE A CONSIDERER COMMENT LES HOMMES PERCOIVENT ET PAR CONSEQUENT DESIGNENT ET NOMMENT LEUR ESPACE. CETTE ETUDE EST D'ABORD, UN ESSAI D'ANALYSE THEORIQUE BASE SUR DES CONSTATS AYANT COMME SUPPORT L'ESPACE; ENSUITE ELLE ESSAIE DE METTRE A JOUR LES RELATIONS JUSQU'ICI MAL CERNEES OU TRES PEU ETUDIEES, QUI EXISTENT ENTRE LE TOPONYME ET L'ESPACE OU LA PORTION D'ESPACE QU'IL DESIGNE, POUR FINALEMENT POSER DES HYPOTHESES A PARTIR DES CONSTATS GRAPHIQUES, CARTOGRAPHIQUES ET NUMERIQUES, SANS POUR AUTANT AVOIR A CHAQUE FOIS DES REPONSES DEFINITIVES. DANS L'ORGANISATION DES SOCIETES HUMAINES D'UNE FACON GENERALE, ET DE LA SOCIETE ALGERIENNE EN PARTICULIER EXISTE-T'IL UN EFFET DE LIEU LIE AU TOPONYME ? EN D'AUTRES TERMES LA TOPONYMIE INTERVIENT-ELLE COMME INDICATEUR, REFERANT ET FACTEUR EXPLICATIF DE L'ORGANISATION SPATIALE ?
418

Champs aléatoires de Markov cachés pour la cartographie du risque en épidémiologie

Azizi, Lamiae 13 December 2011 (has links) (PDF)
La cartographie du risque en épidémiologie permet de mettre en évidence des régionshomogènes en terme du risque afin de mieux comprendre l'étiologie des maladies. Nousabordons la cartographie automatique d'unités géographiques en classes de risque commeun problème de classification à l'aide de modèles de Markov cachés discrets et de modèlesde mélange de Poisson. Le modèle de Markov caché proposé est une variante du modèle dePotts, où le paramètre d'interaction dépend des classes de risque.Afin d'estimer les paramètres du modèle, nous utilisons l'algorithme EM combiné à une approche variationnelle champ-moyen. Cette approche nous permet d'appliquer l'algorithmeEM dans un cadre spatial et présente une alternative efficace aux méthodes d'estimation deMonte Carlo par chaîne de Markov (MCMC).Nous abordons également les problèmes d'initialisation, spécialement quand les taux de risquesont petits (cas des maladies animales). Nous proposons une nouvelle stratégie d'initialisationappropriée aux modèles de mélange de Poisson quand les classes sont mal séparées. Pourillustrer ces solutions proposées, nous présentons des résultats d'application sur des jeux dedonnées épidémiologiques animales fournis par l'INRA.
419

Apports de l'imagerie à haute résolution spectrale et spatiale dans les bilans de volume et bilans radiatifs au Piton de La Fournaise

Servadio, Zarah 15 December 2011 (has links) (PDF)
La télédétection ouvre des perspectives nouvelles pour l'étude et la surveillance des volcans. Dans le cadre de cette thèse, différentes approches ont été abordées. L'imagerie satellite optique et thermique permet d'avoir une vue synoptique sur une large surface. La compréhension des changements d'état de surface est particulièrement importante dans le suivi de l'activité des volcans actifs. Plusieurs questions se posent : * Quels avantages offrent les satellites optiques d'observation de la Terre pour les calculs des volumes de lave émis ? * Quelles sont leurs limites ? * Les calculs de débits réalisés par télédétection sont-ils fiables ? * Quel est l'intérêt d'une approche multi-outils et multi-source ? Ces questions ont été abordées en prenant le Piton de la Fournaise pour cible. Plusieurs méthodes ont été mises en oeuvre et testées : 1) L'extraction automatique des contours de coulées de lave, 2) la création de modèle numérique d'élévation (MNE) par imagerie satellite, 3) le calcul de débits à partir d'images thermiques, 4) le suivi post éruptif d'une coulée par la modélisation de son refroidissement et la mesure des déformations observées in-situ. La plus-value de ce travail est la capacité de valider les résultats des modèles issus de la télédétection par des mesures in situ du fait de la proximité des sites étudiés. L'utilisation de ces techniques a permis d'obtenir des débits moyens d'écoulement des laves pour plusieurs éruptions et de suivre l'évolution topographique du volcan et de ses grandes structures. Les mesures thermiques par satellite fournissent le moyen de contraindre les variations du débit des éruptions dans le temps, tandis que les MNE ont permis d'obtenir un volume total dans le cas de coulées présentant de fortes épaisseurs. Grâce à ces techniques, il a été possible de définir deux types d'éruptions avec des évolutions semblables à celles observées sur différents volcans comme l'Etna (Italie) ou le Krafla (Islande). Les problèmes de nébulosité étant récurrent sur notre zone d'étude, la complémentarité des techniques est particulièrement intéressante pour obtenir une information fiable. Toutes les techniques utilisées dans cette thèse sont applicables à d'autres volcans ou à d'autres thématiques.
420

Vector flow mapping using plane wave ultrasound imaging

Dort, Sarah 12 1900 (has links)
Les diagnostics cliniques des maladies cardio-vasculaires sont principalement effectués à l’aide d’échographies Doppler-couleur malgré ses restrictions : mesures de vélocité dépendantes de l’angle ainsi qu’une fréquence d’images plus faible à cause de focalisation traditionnelle. Deux études, utilisant des approches différentes, adressent ces restrictions en utilisant l’imagerie à onde-plane, post-traitée avec des méthodes de délai et sommation et d’autocorrélation. L’objectif de la présente étude est de ré-implémenté ces méthodes pour analyser certains paramètres qui affecte la précision des estimations de la vélocité du flux sanguin en utilisant le Doppler vectoriel 2D. À l’aide d’expériences in vitro sur des flux paraboliques stationnaires effectuées avec un système Verasonics, l’impact de quatre paramètres sur la précision de la cartographie a été évalué : le nombre d’inclinaisons par orientation, la longueur d’ensemble pour les images à orientation unique, le nombre de cycles par pulsation, ainsi que l’angle de l’orientation pour différents flux. Les valeurs optimales sont de 7 inclinaisons par orientation, une orientation de ±15° avec 6 cycles par pulsation. La précision de la reconstruction est comparable à l’échographie Doppler conventionnelle, tout en ayant une fréquence d’image 10 à 20 fois supérieure, permettant une meilleure caractérisation des transitions rapides qui requiert une résolution temporelle élevée. / Clinical diagnosis of cardiovascular disease is dominated by colour-Doppler ultrasound despite its limitations: angle-dependent velocity measurements and low frame-rate from conventional focusing. Two studies, varying in their approach, address these limitations using plane-wave imaging, post-processed with the delay-and-sum and autocorrelation methods. The aim of this study is to re-implement these methods, investigating some parameters which affect blood velocity estimation accuracy using 2D vector-Doppler. Through in vitro experimentation on stationary parabolic flow, using a Verasonics system, four parameters were tested on mapping accuracy: number of tilts per orientation, ensemble length for single titled images, cycles per transmit pulse, and orientation angle at various flow-rates. The optimal estimates were found for 7 compounded tilts per image, oriented at ±15° with 6 cycles per pulse. Reconstruction accuracies were comparable to conventional Doppler; however, maintaining frame-rates more than 10 to 20 times faster, allowing better characterization of fast transient events requiring higher temporal resolution.

Page generated in 0.028 seconds