• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 524
  • 233
  • 59
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 814
  • 345
  • 343
  • 190
  • 151
  • 103
  • 95
  • 85
  • 84
  • 83
  • 70
  • 65
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

La détection des contours dans des images à niveaux de gris : mise en oeuvre et sélection de détecteurs

Ziou, Djemel 11 October 1991 (has links) (PDF)
La détection de contour a pour objectif l'acquisition d'une représentation compacte de toutes les propriétés significatives de la scène perçue. Elle doit être efficace et fiable, car la validité et l'efficacité ainsi que les possibilités de réalisation des traitements ultérieurs y sont directement liées. Cependant, la présence du bruit dans l'image rend difficile la conception d'un algorithme général de détection de contours satisfaisant d'une manière optimale ces exigences. C'est la raison pour laquelle de nombreux détecteurs ont été proposés souvent différents par leur objectif ainsi que par leurs propriétés mathématiques et algorithmiques. Le problème auquel se trouve souvent confronter les utilisateurs de la détection de contours est le choix du détecteur le plus approprié pour l'application envisagée. Le thème central de cette thèse est la détection de contours dans des images à niveaux de gris, en visant la mise en œuvre d'une sélection automatique de détecteurs et de leurs paramètres les plus appropriés pour mettre en évidence un contour donné. Pour disposer d'un ensemble d'outils nécessaires à la détection de contours, nous proposons deux détecteurs de contours originaux. Le premier est destiné aux lignes de crête. Il est optimal au sens de Canny et implanté efficacement par des équations aux différences. Le second est un détecteur de contours fermés de type marche fondé sur des techniques d'apprentissage. Il est destiné à des images comportant quelques objets poses sur un fond. Cet algorithme peut être utilisé pour la détection de contours et pour l'extraction de régions. La définition d'un critère de sélection de détecteurs et le calcul automatique de leurs paramètres nécessitent la spécification de la relation de cause à effet entre les caractéristiques du contour et les propriétés des détecteurs. Dans ce contexte, nous proposons une étude bibliographique approfondie et une étude théorique mettant en évidence l'influence des attributs des contours sur les performances des détecteurs. Cette étude validée par des expérimentations a permis d'obtenir des résultats originaux. En ce qui concerne la sélection des détecteurs de contours, nous proposons une approche incrémentale qui consiste à choisir un seul détecteur à chaque itération. La combinatoire de l'approche proposée est faible grâce à l'utilisation d'heuristiques. Le système implanté est composé d'algorithmes originaux. Il a l'avantage de fournir une solution efficace assurant le compromis entre deux critères de performance qui sont de nature antagoniste : la détection et la localisation.
222

Sur le passage à l'échelle des systèmes de gestion des grandes masses de données

Tran, Viet-Trung 21 January 2013 (has links) (PDF)
La problématique "Big Data" peut être caractérisée par trois "V": * "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. * "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. * "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture.
223

Développement de la microdiffraction Kossel pour l'analyse des déformations et contraintes à l'échelle du micromètre : applications à des matériaux cristallins

Bouscaud, Denis 18 May 2012 (has links) (PDF)
La diffraction des rayons X est une technique non destructive fréquemment utilisée en sciences des matériaux pour déterminer les contraintes résiduelles à une échelle macroscopique. Du fait de la complexité croissante des nouveaux matériaux et de leurs applications, il devient nécessaire de connaître l'état de déformation / contrainte à une échelle plus petite. Dans ce sens, un outil expérimental appelé microdiffraction Kossel a été développé au sein d'un microscope électronique à balayage. Il permet de déterminer l'orientation cristallographique et les déformations / contraintes avec une résolution spatiale de plusieurs micromètres. Des analyses ont aussi été réalisées avec un rayonnement synchrotron. Une méthodologie expérimentale a été développée de manière à optimiser l'acquisition des clichés et leur post-traitement. La procédure de détermination des contraintes a été validée en comparant les états de contrainte de monocristaux sous chargement mécanique in situ, obtenus en microdiffraction Kossel et avec des techniques de diffraction classiques. La microdiffraction Kossel a ensuite été appliquée à des matériaux polycristallins en diminuant progressivement la taille des grains analysés. Des hétérogénéités intergranulaires assez marquées ont par exemple été mesurées sur un acier IF. Des mesures ont enfin été réalisées sur des couches minces représentatives des composants de la microélectronique.
224

Simulating climate over North America and atmospheric low-frequency variability using variable resolution modeling approach

Markovic, Marko 05 1900 (has links) (PDF)
Les modèles climatiques à résolution variable, dont les modèles à grille étirée, permettent l'utilisation d'une fine résolution sur les zones d'intérêts, résolution hors d'atteinte pour les modèles mondieux. L'approche à résolution variable possède aussi l'avantage d'une grande efficacité concernant l'utilisation des ressources de calcul. L'absence dans de tels modèles de conditions aux frontières latérales représente aussi un atout pour la simulation du climat à l'échelle mondiale mais aussi régionale. Cette étude à pour objectif d'évaluer la simulation du climat nord-américain à l'aide de la configuration à résolution variable du Global Multiscale model (SGM-GEM) afin d'évaluer les bénéfices respectifs de localiser la zone de haute résolution localement, au-dessus de l'Amérique du Nord, ou au-dessus du Pacifique équatorial, région de forçage important pour la variabilité du climat nord-américain. De plus, nous avons étudié les bénéfices potentiels de l'approche à résolution variable avec une emphase sur les téléconnections entre les anomalies de la température de surface de la mer et le climat nord-américain. Nous avons évalué des ensembles de simulations de prédiction saisonnière des mois hivernaux d'années ENSO sélectionnées. Les ensembles comprennent 10 membres pour chacune des configurations du SGM-GEM présentées précédemment. En comparaison avec la version de GEM à grille uniforme (simulation de référence), il a été démontré que les simulations utilisant l'approche à résolution variable, pour chacune des configurations, reproduisent généralement mieux les observations au-dessus de leurs zones à haute résolution, malgré une détérioration de certaines variables. De plus, certaines erreurs systématiques observées dans la simulation de référence demeurent présentes dans les simulations du SGM-GEM. La localisation de la zone de haute résolution au-dessus d'une zone de forçage important (Pacifique équatorial) ne semble pas provoquer une amélioration nette du climat au-dessus de la région d'intérêt (Amérique du Nord) pour les simulations climatiques multi-annuelles. Chacune des configurations du SGM-GEM testée simule des téléconnections réalistes associées au mode dominant de la variabilité interannuelle des anomalies de la SST du Pacifique équatorial. Les simulations SGM-GEM avec la zone de haute résolution au-dessus du continent nord-américain reproduisent avec plus de précision les anomalies de la température près de la surface et obtiennent de meilleures résultats d'analyse (skill scores) pour l'ensemble du continent. Par contre, aucune configuration ne semble indiquer une amélioration claire de la simulation du géopotentiel à 500hPa au-dessus du continent. Les erreurs dans la prévision du rapport signal-bruit est le résultat des non-linéarités des réponses aux deux composites ENSO et interprétées comme le résultat des incohérences des réactions du modèle atmosphérique aux différentes anomalies de la température de surface de la mer. Les résultats de cette étude ne peuvent démontrer que, dans un contexte de prédiction saisonnière, l'approche à résolution variable représente un avantage en comparaison à l'approche à résolution uniforme. L'amélioration de la prédiction des champs de surface produite par les simulations SGM-GEM semble être reliée à une représentation plus précise du bilan radiatif de surface et à d'autres processus de surface directement liés au schéma de surface utilisé. ______________________________________________________________________________
225

Analyse mathématique et contrôle optimal de lois de conservation multi-échelles : application à des populations cellulaires structurées

Shang, Peipei 05 July 2012 (has links) (PDF)
Dans cette thèse, on a surtout étudié le caractère bien posé pour des équations aux dérivées partielles et des problèmes de contrôle optimal. On a étudié les problèmes de Cauchy associés à des lois de conservation hyperboliques avec des vitesses non locales, pour un modèle 1D (système de fabrication industrielle), puis 2D (processus de sélection folliculaire). Dans les deux cas, on montre l'existence et l'unicité de solutions des problèmes de Cauchy, en utilisant le théorème du point fixe de Banach. On a étudié par la suite des problèmes de contrôle optimal, d'abord sur le modèle 2D, puis sur un modèle basé sur des équations differentielles ordinaires (amplification de protéines mal repliées). Dans le premier modèle, on montre que les contrôles optimaux sont bang-bang avec un seul instant de commutation. Dans le second modèle, les contrôles optimaux sont relaxés, nous déterminons leur positionnement dans l'espace des contrôles admissibles.
226

Aspects expérimentaux et cliniques de l'Hypnose

Michaux, Didier 01 January 1982 (has links) (PDF)
L'étude a pour objet de mieux définir l'hypnose et la nature de ses relations avec la suggestion. Elle porte sur un échantillon de 52 sujets dont la susceptibilité hypnotique a été appréhendée à partir d'une version légèrement aménagée des échelles de Stanford. <br /> <br />Les principales parties de cette étude sont :<br /> <br />1- Une présentation de l'histoire de l'hypnose et des différents modèles qui ont été proposés pour en donner une explication plausible,<br />2- Un exposé de différentes recherches et leurs apports dans une réflexion portant sur les liens entre hypnose et suggestion, <br />3- La présentation de l'étude, de ses outils et de ses méthodes. Les outils permettent : - l'analyse des comportements hypnotiques, - l'étude du vécu des suggestions, - et aussi l'étude du vécu de l'hypnose. Les données sont analysées à l'aide de l'analyse des correspondances de Benzécri. <br /> <br />Très précise et détaillée cette thèse pourra apporter aux lecteurs et particulièrement aux personnes en formation, un outil utile pour mieux connaître l'ensemble des réactions observables dans la situation hypnotique.
227

Comportement thermomécanique d'éléments de structures composites en milieu cryogénique extrême

Alzina, Arnaud 26 October 2005 (has links) (PDF)
En raison de leur faible conductivité thermique et de leur rigidité spécifique élevée, les matériaux composites verre-E/époxyde à renfort textile sont utilisés pour la fabrication des supports de cryodipôles de l'accélérateur de particules LHC. Ces supports sont soumis à des chargements thermique et mécanique complexes nécessitant une étude approfondie de leur réponse. La méthode d'étude proposée ici est de type multi-échelle. Elle est basée sur deux homogénéisations successives, de manière à prendre en compte la forte thermodépendance du module d'élasticité et de la déformation thermique de la résine d'une part et le mécanisme des phonons qui modifie le transfert thermique aux interfaces fibres/matrice pour les températures inférieures à 10 K d'autre part. <br />A chaque étape de cette étude, les résultats des modèles sont validés par des résultats de mesures de conductivité thermique et de modules d'élasticité pour des températures comprises entre 4,2 K et 293 K.
228

Contribution à la caractérisation multi-échelle de l'anisotropie des images texturées

Germain, Christian 17 December 1997 (has links) (PDF)
Ce travail est consacré à la caractérisation de l'anisotropie des images. Pour y parvenir, il est établi que, dans le cas de textures complexes, la mesure de l'orientation dominante comme celle de l'anisotropie dépendent fortement de l'échelle à laquelle la texture a été observée.<br />Le premier chapitre définit la notion de texture et celle d'échelle d'observation. Les différentes approches de caractérisation texturale existantes sont présentées et leur aptitude à rendre compte des phénomènes directionnels à différentes échelles d'observation est évaluée.<br />Le second chapitre présente les méthodes les plus courantes pour l'estimation de l'orientation dominante d'une texture. Un indicateur local est ensuite proposé : le Vecteur Directionnel Moyen. Il s'appuie sur des caractéristiques locales et peut être calculé à toute échelle d'observation. Ses performances sont étudiées sur des images de synthèse et sur des textures naturelles.<br />Le troisième chapitre introduit un nouvel indicateur d'anisotropie nommé Iso. Il est basé sur le calcul des différences locales des Vecteurs Directionnels Moyens obtenus à une échelle donnée. Ses performances sont comparées à celles des estimateurs classiques de dispersion directionnelle.<br />Le dernier chapitre est consacré à l'évaluation de l'anisotropie de textures complexes (microscopiques et macroscopiques) en fonction de l'échelle d'observation. Un modèle de texture complexe est construit et le comportement de l'indicateur Iso sur ce modèle est établi. L'indicateur est ensuite appliqué à la caractérisation de textures naturelles et de synthèse. Il est ensuite montré que l'évolution de cet indicateur en fonction de l'échelle d'observation fournit une courbe qui caractérise à la fois l'anisotropie de la texture traitée ainsi que la taille des différentes primitives texturales microscopiques et macroscopiques formant cette texture. L'indicateur Iso , calculé à différentes échelles, est appliqué à des textures synthétiques, à des textures de l'album de Brodatz ainsi qu'à des images de matériaux composites observés par microscopie électronique à transmission.
229

Modélisation numérique des aérosols à l'échelle locale

Albriet, Bastien 02 1900 (has links) (PDF)
A l'échelle locale et dans les zones habitées, une part importante de la pollution particulaire est imputable au trafic automobile. Plus précisément, il contribue fortement à l'augmentation des concentrations en nombre. Principalement deux sources de particules sont reliées au trafic. L'émission primaire de particules de suies et la formation de nanoparticules secondaires par nucléation. Les émissions et les mécanismes menant à la formation de cette distribution bimodale sont encore mal connus de nos jours. Dans cette thèse, on propose de tenter de répondre à cette problématique par la modélisation numérique. Le modèle modal d'aérosols MAM est utilisé, couplé à deux codes 3D : un CFD (Mercure Saturne) et un CTM (Polair3D). La méthode consiste à effectuer des tests de sensibilité, à l'échelle d'un bord de route mais aussi dans les premiers mètres du panache d'échappement, afin d'identifier les rôles respectifs des divers processus ainsi que les paramètres sensibles de la modélisation.
230

Effet du réseau bocager sur l'organisation des sols. Redistributions des sols et stockage en carbone organique

Follain, Stéphane 12 December 2005 (has links) (PDF)
L'effet du réseau bocager sur l'organisation des sols à l'échelle d'un paysage reste mal connu, car la majorité des études ont été menées en deux dimensions, en se limitant souvent à des contextes de talus perpendiculaires à la ligne de plus grande pente. L'extrapolation des résultats ainsi obtenus à l'ensemble du paysage, est de ce fait difficile et conduit à une mésestimation de l'impact du bocage sur les sols.<br />Les objectifs de ce travail étaient de comprendre et de quantifier à l'échelle d'un paysage bocager, l'effet du système talus/haie sur l'organisation des sols et sur les stocks de carbone organique associés, ainsi que de décrire la dynamique des processus spatiaux qui ont conduit aux organisations observées.<br />Pour y parvenir, la démarche adoptée a combiné trois approches complémentaires. Tout d'abord, nous avons conduit une étude de terrain dans un paysage bocager historiquement documenté et offrant des conditions topo-paysagères contrastées avec pour but une caractérisation spatiale de l'effet du réseau bocager qui prenne en compte l'action de l'homme et la nature tridimensionnelle de la couverture pédologique à l'échelle du paysage.<br />Ensuite, nous avons couplé des approches de datation relative (analyse de documents historiques et géométrie des horizons) et absolue (carbone-14, césium-137), complémentaires des approches spatiales, pour dater les sols et analyser la dynamique des processus à l'origine des modifications de leur<br />organisation spatiale.<br />Cette prise en compte de la dimension temporelle était nécessaire pour améliorer notre compréhension des processus de redistribution en sol et nous permettre d'engager une modélisation spatiale et temporelle simulant des évolutions du paysage bocager en fonction de différents scénarii d'occupation des sols.

Page generated in 0.2379 seconds