• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 35
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 110
  • 48
  • 21
  • 16
  • 14
  • 12
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution à la validation d’instruments de mesure de la dépendance des personnes âgées.

Falez, Freddy L.A. 22 November 2006 (has links)
Résumé. Introduction. Le premier chapitre de l’introduction expose les problèmes posés à la sécurité sociale par le vieillissement de la population et plus particulièrement par le développement de la dépendance des personnes âgées. Ces problèmes sont illustrés par l’évolution des dépenses en soins de santé pour les aides aux actes de la vie journalière en institutions d’hébergement des personnes âgées, et à domicile. Le deuxième chapitre décrit les instruments d’évaluation qui sont étudiés dans la présente dissertation. En effet, en Belgique, le financement des soins à la dépendance est réalisé sur base d’une évaluation à l’aide d’une échelle de l’INAMI ; une allocation à la personne âgée peut être obtenue par les personnes âgées dont la dépendance est alors évaluée à l’aide de l’échelle de la prévoyance sociale que nous appellerons aussi APA. Nous les comparons à l’outil d’évaluation utilisé en France et dénommé AGGIR pour autonomie gérontologique, groupes iso-resources. Méthodes et populations. Méthodes. Nous validons les trois instruments sur le plan du construit à l’aide la Classification Internationale du Fonctionnement (CIF) de l’OMS. La validité est évaluée de différentes manières : validité concurrentielle entre les trois instruments ; validité concomitante des trois instruments par comparaison aux temps de soins nécessaires par les méthodes de corrélation, , leur capacité de discriminer des catégories de dépendance ; la fidélité des instruments est également étudiée. Populations Quatre enquêtes ont été réalisée : la première en institutions de personnes âgées, la seconde à domicile, la troisième à domicile et la quatrième en institutions de personnes âgées avec la collaboration de différents professionnels : infirmières soignantes, infirmiers conseils de mutualité et l’auteur de la dissertation. Résultats. La troisième partie de la dissertation expose les résultats démographiques et des tests de validation. Discussion. La quatrième partie évalue les résultats. L’échelle de l’INAMI est de conception ancienne pour son contenu. Sa validité est suffisante pour étudier les charges en soins de populations de patients mais insuffisantes pour l’évaluation des besoins individuels, car elle n’évalue pas les besoins pour les actes instrumentaux de la vie journalière. L’échelle APA a une mauvaise validité de contenu ; sa validité de construit est la moins bonne des trois instruments étudiés. Sa fidélité est médiocre. Cette échelle est à déconseiller. La grille AGGIR a une validité de contenu moderne et bonne, une bonne validité de construit et une bonne fidélité. Conclusions. Des trois instruments étudiés, la grille AGGIR est la plus performante et permet à la fois le financement des soins à des populations des patients et l’évaluation de critères d’éligibilité pour l’octroi d’avantages sociaux.
12

The GMT-Consortium Large Earth Finder (G-CLEF): an optical Echelle spectrograph for the Giant Magellan Telescope (GMT)

Szentgyorgyi, Andrew, Baldwin, Daniel, Barnes, Stuart, Bean, Jacob, Ben-Ami, Sagi, Brennan, Patricia, Budynkiewicz, Jamie, Chun, Moo-Young, Conroy, Charlie, Crane, Jeffrey D., Epps, Harland, Evans, Ian, Evans, Janet, Foster, Jeff, Frebel, Anna, Gauron, Thomas, Guzmán, Dani, Hare, Tyson, Jang, Bi-Ho, Jang, Jeong-Gyun, Jordan, Andres, Kim, Jihun, Kim, Kang-Miin, Mendes de Oliveira, Claudia Mendes, Lopez-Morales, Mercedes, McCracken, Kenneth, McMuldroch, Stuart, Miller, Joseph, Mueller, Mark, Oh, Jae Sok, Onyuksel, Cem, Ordway, Mark, Park, Byeong-Gon, Park, Chan, Park, Sung-Joon, Paxson, Charles, Phillips, David, Plummer, David, Podgorski, William, Seifahrt, Andreas, Stark, Daniel, Steiner, Joao, Uomoto, Alan, Walsworth, Ronald, Yu, Young-Sam 09 August 2016 (has links)
The GMT-Consortium Large Earth Finder (G-CLEF) will be a cross-dispersed, optical band echelle spectrograph to be delivered as the first light scientific instrument for the Giant Magellan Telescope (GMT) in 2022. G-CLEF is vacuumenclosed and fiber-fed to enable precision radial velocity (PRV) measurements, especially for the detection and characterization of low-mass exoplanets orbiting solar-type stars. The passband of G-CLEF is broad, extending from 3500 angstrom to . This passband provides good sensitivity at blue wavelengths for stellar abundance studies and deep red response for observations of high-redshift phenomena. The design of G-CLEF incorporates several novel technical innovations. We give an overview of the innovative features of the current design. G-CLEF will be the first PRV spectrograph to have a composite optical bench so as to exploit that material's extremely low coefficient of thermal expansion, high in-plane thermal conductivity and high stiffness-to-mass ratio. The spectrograph camera subsystem is divided into a red and a blue channel, split by a dichroic, so there are two independent refractive spectrograph cameras. The control system software is being developed in model-driven software context that has been adopted globally by the GMT. G-CLEF has been conceived and designed within a strict systems engineering framework. As a part of this process, we have developed a analytical toolset to assess the predicted performance of G-CLEF as it has evolved through design phases.
13

Utilisation d'une assimilation d'ensemble pour modéliser des covariances d'erreur d'ébauche dépendantes de la situation météorologique à échelle convective / Use of an ensemble data assimilation to model flow-dependent background error covariances a convective scale

Ménétrier, Benjamin 03 July 2014 (has links)
L'assimilation de données vise à fournir aux modèles de prévision numérique du temps un état initial de l'atmosphère le plus précis possible. Pour cela, elle utilise deux sources d'information principales : des observations et une prévision récente appelée "ébauche", toutes deux entachées d'erreurs. La distribution de ces erreurs permet d'attribuer un poids relatif à chaque source d'information, selon la confiance que l'on peut lui accorder, d'où l'importance de pouvoir estimer précisément les covariances de l'erreur d'ébauche. Les méthodes de type Monte-Carlo, qui échantillonnent ces covariances à partir d'un ensemble de prévisions perturbées, sont considérées comme les plus efficaces à l'heure actuelle. Cependant, leur coût de calcul considérable limite de facto la taille de l'ensemble. Les covariances ainsi estimées sont donc contaminées par un bruit d'échantillonnage, qu'il est nécessaire de filtrer avant toute utilisation. Cette thèse propose des méthodes de filtrage du bruit d'échantillonnage dans les covariances d'erreur d'ébauche pour le modèle à échelle convective AROME de Météo-France. Le premier objectif a consisté à documenter la structure des covariances d'erreur d'ébauche pour le modèle AROME. Une assimilation d'ensemble de grande taille a permis de caractériser la nature fortement hétérogène et anisotrope de ces covariances, liée au relief, à la densité des observations assimilées, à l'influence du modèle coupleur, ainsi qu'à la dynamique atmosphérique. En comparant les covariances estimées par deux ensembles indépendants de tailles très différentes, le bruit d'échantillonnage a pu être décrit et quantifié. Pour réduire ce bruit d'échantillonnage, deux méthodes ont été développées historiquement, de façon distincte : le filtrage spatial des variances et la localisation des covariances. On montre dans cette thèse que ces méthodes peuvent être comprises comme deux applications directes du filtrage linéaire des covariances. L'existence de critères d'optimalité spécifiques au filtrage linéaire de covariances est démontrée dans une seconde partie du travail. Ces critères présentent l'avantage de n'impliquer que des grandeurs pouvant être estimées de façon robuste à partir de l'ensemble. Ils restent très généraux et l'hypothèse d'ergodicité nécessaire à leur estimation n'est requise qu'en dernière étape. Ils permettent de proposer des algorithmes objectifs de filtrage des variances et pour la localisation des covariances. Après un premier test concluant dans un cadre idéalisé, ces nouvelles méthodes ont ensuite été évaluées grâce à l'ensemble AROME. On a pu montrer que les critères d'optimalité pour le filtrage homogène des variances donnaient de très bons résultats, en particulier le critère prenant en compte la non-gaussianité de l'ensemble. La transposition de ces critères à un filtrage hétérogène a permis une légère amélioration des performances, à un coût de calcul plus élevé cependant. Une extension de la méthode a ensuite été proposée pour les composantes du tenseur de la hessienne des corrélations locales. Enfin, les fonctions de localisation horizontale et verticale ont pu être diagnostiquées, uniquement à partir de l'ensemble. Elles ont montré des variations cohérentes selon la variable et le niveau concernés, et selon la taille de l'ensemble. Dans une dernière partie, on a évalué l'influence de l'utilisation de variances hétérogènes dans le modèle de covariances d'erreur d'ébauche d'AROME, à la fois sur la structure des covariances modélisées et sur les scores des prévisions. Le manque de réalisme des covariances modélisées et l'absence d'impact positif pour les prévisions soulèvent des questions sur une telle approche. Les méthodes de filtrage développées au cours de cette thèse pourraient toutefois mener à d'autres applications fructueuses au sein d'approches hybrides de type EnVar, qui constituent une voie prometteuse dans un contexte d'augmentation de la puissance de calcul disponible. / Data assimilation aims at providing an initial state as accurate as possible for numerical weather prediction models, using two main sources of information : observations and a recent forecast called the “background”. Both are affected by systematic and random errors. The precise estimation of the distribution of these errors is crucial for the performance of data assimilation. In particular, background error covariances can be estimated by Monte-Carlo methods, which sample from an ensemble of perturbed forecasts. Because of computational costs, the ensemble size is much smaller than the dimension of the error covariances, and statistics estimated in this way are spoiled with sampling noise. Filtering is necessary before any further use. This thesis proposes methods to filter the sampling noise of forecast error covariances. The final goal is to improve the background error covariances of the convective scale model AROME of Météo-France. The first goal is to document the structure of background error covariances for AROME. A large ensemble data assimilation is set up for this purpose. It allows to finely characterize the highly heterogeneous and anisotropic nature of covariances. These covariances are strongly influenced by the topography, by the density of assimilated observations, by the influence of the coupling model, and also by the atmospheric dynamics. The comparison of the covariances estimated from two independent ensembles of very different sizes gives a description and quantification of the sampling noise. To damp this sampling noise, two methods have been historically developed in the community : spatial filtering of variances and localization of covariances. We show in this thesis that these methods can be understood as two direct applications of the theory of linear filtering of covariances. The existence of specific optimality criteria for the linear filtering of covariances is demonstrated in the second part of this work. These criteria have the advantage of involving quantities that can be robustly estimated from the ensemble only. They are fully general and the ergodicity assumption that is necessary to their estimation is required in the last step only. They allow the variance filtering and the covariance localization to be objectively determined. These new methods are first illustrated in an idealized framework. They are then evaluated with various metrics, thanks to the large ensemble of AROME forecasts. It is shown that optimality criteria for the homogeneous filtering of variances yields very good results, particularly with the criterion taking the non-gaussianity of the ensemble into account. The transposition of these criteria to a heterogeneous filtering slightly improves performances, yet at a higher computational cost. An extension of the method is proposed for the components of the local correlation hessian tensor. Finally, horizontal and vertical localization functions are diagnosed from the ensemble itself. They show consistent variations depending on the considered variable and level, and on the ensemble size. Lastly, the influence of using heterogeneous variances into the background error covariances model of AROME is evaluated. We focus first on the description of the modelled covariances using these variances and then on forecast scores. The lack of realism of the modelled covariances and the negative impact on scores raise questions about such an approach. However, the filtering methods developed in this thesis are general. They are likely to lead to other prolific applications within the framework of hybrid approaches, which are a promising way in a context of growing computational resources.
14

Bloch oscillations and Wannier Stark Ladder study in Semiconductor Superlattice / Oscillations de Bloch et échelle de Wannier Stark dans des superréseaux semiconducteurs

Meng, Fanqi 20 December 2012 (has links)
Le champ électromagnétique térahertz (THz) se situe dans l'intervalle de fréquence entre l'infrarouge et les micro-ondes, à peu près entre 1 THz à 10 THz. Ce domaine est hautement souhaitable tant pour la recherche fondamentale que pour les applications. Pourtant des sources THz compacts et accordables ne sont pas encore disponibles. Depuis la première proposition en 1970, les superréseaux semiconducteurs, dans lequel deux couches semi-conductrices atomiques avec bande interdite différente sont disposés périodiquement, fournissent de nouvelles possibilités. De nouvelles techniques et de nouveaux dispositifs deviennent réalisables. Dans cette thèse, les oscillations de Bloch dans des mini-bandes électroniques d’un superréseau polarise et la dispersion du gain associée sont utilisées pour réaliser une source THz compacte et accordable : l’oscillateur de Bloch THz. Un premier ensemble de dispositifs utilisent des réseaux dopes spécifiquement conçus pour éviter la formation de domaine d’accumulation de charges. Ces dispositifs utilisent une surface semi-isolante ou deux surfaces métalliques permettant un guidage par plasmon de surface. Cependant, malgré la réalisation de couplage par les bords ou par un réseau diffractant en surface et des mesures directes ou avec un interféromètre a transformation de Fourrier (FTIR), l’électroluminescence a été observée dans le domaine térahertz, avec un gain qui n’a pas pu etre relie aux oscillations de Bloch. Avec des superréseaux non dope, l'émission THz des oscillations de Bloch a été détectée par spectroscopie dans le domaine temporel. La dépendance de la fréquence d’émission avec le champ électrique appliqué constitue une preuve directe des oscillations de Bloch. L’échelle de Wannier Stark des trous sous pompage optique continu a aussi été observe dans les superréseaux non dopes. Avec l’augmentation de la puissance de pompage optique, les pics du photocourant se décalent et leurs formes deviennent asymétriques. L’évolution est attribue a l’accumulation des porteurs photogénérés dans les deux couches encadrant le superréseau. En outre, pour une puissance de pompage élevée, la bistabilité du photocourant a été également observée. / Terahertz (THz) electromagnetic field, which lies in the frequency gap between the infrared and microwave, roughly between 1 THz to 10 THz, is highly desirable for both fundamental research and application. Yet tuneable compact THz sources are still not available. On the other hand, ever since first proposed in 1970, semiconductor superlattice provides new playground for various new technique and devices of tremendous research and application interest. In this thesis, an innovative theme, relying on Bloch oscillations in a dc biased semiconductor superlattice, is explored to realize tunable compact THz source THz Bloch oscillator. For doped superlattice Bloch oscillator, we designed quantum cascade super-superlattice structure to realize Bloch oscillations whilst prohibit electrical domain formation. The designed structures were processed into various waveguide and grating devices for electroluminescence detection using Fourier transform infrared spectroscopy (FTIR). The Bloch gain of semi-insulating surface plasmon waveguide device was also measured using THz time domain spectroscopy. Even though the electroluminescence and gain at THz regime were observed, no direct evidence of Bloch emission was confirmed. For undoped superlattice, the THz emission from Bloch oscillations was observed by time domain spectroscopy. At last, the photocurrent corresponding to heavy hole and Wannier Stark Ladder (WSL) states transitions in undoped superlattice was studied. Under CW laser pumping, the photocurrent as function of the applied voltage showed multiple WSL peaks, which indicated laser induced and controllable negative differential conductance (NDC). With increasing pumping power, the nonlinear NDC regime and bistable states were investigated as well.
15

Etude de l'influence du nombre de Reynolds sur l'organisation de la turbulence de paroi / Study of the influence of the Reynolds number on the organization of wall-bounded turbulence

Herpin, Sophie 20 April 2009 (has links)
Ce travail est une étude expérimentale de l'influence du nombre de Reynolds sur les caractéristiques des tourbillons longitudinaux et transverses de la turbulence de paroi. Une campagne de mesure par PIV stéréoscopique est réalisée dans des plans longitudinaux/normaux à la paroi (XY), et dans des plans normaux/transversaux (YZ) des couches limites de la soufflerie du LML et du tunnel à eau du LTRAC, à six nombre de Reynolds compris entre Re_\theta=1300 et Re_\theta=18950. Les mesures ont une bonne résolution spatiale et une faible incertitude. La base de données est validée au travers de l'analyse de grandeurs statistiques de l'écoulement (moyenne et RMS de la vitesse, histogramme des fluctuations, spectres de puissance) , comparées à des profils de référence issus de la théorie, de mesures fils-chauds ou de données DNS. Une détection de tourbillon, basée sur le fit d'un tourbillon d'Oseen autour des maxima de "swirling strength", est ensuite entreprise sur les données stéréo-PIV ainsi que sur des données DNS à Re_\tau=950. L'évolution des caractéristiques des tourbillons (rayon, vorticité, circulation, vitesse de convection) avec la distance "y" à la paroi est ensuite analysée dans deux représentions adimensionnées: l'une en unités de paroi, et l'autre en unités de Kolmogorov. Une bonne universalité en nombre de Reynolds est obtenue en unités de paroi dans la zone tampon et la zone logarithmique, mais pas dans la zone externe de l'écoulement. Les unités de Kolmogorov permettent d'obtenir une bonne universalité dans les trois zones étudiées, à la fois en Reynolds et en "y". Finalement, les mécanismes responsables de la génération des tourbillons sont discutés / This work is an experimental study of the influence of the Reynolds number on the characteristics of the streamwise and spanwise vortices in near-wall turbulence. Stereo-PIV measurements in streamwise/wall-normal and spanwise/wall-normal planes of turbulent boundary layer flow are conducted in the LTRAC water-tunnel and LML wind-tunnel at six Reynolds numbers comprised between $Re_\theta=1300$ and $Re_\theta=18950$. The measurements feature good spatial resolution and low measurement uncertainty. The database is validated through an analysis of some single-points statistics (mean and RMS velocity, PDF of the fluctuations), and of the power spectra, compared with reference profiles from theory, hot-wire measurements and DNS data. A coherent structure detection is then undertaken on the SPIV database, as well as on a DNS dataset at $Re_\tau=950$. The detection is based on a fit of an Oseen vortex to the velocity field surrounding extrema of 2D swirling strength. The wall-normal evolution of some statistical quantities (mean, RMS, PDF) of the vortex characteristics (radius, vorticity, circulation, convection velocity...) is analyzed, using two different scalings: the wall-unit scaling and the Kolmogorov scaling. In wall-unit scaling, a good universality in Reynolds numbers is observed in the near-wall and logarithmic region, but some Reynolds number effects are visible in the outer region of the flow. In contrast, the Kolmogorov scaling was found to be universal both in Reynolds number and wall-normal distance across the three regions investigated. Finally, the results obtained are interpreted in terms of vortices generation mechanisms
16

Multi-scalarité du phénomène feu de forêt en régions méditerranéennes françaises de 1973 à 2006

Mangiavillano, Adrien 20 November 2008 (has links) (PDF)
Les feux de forêt, landes, garrigues ou maquis constituent un « problème » extrêmement sérieux pour les régions euro-méditerranéennes. Les variations de ce phénomène complexe sont issues des interactions entre des paramètres de nature différente ; interactions qui peuvent être non-linéaires. Sans être propre à l'étude de cette non-linéarité, cette thèse démontre qu'il est possible, d'une part, d'en mesurer les effets sur les propriétés statistiques et physiques du phénomène et d'autre part, que l'auto-organisation, l'instabilité chronologique et l'irrégularité morphologique limitent intrinsèquement la prédictibilité d'un tel phénomène. Nous analysons ainsi, à partir de l'exemple des régions méditerranéennes françaises de 1973 à 2006 (base Prométhée), les différentes modalités de son émergence selon la situation géographique des lieux étudiés et les échelles temporelles et spatiales auxquelles il se réfère. Cette approche, essentiellement structurelle et statistique, est à même de compléter les travaux existants sur le sujet et donne l'opportunité d'aboutir à des indicateurs innovants pour une différenciation spatiale centrée sur la question des échelles. Aussi, l'enjeu de ce travail est majeur puisqu'il suppose de rechercher des récurrences, un ordre qui transcende les cas particuliers, tout en faisant écho à la prise en compte de l'incertitude chez les hommes de terrain, les ingénieurs, les physiciens, les climatologues et les géographes.
17

Recherche du boson de Higgs dans le canal $ZH \to \nu\bar nu b\bar b$ dans l'experience D0 auprès du TeVatron

Ochando, C. 29 September 2008 (has links) (PDF)
L'origine de la brisure de la symétrie électrofaible est une des questions qui reste en suspens en ce début de XXIe siècle. Imaginé dans les années 60, le mécanisme de Higgs offre une solution théorique à ce problème tout en prédisant une nouvelle particule, le boson de Higgs, non encore découverte à ce jour.<br />Celui-ci a été recherché avec le détecteur D0 auprès du collisionneur hadronique Tevatron dont l'énergie dans le centre de masse est de 1.96 TeV. Le canal d'analyse choisi est $ZH\to\nunub\bbb$.<br />Afin de mener à bien cette recherche, une optimisation des conditions de déclenchement spécifiques aux signaux dont l'état final est constitué de jets et énergie transverse manquante a été effectuée. De plus, un outil a été mis au point pour en mesurer les efficacités.<br />Une détermination précise de l'énergie des jets est également un ingrédient indispensable de cette recherche. Une méthode a donc été développée afin de corriger les jets simulés des différences d'échelle d'énergie, de résolution en énergie et d'efficacité de reconstruction entre les données et la simulation.<br />L'analyse des données, effectuée avec une luminosité intégrée de 2.1 fb$^{-1}$, n'a pas permis de mettre en évidence un signal. Pour un boson de Higgs de masse égale à 115 GeV, une limite à 95\% de niveau de confiance a été déterminée sur la section efficace multipliée par le rapport de branchement de $(p\bar{p}\to H(Z/W))\times(H\to b\bar{b})$. Elle est 7.5 fois plus grande que la valeur prédite par le Modèle Standard.
18

Modélisation intégrée du transfert de nitrate à l'échelle régionale dans un système hydrologique. Application au bassin de la Seine

Gomez, Eric 05 December 2002 (has links) (PDF)
Le but de la thèse est de quantifier le lien entre la contamination nitrique du système hydrologique et les activités agricoles pratiquées au cours des trois dernières décennies sur le bassin de la Seine.<br />A partir de trois modèles existants (agronomique, hydrologique et hydrogéologique), un modèle intégré a été développé pour simuler, à l'échelle régionale, le transfert de nitrate des sols jusqu'aux eaux de surface, via le domaine souterrain.<br />Plusieurs développement conceptuels ont été necessaires : (i) une procédure de régionalisation du modèle agronomique a été mise au point, (ii) deux modèles ont été développés pour simuler le transfert dans le domaine souterrain.<br />Pour la première fois, un outil couvrant l'ensemble des processus de circulation de l'azote dans un grand bassin versant est ainsi mis en place.<br />Le dernier volet de ce travail concerne la réalisation de simulations exploratoires et une estimation de la dynamique du transfert des nitrates.
19

Etude de l'influence du nombre de Reynolds sur l'organisation de la turbulence de paroi

Herpin, Sophie 20 April 2009 (has links) (PDF)
Ce travail est une étude expérimentale de l'influence du nombre de Reynolds sur les caractéristiques des tourbillons longitudinaux et transverses de la turbulence de paroi. Une campagne de mesure par PIV stéréoscopique est réalisée dans des plans longitudinaux/normaux à la paroi (XY), et dans des plans normaux/transversaux (YZ) des couches limites de la soufflerie du LML et du tunnel à eau du LTRAC, à six nombre de Reynolds compris entre Re_\theta=1300 et Re_\theta=18950. Les mesures ont une bonne résolution spatiale et une faible incertitude. La base de données est validée au travers de l'analyse de grandeurs statistiques de l'écoulement (moyenne et RMS de la vitesse, histogramme des fluctuations, spectres de puissance) , comparées à des profils de référence issus de la théorie, de mesures fils-chauds ou de données DNS. Une détection de tourbillon, basée sur le fit d'un tourbillon d'Oseen autour des maxima de "swirling strength", est ensuite entreprise sur les données stéréo-PIV ainsi que sur des données DNS à Re_\tau=950. L'évolution des caractéristiques des tourbillons (rayon, vorticité, circulation, vitesse de convection) avec la distance "y" à la paroi est ensuite analysée dans deux représentions adimensionnées: l'une en unités de paroi, et l'autre en unités de Kolmogorov. Une bonne universalité en nombre de Reynolds est obtenue en unités de paroi dans la zone tampon et la zone logarithmique, mais pas dans la zone externe de l'écoulement. Les unités de Kolmogorov permettent d'obtenir une bonne universalité dans les trois zones étudiées, à la fois en Reynolds et en "y". Finalement, les mécanismes responsables de la génération des tourbillons sont discutés
20

Lissage multi-échelle sur GPU des images et volumes avec préservation des détails

Jibai, Nassim 24 May 2012 (has links) (PDF)
Les images et données volumiques sont devenues importantes dans notre vie quotidienne que ce soit sur le plan artistique, culturel, ou scientifique. Les données volumiques ont un intérêt important dans l'imagerie médicale, l'ingénierie, et l'analyse du patrimoine culturel. Ils sont créées en utilisant la reconstruction tomographique, une technique qui combine une large série de scans 2D capturés de plusieur points de vue. Chaque scan 2D est obtenu par des methodes de rayonnement : Rayons X pour les scanners CT, ondes radiofréquences pour les IRM, annihilation électron-positron pour les PET scans, etc. L'acquisition des images et données volumique est influencée par le bruit provoqué par différents facteurs. Le bruit dans les images peut être causée par un manque d'éclairage, des défauts électroniques, faible dose de rayonnement, et un mauvais positionnement de l'outil ou de l'objet. Le bruit dans les données volumique peut aussi provenir d'une variété de sources : le nombre limité de points de vue, le manque de sensibilité dans les capteurs, des contrastes élevé, les algorithmes de reconstruction employés, etc. L'acquisition de données non bruitée est iréalisable. Alors, il est souhaitable de réduire ou d'éliminer le bruit le plus tôt possible dans le pipeline. La suppression du bruit tout en préservant les caractéristiques fortes d'une image ou d'un objet volumique reste une tâche difficile. Nous proposons une méthode multi-échelle pour lisser des images 2D et des données tomographiques 3D tout en préservant les caractéristiques à l'échelle spécifiée. Notre algorithme est contrôlé par un seul paramètre - la taille des caractéristiques qui doivent être préservées. Toute variation qui est plus petite que l'échelle spécifiée est traitée comme bruit et lissée, tandis que les discontinuités telles que des coins, des bords et des détails à plus grande échelle sont conservés. Nous démontrons les données lissées produites par notre algorithme permettent d'obtenir des images nettes et des iso-surfaces plus propres. Nous comparons nos résultats avec ceux des methodes précédentes. Notre méthode est inspirée par la diffusion anisotrope. Nous calculons nos tenseurs de diffusion à partir des histogrammes continues locaux de gradients autour de chaque pixel dans les images et autour de chaque voxel dans des volumes. Comme notre méthode de lissage fonctionne entièrement sur GPU, il est extrêmement rapide.

Page generated in 0.0426 seconds