• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Détection de la simulation de l'invalidité découlant de la douleur (SIDD) à l'aide de quatre échelles de validité de la forme révisée du Minnesota Multiphasic Personnality Inventory-2 (MMPI-2-RF)

Fournier, Jacques January 2015 (has links)
À l’aide du modèle de recherche de la simulation connu sous le nom de « comparaison de groupes connus » (known-groups studies / criterion- groups validation studies), la présente étude visait à vérifier l’efficacité de quatre échelles de validité du MMPI-2-RF (Fs, FBS-r, RBS et HHI-r) à détecter la simulation de l’invalidité découlant de la douleur (SIDD) auprès d’une population rapportant de la douleur chronique ayant subi une évaluation psychologique. Les données provenant de patients rapportant une condition de douleur chronique (n=111) ont été recueillies à partir de dossiers archivés d’une clinique indépendante spécialisée dans l’évaluation et le traitement de cas de douleur chronique et de troubles somatoformes. Une fois sélectionnés, les sujets ont été répartis dans l’un des deux groupes connus à l’aide de critères externes prédisant la simulation de l’invalidité découlant de la douleur : les simulateurs (SIDD Probable et Certaine) et les non-simulateurs (Non SIDD). Tel que stipulé dans la littérature actuelle existant sur l’évaluation de la simulation de l’invalidité de la douleur, les résultats indiquent que les quatre échelles à l’étude sont efficaces lorsqu’on cherche à différentier les sujets simulateurs des non- simulateurs. Dans la présente étude, l’échelle RBS a été la plus efficace à différencier les deux groupes, suivie de près par l’échelle HHI-r. Les implications de ces résultats sont discutées dans la perceptive de leur utilité clinique et psycho-légale.
172

Compteur sanguin [micro]volumétrique pour l'imagerie moléculaire chez le petit animal

Convert, Laurence January 2006 (has links)
Les études expérimentales sur les petits animaux de laboratoire sont devenues un axe essentiel de recherche dans la plupart des domaines de la biologie moléculaire, de la toxicologie et de la pharmacologie. Elles sont grandement facilitées par le développement de scanners dédiés, incluant des tomographes d'émission par positrons (TEP) à haute résolution pour petits animaux. En effet, en mesurant la biodistribution dynamique d'un radiotraceur in vivo, la TEP permet de mesurer des processus physiologiques et biochimiques à un niveau moléculaire. Des modèles mathématiques peuvent alors être appliqués pour décrire la cinétique des radiotraceurs et extraire des paramètres biologiques d'intérêt comme la perfusion, la consommation d'oxygène ou la consommation de glucose de l'organe étudié. Pour calculer ces constantes cinétiques, il est nécessaire d'obtenir les concentrations tissulaires et plasmatiques du radiotraceur en fonction du temps. Alors que la courbe tissulaire est dérivée des images TEP, il n'est pas toujours possible d'en extraire la courbe sanguine. Habituellement elle est obtenue par le prélèvement manuel d'échantillons sanguins, mais cette procédure peut s'avérer très délicate, surtout sur de très petits animaux comme les souris. Un Compteur Sanguin [micro]volumétrique (CS[micro]) automatisé a donc été développé pour faciliter la mesure de la radioactivité dans le sang. Le CS[micro], qui est l'objet de ce mémoire, est constitué d'un module de détection [bêta] à base de photodiodes PIN et d'un module de contrôle comprenant une pompe pousse-seringue à microvolumes. Cette dernière prélève continuellement du sang d'une canule artérielle ou veineuse à une vitesse réglable pour le faire passer devant les détecteurs. La détection directe des positrons par des photodiodes permet de minimiser la sensibilité aux rayonnements gamma environnants et donc de diminuer l'encombrement du système de détection, principalement par l'amincissement du blindage. L'appareil est entièrement contrôlé par ordinateur pour la sélection du protocole de prélèvement sanguin, les réglages et l'affichage en temps réel des données. Il peut être utilisé seul ou intégré à la caméra LabPET(TM) pour corréler la courbe sanguine avec une séquence d'imagerie TEP dynamique. Différentes caractéristiques physiques du compteur sanguin [micro]volumétrique ont été évaluées. Sa sensibilité absolue se situe entre 3,5 et 23% pour les isotopes les plus couramment utilisés en TEP ([indice supérieur 18]F, [indice supérieur 11]C, [indice supérieur 13]N, [indice supérieur 64]Cu). Le système est linéaire pour les activités utilisées sur modèle animal (1 à 15 kBq/[micro]1) et très peu sensible au bruit de fond radioactif ambiant.Les effets de la dispersion ont été mesurés pour différents cathéters, différentes distances entre l'animal et le détecteur et différentes vitesses de prélèvement. Le système utilisé avec un cathéter PE10 s'est révélé insensible aux interférences électromagnétiques (EMI). Un renfort du blindage EMI permet également de limiter grandement le bruit dans le cas d'un cathéter PE50 avec des animaux de la taille d'un rat. La stabilité à court terme est de l'ordre des variations engendrées par la statistique de Poisson. Enfin, une variation de seulement 0,07% a été observée dans la mesure de l'activité d'une même source repositionnée cinq fois dans le détecteur. Différentes études animales ont été entreprises pour compléter la caractérisation du système. La courbe sanguine obtenue avec le CS[micro] a été comparée avec succès avec des courbes provenant d'un échantillonnage manuel et d'une région d'intérêt (ROI) tracée sur l'image TEP. Des mesures de la consommation myocardique en glucose chez le rat et de la perfusion sanguine du myocarde chez la souris ont également été réalisées avec succès. Le compteur sanguin [micro]volumétrique s'avère donc un outil efficace donnant des mesures précises et reproductibles. Il permet de diminuer l'exposition du personnel tout en augmentant l'efficacité des études pharmacocinétiques en recherche biomédicale et pharmaceutique.
173

Étude de l'incidence des coïncidences triples simulées et mesurées à partir de systèmes TEP pixélisés sur les critères de qualité d'image / Study on the incidence of simulated and measured triple coincidences from pixelated PET system on image quality criteria

Clerk-Lamalice, Julien January 2015 (has links)
Résumé : En tomographie d'émission par positrons (TEP), les données sont enregistrées par la détection de paires de photons de haute énergie (511~keV) en coïncidence. Or, dans un système de détection pixélisé, comme celui des scanners LabPET, la diffusion Compton dans les cristaux voisins entraîne la détection fréquente d'événements multiples, présentement rejetés dans le processus de reconstruction des images. Ces événements multiples peuvent augmenter l'efficacité de détection du scanner de façon significative, mais il reste à démontrer que l'inclusion de ces coïncidences peut améliorer la sensibilité sans affecter les critères de qualité des images, tels que la résolution spatiale et le contraste. Le but du projet est de démontrer l'influence de l'inclusion de ces événements dans le processus de reconstruction d'images. Les méthodes à critères fixes seront utilisées pour sélectionner les coïncidences triple obtenues à partir de données simulées à l’aide du logiciel de simulation GATE (« Geant4 Application for Tomographic Emission ») et de mesures réelles effectuées sur les scanners LabPET. // Abstract : In positron emission tomography, data are acquired by detecting pairs of high energy photons (511 keV) in coincidence. Thus, in a highly pixelated system such as the LabPET scanner, Compton diffusion in neighboring crystals can trigger the detection of multiple events (multiple coincidences) which are currently rejected from the reconstruction process. These multiple events can increase significantly the scanner’s detection efficiency, but it remains to be demonstrated that they can be used to increase sensitivity in the images without decreasing image quality criteria, such as the spatial resolution and contrast. The goal of this work is to demonstrate the influence of including these events in the image reconstruction process. Fixed criteria methods were used to select triple coincidences obtained from simulated data from the GATE (Geant4 Application for Tomography Emission) software and real measurements from the LabPET scanner.
174

Mise à jour numérique d'un modèle de pont par éléments finis basée sur une analyse modale expérimentale

Turcotte, Nicolas January 2016 (has links)
L’étude présentée s’inscrit dans un programme de recherche mené par l’Université de Sherbrooke (UdeS) pour le ministère des Transports du Québec (MTQ) sur la détection de l’endommagement par des mesures de vibrations ambiantes sur un pont routier en service. La méthode s’appuie sur la mise à jour automatique des propriétés physiques d’un modèle numérique d’un pont de façon à reproduire les fréquences et modes propres de la structure mesurés expérimentalement. Pour cette étude, le logiciel commercial FEMtools a été utilisé. L’ouvrage ciblé est le pont Est de la Rivière-aux-Mulets situé à Sainte-Adèle (Qc) sur l’autoroute des Laurentides (autoroute 15) sur lequel des essais d’analyse modale ont été effectués sous vibrations ambiantes en novembre 2013. L’étude présentée porte essentiellement sur la phase d’ingénierie la plus délicate du processus de détection d’endommagement par mise à jour d’un modèle numérique, soit la définition et le recalage du modèle initial. Pour cela, un modèle du pont par éléments finis a été développé sous le logiciel Abaqus, puis a été exporté vers FEMtools selon une procédure qui a été établie. Avant d’utiliser le logiciel FEMtools pour le recalage automatique du modèle, une brève étude de vérification des capacités du logiciel à recaler un modèle et à détecter de l’endommagement est effectuée à partir d’un cas d’étude connu étudié antérieurement à l’UdeS (cadre de deux étages en béton armé endommagé sismiquement). Puisque les algorithmes de recalage automatique de modèles par éléments finis sont très sensibles à plusieurs variables et choix définis par l’utilisateur et que le problème de recalage est fortement sous-déterminé, le risque d’obtenir des résultats incohérents est grand si on ne suit pas une démarche rigoureuse. Une méthodologie en cinq étapes adaptée aux problématiques de pont est donc proposée et appliquée au cas du pont de la Rivière-aux-Mulets. Les résultats du recalage en termes de réductions de rigidité des sections de béton par rapport aux rigidités initiales supposées sont cohérents avec les comportements statique et dynamique attendus d’un pont routier en service. Pour en arriver à ce résultat, plusieurs tentatives de recalage ont été effectuées. Un échantillon de ces cas d’études est présenté, montrant notamment l’influence dans le processus de la définition et du nombre des paramètres de recalage, de leurs valeurs initiales, de la complexité des modes expérimentaux et du critère de convergence utilisé. Il est aussi montré que des résultats de recalage manifestement erronés permettent parfois d’identifier des erreurs majeures de modélisation, ce qui est un atout important de la méthode. Finalement, plusieurs scénarios d’endommagement fictifs imposés numériquement sont étudiés pour évaluer brièvement la capacité de FEMtools à détecter de l’endommagement sur le pont. Les résultats montrent notamment que la précision de la détection est grandement améliorée par l’utilisation d’un nombre croissant de modes expérimentaux.
175

Modèles et observateurs pour les systèmes d'écoulement sous pression. Extension aux systèmes chaotiques

Torres Ortiz, Flor 28 January 2011 (has links) (PDF)
Principalement, ce travail présente l'application d'observateurs non linéairespour la détection de fuites (uniques, séquentielles et simultanées) dans des canalisationssous pression. Les observateurs présentés ici ont été conçus à partir d'uneversion discrète des équations du coup de bélier, qui a été obtenue en utilisant laméthode des différences finies et en prenant comme alternative la méthode de collocationorthogonale. Les modèles discrets ainsi que certains observateurs ont étévalidés par une série d'expériences effectuées dans des canalisations d'essai. D'autrepart, une nouvelle version d'observateurs à grand gain pour des systèmes non uniformémentobservables a été développée. Elle a été utilisée pour la détection de fuitesainsi que pour la synchronisation de systèmes chaotiques avec des paramètres inconnus.Des résultats de convergence, expérimentaux et en simulation sont exposésdans ce mémoire.
176

Détection, Explications et Restructuration de défauts de conception : les patrons abîmés.

Bouhours, Cédric 04 February 2010 (has links) (PDF)
L'ingénierie des modèles considère les modèles comme des entités de première classe pour le développement logiciel. Les processus dirigés par les modèles se doivent d'être capables de prendre en compte le savoir-faire d'experts, généralement exprimé en termes de patrons, qu'ils soient d'analyse, de conception ou d'architecture. Choisir le bon patron et assurer sa bonne intégration au sein d'une modélisation constitue des freins à l'utilisation systématique des bonnes pratiques de conception. Afin d'alléger ces tâches, nous proposons une approche basée sur l'inspection automatique des modèles. De la même manière qu'il existe des revues de code visant à vérifier l'absence de mauvaises pratiques de codage dans un programme, nous avons outillé une activité de revue de conception identifiant, expliquant et corrigeant les mauvaises pratiques de conception dans un modèle. Un patron abîmé est comparable à un patron de conception, ses contextualisations résolvant les mêmes types de problèmes, mais avec une architecture différente et certainement améliorable. Des expérimentations ont été menées afin de collecter des patrons abîmés, nous amenant à proposer un catalogue de mauvaises pratiques, complémentaire au catalogue du GoF. La détection des contextualisations de patrons abîmés dans un modèle UML est apparentée à un morphisme de graphe étendu. Les graphes UML ayant des sommets typés, la détection s'appuie sur des particularités structurelles locales et globales permettant de résoudre ce problème NP-Complet par des filtrages successifs. Cet algorithme est ainsi capable de détecter toutes les contextualisations possibles d'un patron abîmé, en gérant de plus les arcs interdits et facultatifs. La sémantique d'un fragment de modèle est donnée par son intention et celle-ci est validée par le concepteur. L'intention des fragments détectés et les bénéfices d'un remplacement par le patron adéquat sont déduits par des requêtes sur une ontologie conçue à cet effet. La transformation des fragments en contextualisations de patrons de conception est réalisée grâce à des restructurations de modèles déduites automatiquement des différences structurelles entre un patron abîmé et un patron de conception.
177

Etude et réalisation d'un spectromètre intégré à transformée de Fourier (SWIFTS)

Ferrand, Jérôme 12 November 2010 (has links) (PDF)
En 1859 les physicien et chimiste allemands G. Kirchhoff et R. Bunsen ont découvert que chaque élément chimique dispose d'une signature spectrale unique. Suite à cela, la spectrométrie s'est imposée comme un outil d'analyse majeur y compris en astrophysique (notamment grâce à l'italien A. Secchi). Ainsi la plus grande partie des informations dont nous disposons sur les objets astrophysiques proviennent de l'analyse spectrale ; la découverte des premières planètes extra-solaires est même due à celle-ci. Depuis ses débuts, cette technique a trouvé de nombreuses applications dans des domaines aussi variés que la médecine, la détection de gaz ou encore l'étude des polluants. Dans cette thèse nous nous proposons d'étudier et de développer un nouveau type de spectromètres nommés SWIFTS (pour Stationary Wave Integrated Fourier Transform Spectrometer) basés sur la détection d'une onde stationnaire obtenue à l'intérieur d'un guide optique. Pour ce faire, nous utilisons une technique originale dite de " détection évanescente ". Dans cette thèse nous étudions et modélisons les performances d'un tel spectromètre notamment en utilisant une méthode matricielle et une méthode de décomposition dans le domaine de Fourier. Les premiers prototypes ont été réalisés dans les bandes I et R du système photométrique de Johnson, ces bandes ayant été choisies pour la facilité d'obtention de détecteurs et guides optiques efficaces. Étant donné les technologies disponibles, ces prototypes ne peuvent atteindre l'efficacité théorique maximale d'un SWIFTS (environ 73%) ; néanmoins elles nous ont permis de mesurer des résolutions de l'ordre du cm-1 sur un large domaine spectral (650 nm à 900 nm).
178

Recherche et Caractérisation des Propriétés Physiques et Chimiques des Compagnons de Faible Masse, Naines Brunes et Planètes Géantes, à l'aide d'observations à Haut Contraste et à Haute Résolution Angulaire

Bonnefoy, Mickaël 22 October 2010 (has links) (PDF)
Mon travail de thèse se place dans le contexte dynamique de la détection directe des compagnons de faible masse (naines brunes, planètes extrasolaires) dans le but de caractériser leurs propriétés physiques et chimiques et de comprendre leurs mécanismes de formation et d'évolution. Cette recherche requiert l'emploi de techniques d'observations à haut contraste et à haute résolution angulaire pour résoudre l'environnement proche des étoiles et ne pas être limité par leur flux. Dans ce cadre, j'ai eu la chance de participer à des campagnes d'observations pour tenter de détecter de nouvelles sources. J'ai élaboré un ensemble d'outils de traitement et d'analyse des données pour extraire les spectres et les flux des objets dans des bandes photométriques. Enfin, j'ai utilisé ces informations pour étudier les propriétés physiques (rayon, masse, âge) et atmosphériques (composition, température effective, gravité de surface) de ces objets. La première partie de ce manuscrit se focalise sur la détection par imagerie des compagnons de faible masse jeunes (< 100 millions d'années). Je décris un ensemble d'outils de réduction et d'analyse, spécifiques à la technique d'imagerie angulaire différentielle, que j'ai mis en place. Ces outils ont été utilisés sur des données provenant de l'instrument NaCo situé au Very Large Telescope (Chili). Ils ont permis de re-détecter la planète extrasolaire β Pictoris b. Ce compagnon est le plus proche de son étoile de toutes les exoplanètes détectées directement. Cette découverte fournit la preuve directe que des planètes géantes se forment en moins de 12 millions d'années à l'intérieur de disques. Je présente enfin l'analyse complémentaire que j'ai mené pour initier la caractérisation de cet objet particulier. Le second volet de mon travail, présenté dans la deuxième partie du manuscrit, est axé sur la détermination des propriétés spectroscopiques dans le proche infrarouge (1.1-2.5 µm) des objets de faible masse jeunes. Ce travail à débuté par l'optimisation et le développement d'outils de traitement et d'analyse des données du spectrographe intégral de champ SINFONI assisté par optique adaptative. Les efforts déployés ont permis d'analyser le spectre du compagnon naine brune/exoplanète AB Pic b. Ce travail s'est poursuivi par la construction d'une bibliothèque de spectres d'objets jeunes. Cette bibliothèque fournie un ensemble de spectres de référence pour l'étude des compagnons détectés. Elle apporte des contraintes inédites sur les dernières générations de modèles d'atmosphère froids. Enfin, j'ai tiré parti de l'expérience acquise sur les instruments NaCo et SINFONI pour caractériser le système binaire TWA 22AB qui pourrait calibrer les modèles d'évolution des objets de faible masse.
179

Finite Element and Electrical Circuit Modelling of Faulty Induction Machines - Study of Internal Effects and Fault Detection Techniques/Modélisation par éléments finis et par équations de circuits des machines asynchrones en défaut - Etude des effets internes et techniques de détection de défauts.

Sprooten, Jonathan 21 September 2007 (has links)
This work is dedicated to faulty induction motors. These motors are often used in industrial applications thanks to their usability and their robustness. However, nowadays optimisation of production becomes so critical that the conceptual reliability of the motor is not sufficient anymore. Motor condition monitoring is expanding to serve maintenance planning and uptime maximisation. Moreover, the use of drive control sensors (namely stator current and voltage) can avoid the installation and maintenance of dedicated sensors for condition monitoring. Many authors are working in this field but few approach the diagnosis from a detailed and clear physical understanding of the localised phenomena linked to the faults. Broken bars are known to modulate stator currents but it is shown in this work that it also changes machine saturation level in the neighbourhood of the bar. Furthermore, depending on the voltage level, this change in local saturation affects the amplitude and the phase of the modulation. This is of major importance as most diagnosis techniques use this feature to detect and quantify broken bars. For stator short-circuits, a high current is flowing in the short-circuited coil due to mutual coupling with the other windings and current spikes are flowing in the rotor bars as they pass in front of the short-circuited conductors. In the case of rotor eccentricities, the number of pole-pairs and the connection of these pole-pairs greatly affect the airgap flux density distribution as well as the repartition of the line currents in the different pole-pairs. These conclusions are obtained through the use of time-stepping finite element models of the faulty motors. Moreover, circuit models of faulty machines are built based on the conclusions of previously explained fault analysis and on classical Park models. A common mathematical description is used which allows objective comparison of the models for representation of the machine behaviour and computing time. The identifiability of the parameters of the models as well as methods for their identification are studied. Focus is set on the representation of the machine behaviour using these parameters more than the precise identification of the parameters. It is shown that some classical parameters can not be uniquely identified using only stator measurements. Fault detection and identification using computationally cheap models are compared to advanced detection through motor stator current spectral analysis. This last approach allows faster detection and identification of the fault but leads to incorrect conclusions in low load conditions, in transient situations or in perturbed environments (i.e. fluctuating load torque and unideal supply). Efficient quantification of the fault can be obtained using detection techniques based on the comparison of the process to a model. Finally, the work provides guidelines for motor supervision strategies depending on the context of motor utilisation.
180

Application des méthodes de la programmation dynamique au problème de la répartition optimale d'une activité

Baissac, Marc 23 June 1965 (has links) (PDF)
.

Page generated in 0.1116 seconds