• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • Tagged with
  • 7
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Validité de critère et fidélité d’une nouvelle méthode d’évaluation basée sur la photographie numérique pour la mesure de l’amplitude articulaire de mouvement de l’épaule chez le travailleur âgé atteint d’une tendinopathie de la coiffe des rotateurs

Diop, Serigne Falilou January 2017 (has links)
Que ce soit dans le domaine de la recherche ou en clinique, l’évaluation des amplitudes de mouvement est une étape très importante qui nécessite l’utilisation de systèmes de mesure de bonnes qualités métrologiques. En clinique, le goniomètre universel reste l’instrument le plus utilisé pour évaluer l’amplitude articulaire de mouvement (AAM) de l’épaule malgré le fait qu’il ne dispose pas d’une bonne validité de critère et sa fidélité (intra et inter-évaluateurs) est modérée voire faible comme le montre certaines études. L’autre instrument très utilisé en clinique est l’inclinomètre qui donne de meilleurs résultats de fidélités intra et inter-évaluateurs que le goniomètre, mais n’est pas adapté pour évaluer certains mouvements de l’épaule. L’utilisation de méthodes empiriques comme l’estimation visuelle d’AAM ne repose sur aucune base scientifique pour donner des mesures d’angle fiables et précises. Les méthodes de mesure les plus précises ne se retrouvent malheureusement que dans les laboratoires de recherche. Il faut dire que le contexte clinique n’est pas adapté pour recevoir de tels dispositifs très onéreux, complexes d’utilisation et nécessitant beaucoup de temps de manipulation. Les recherches sur l’amélioration des systèmes de mesure déjà existants ou sur la création de nouvelles méthodes de mesure d’AAM sont plus que jamais d’actualité. Ce mémoire entre dans ce contexte de mise en œuvre de nouveaux systèmes de mesure de hautes précisions, simples d’utilisation et d’une grande accessibilité. La nouvelle méthode que nous avons présentée se base sur des photographies numériques de patrons de points. L’objectif premier de l’étude était de déterminer la validité de critère de la méthode photo par rapport à une mesure étalon. Les résultats ont démontré que cette nouvelle méthode photo possède une bonne validité de critère, comparable à celle obtenue avec une centrale inertielle et bien mieux que celle d’une application inclinomètre. À la lumière de ces résultats, la méthode photo pourrait très bien être un substitut aux centrales inertielles dans la mesure d’AAM, car ces dernières restent onéreuses et complexes d’utilisation. L’objectif de la deuxième phase de l’étude était de déterminer la fidélité de la mesure de la méthode de photographie numérique de patrons de points et de l’inclinomètre numérique en conditions cliniques auprès de patients atteints de tendinopathie de la coiffe des rotateurs. Suite à l’analyse des résultats, il apparaît que la méthode photo possède une bonne fidélité qui lui permet de bien évaluer les amplitudes de mouvement au niveau de l’épaule. L’inclinomètre quant à lui semble donner de bons résultats de fidélité que pour certains mouvements de l’épaule (abduction et flexion). Bien que la nouvelle méthode basée sur la photographie de patrons de points ait démontré une bonne validité de critère et une bonne fidélité, son devenir et sa place dans le domaine de l’évaluation de l’AAM repose sur l’accueil qui lui sera réservé par les cliniciens et les chercheurs.
2

Role of nucleotides on lung epithelial cells : mechanism of release and development of a side-view microscopic chamber to study nucleotide-dependent airway surface liquid height

Tatur, Sabina January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
3

Optimisation des performances du système optique et estimation de la polarisation instrumentale de l'expérience embarquée sous ballon stratosphérique PILOT

Engel, Céline 14 November 2012 (has links) (PDF)
La mission PILOT a pour objectif l'étude de l'émission polarisée des grains de poussières du milieu interstellaire dans le domaine submillimétrique, à 240 et 550 μm. L'instrument scientifique sera embarqué à bord d'un ballon stratosphérique à une altitude d'environ 40 km. Un champ de vue de 0.8°×1°, ainsi qu'une résolution de l'ordre de la minute d'arc sont requis pour atteindre les objectifs scientifiques. Pour cela, il est nécessaire d'utiliser à la fois un plan focal étendu, un miroir de grand diamètre ainsi qu'un système ré-imageur. Le télescope est de plus en configuration hors axe, une combinaison de forme et d'angle entre les miroirs primaire et secondaire doit donc être respectée de façon à optimiser la qualité image et à minimiser la polarisation instrumentale. L'objectif de mes travaux de thèse était d'estimer les performances de ce système optique, ainsi que leurs variations en fonction des conditions de vol. Tous les composants optiques seront refroidis à 3 K, à l'exception du miroirprimaire. Le contrôle des caractéristiques de ce miroir en fonction des conditions d'environnement est indispensable à l'obtention de performances optimales en vol. J'ai évalué les caractéristiques du miroir primaire en combinant des mesures tridimensionnelles, une caractérisation dans le domaine submillimétrique et des modélisations de déformées en température homogène, non homogène et en gravité. Les méthodes mise en place pour le miroir primaire ont également été appliquées aux lentilles du système ré-imageur. Les résultats obtenus sur le miroir primaire et les lentilles ont été intégrés à la modélisation du système optique. Il a ainsi été possible de valider l'adéquation entre les performances nominales et réelles et d'optimiser le positionnement de chaque composant optique pour l'intégration de l'instrument. Le degré de polarisation de l'émission polarisée des grains de poussières est de l'ordre de quelques pourcents. L'interprétation du signal mesuré par l'instrument nécessite donc une bonne connaissance de la polarisation instrumentale induite par l'instrument. J'ai estimé, par modélisation, les matrices de passage de l'instrument en fonction de la position du point du champ observé, de l'orientation du plan de polarisation de l'état de polarisation incident et de l'orientation de l'axe optique de la lame demi-onde. La campagne de tests de l'instrument intégré, me permettra de vérifier et d'optimiser ces matrices.
4

Approches de l'intégration photonique dans les microsystèmes

Arguel, Philippe 08 December 2005 (has links) (PDF)
Les travaux de recherches présentés dans ce mémoire ont débuté en 1992 au sein du groupe "Photonique" du LAAS-CNRS. Ils s'inscrivent dans le cadre général des recherches menées par l'équipe animée par F. Lozes-Dupuy, Directrice de Recherches au CNRS. Après une étude approfondie des diodes laser DBR (Distributed Bragg Reflector) monofréquences à émission surfacique, l'étude de ce type d'émetteurs a été poursuivie en recherchant le contrôle et l'optimisation de leurs performances par l'adjonction d'une cavité optique étendue hybridée. Ces travaux ont conduit à élargir le domaine de recherches à celui des microsystèmes et aux technologies associées en vue de proposer une microsource laser stabilisée en fréquence. L'orientation «microsystème» des activités a ensuite été renforcée par des travaux de collaboration sur les microsystèmes optiques et, plus spécifiquement, sur le verrou que constitue l'intégration photonique dans les microsystèmes. Dans une première approche, en mettant à profit les acquis de la technologie conventionnelle de type CMOS, les travaux ont concerné l'étude de nouveaux concepts d'intégration sur silicium. Ces travaux se sont appuyés sur un objet d'étude constitué par un capteur optique de déplacement et ont montré que la microélectronique, l'optoélectronique et l'optique intégrée pouvaient être associées sur silicium pour proposer des fonctions optiques "intelligentes" à partir d'une technologie compatible CMOS. Une deuxième approche d'intégration photonique a ensuite été explorée pour tirer profit des propriétés des cristaux photoniques dans la perspective du développement de nouveaux types de diodes laser compatibles avec une intégration photonique planaire dense.
5

Role of nucleotides on lung epithelial cells : mechanism of release and development of a side-view microscopic chamber to study nucleotide-dependent airway surface liquid height

Tatur, Sabina January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
6

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie

Saied, Mazen 30 September 2011 (has links) (PDF)
À l'heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d'effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d'actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d'instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d'évaluer le critèrede la stabilité. L'obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l'approximation de Kirchhoff, méthode qui, jusqu'à présent, est la plus utilisée dans la modélisationdu champ proche d'un masque. D'autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l'approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l'intermédiaire d'un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d'augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d'inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites.
7

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie / Study of the impact of different physical parameters during OPC model creation for 65nm and 45nm technologies

Saied, Mazen 30 September 2011 (has links)
À l’heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d’effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d’actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d’instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d’évaluer le critèrede la stabilité. L’obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l’approximation de Kirchhoff, méthode qui, jusqu’à présent, est la plus utilisée dans la modélisationdu champ proche d’un masque. D’autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l’approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l’intermédiaire d’un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d’augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d’inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites. / At present, common resist models utilized in photolithography to correct for optical proximity effects(OPC) became complex and less physical in order to capture the maximum of optical and chemical effectsin shorter times. The question on the stability of such models, purely empirical, become topical. In thisthesis, we study the stability of existing OPC models by examining the origins of model instability towardsprocess parameters. Thus, we have developed a perturbative method in order to evaluate the stabilitycriterion. However, achieving stable and simple models needs a separation between optical and otherchemical effects. Besides, multiple approximations, widely utilized in the modeling of optical systemsoperating at high numerical aperture, lead to residual errors which can degrade OPC model accuracyand stability. Thus, we were interested to study the limits of validity of the Kirchhoff approximation,a method which, so far, is the most commonly used in mask near-field modeling. Other semi-rigorousmethods for mask topography effect modeling were also evaluated. These approximate methods canimprove the accuracy but degrades the run time. We then suggested different techniques to correct formask topography effects, while keeping the Kirchhoff approximation in the modeling of the optical part.Among them, we showed that errors due to mask topography effects can be partially captured by asecond empirical model. However, in order to ensure a good accuracy, it is necessary to increase themodel complexity by using more additional empirical terms. Finally, in order to achieve a numericalstability of the empirical model, we introduced a new hybrid fast and accurate method, the multi-levelmethod, which allows us to correct for mask topography effects through a multi-level decomposition ofthe thin mask and discussed its advantages and drawbacks.

Page generated in 0.0549 seconds