• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 253
  • 96
  • 29
  • Tagged with
  • 377
  • 179
  • 69
  • 66
  • 65
  • 60
  • 52
  • 41
  • 39
  • 37
  • 36
  • 35
  • 35
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Etudes liées à la vitrification sans fracture de solutions cryoprotectrices

Odagescu, Valentina Maria 07 July 2005 (has links) (PDF)
La cryopréservation par vitrification est une technique qui devrait permettre de rallonger considérablement les durées de conservation des greffons en abaissant leur température de stockage jusqu'à – 196°C. Elle nécessite l'utilisation de solutions cryoprotectrices (contenant des antigels biocompatibles) pour empêcher la cristallisation de glace dans les tissus, ainsi que des vitesses de variation de la température relativement rapides. La calorimétrie différentielle à balayage permet de déterminer les vitesses requises pour la vitrification des solutions cryoprotectrices. L'exemple de l'éthylène glycol est présenté, complétant les informations connues sur ce cryoprotecteur dans la plage des concentrations concernant la vitrification. Au niveau de la procédure de vitrification, la méthode du recuit a permis d'éviter l'apparition de fractures dans des volumes importants de solution cryoprotectrice. Le cas particulier de la solution VM3 (21st Century Medicine) est détaillé. Il permet de montrer que la stabilité de l'état amorphe ainsi que la quantité de glace cristallisée au réchauffement sont influencées par la température et la durée du recuit. Une analyse sur l'influence du type et de la forme du container porte-échantillon par rapport à la qualité du verre fabriqué a été commencée en parallèle, mais les limites du dispositif cryogénique utilisé nous ont poussé à développer un nouveau cryostat automatisé, permettant de faire des études systématiques dans des conditions reproductibles. Ce cryostat, entièrement conçu et construit au CRTBT, représente le prototype de ce que nous souhaitons proposer à des médecins pour les aider dans leur étude clinique de la cryopreservation des systèmes biologiques. Sa précision de mesure et sa facilité d'utilisation nous a pour le moment permis de mettre en évidence différents événements ayant lieu pendant la vitrification et le réchauffement de nos échantillons.
102

Vers des mesures précises de violation de la parité dans le Césium : Contruction d'une expérience nouvelle utilisant une détection active par émission induite

Jacquier, Philippe 17 April 1991 (has links) (PDF)
Les expériences de violation de la parité dans les atomes, explorant l'interaction faible électron-noyau à très faible énergie sont un test de la théorie électrofaible complémentaire de ceux de haute énergie. Une mesure précise de la charge faible du noyau de césium apporterait des informations très utiles sur les corrections radiatives. L'expérience proposée sur la transition très interdite 6S - 7S du césium à 540 nm vise à atteindre une précision de l'ordre de 1% sur cette mesure. Les atomes sont excités de 6S à 7S en présence d'un champ électrique longitudinal par un laser pulsé (durée de l'ordre de 10 ns). Il sont ensuite détectés par émission induite par un laser sonde accordé sur 7S - 6P3/2 à 1.470 μm). L'amplification transitoire du faisceau sonde peut dépasser 100%. La vapeur présente un fort dichroïsme plan dû à l'alignement de 7S par la polarisation linéaire du faisceau pompe. L'interaction faible dans l'atome fait tourner cet alignement d'un petit angle (1 à 10 microradians) que la mesure de la polarisation de la sonde amplifiée permet de déterminer. Dans cette thèse sont décrites les trois principales étapes que nous avons franchies: l'essai avec un champ transverse et des lasers continus, la mise en oeuvre d'un laser pulsé, et enfin le passage à une configuration de champ longitudinal. L'utilisation d'un polarimètre équilibré à deux voies spécialement étudié et d'une double chaine de mesure d'impulsions lumineuses a permis la mesure à chaque tir du taux de polarisation d'impulsions de 10^8 photons, au bruit de photons près. Les résultats obtenus semblent indiquer que l'expérience projetée sera réalisable.
103

Etude du comprtement thermomécanique des bétons à haute température: Approche multi échelles de l'endommagement thermique

MENOU, Abdellah 29 January 2004 (has links) (PDF)
Cette recherche s'inscrit dans le cadre de l'étude de la durabilité des ouvrages en béton en cas d'incendie. Les études expérimentales montrent l'influence importante de la température sur le comportement des bétons et notamment des BHP. La présente recherche a pour objet d'identifier les mécanismes élémentaires conduisant à la dégradation des bétons sous l'effet de la température et de proposer ainsi un modèle prédictif permettant l'évaluation de l'endommagement des bétons sous l'effet de la température. L'endommagent thermique du béton observé expérimentalement est en fait la résultante de plusieurs mécanismes élémentaires qui se produisent à différentes échelles du matériau. La démarche adoptée consiste à découpler l'endommagement thermique d'origine mécanique (accompagné des déformations) et qui a lieu à l'échelle macroscopique et microscopique de l'endommagement thermique d'origine physico-chimique (non accompagné de déformations) et qui est dû principalement aux transformations physico-chimiques de la matière. A l'échelle mésocopique, nous postulons l'existence d'une déformation supplémentaire, appelée déformation micromécanique, responsable de l'endommagement par dilatation différentielle entre le mortier (ou ciment) et les granulats. L'approche est basée sur l'exploitation simultanée du modèle multiphasique Béton Numérique (BN) et du modèle d'endommagement déviatorique (MODEV), implantés dans le code de calcul aux éléments finis SYMPHONIE. Une étude expérimentale a été réalisée afin d'alimenter et de valider le modèle d'endommagement thermique. Cette étude a porté sur 5 matériaux cimentaires, à savoir ; une pâte de ciment, un mortier, un béton ordinaire, un BHP à granulats calcaires et un BHP à granulats silico-calcaires. Des essais de flexion trois points ont été effectués sur des éprouvettes ayant subits au préalable un cycle de chauffage- refroidissement. L'approche multi échelles du modèle BN a permis de retrouver par simulation le comportement à chaud observé expérimentalement. Ceci est effectué en simulant les différents essais réalisés dans le cadre de la présente recherche. L'approche "Béton Numérique" a permis de mettre en évidence l'existence de la déformation micromécanique d'une part et de proposer une approche originale permettant l'identification par simulation des lois de comportement des bétons à hautes températures. Cette approche a été également appliquée avec succès pour expliquer les observations expérimentales du comportement thermomécanique du béton sous chargement mécanique, appelé communément « fluage thermique transitoire ». En fin, une application aux bétons réfractaires soumis à des très hautes températures a été réalisée.
104

Contribution à l'étude de la formation des images optiques en microscopie champ proche optique: effet de la sonde en deux dimensions

Goumri-Said, Souraya 08 October 2004 (has links) (PDF)
Ce travail est relatif à la contribution d'un modèle théorique pour représenter un PSTM. L'approche est globale et veut pouvoir prendre en considération des objets de tailles inférieures à la longueur d'onde mis en présence de sondes de tailles réalistes. Le modèle développé est bi-dimensionnel et dans cette thèse son application est limité à la polarisation S (TE) en diffraction normale et à hauteur constante. Nous exposons d'abord les bases du modèle mis en oeuvre qui repose sur la méthode différentielle à laquelle sont combinés des algorithmes matriciels. Pour éviter tout problème numérique lorsque le système sonde-objet a des dimensions réalistes (beaucoup supérieure à la longueur d'onde) nous avons utilisé l'algorithme matriciel S. Après avoir défini les critères à satisfaire strictement pour obtenir des performances sûres nous avons appliqué ce modèle aux différents cas suivant : - Sonde monomodes - Sondes multimodes - Sondes structurées (gaine, coeur et éventuellement revêtement métallique externe sont pris en compte). - Spectroscopie d'un objet absorbant inséré dans un couche diélectrique uniforme en proche IR. Tous nos résultats sont cohérents et ouvrent des voies sûres pour l'interprétation des images puisque nous avons montrés que nos calculs étaient en accord qualitatif correct avec des résultats expérimentaux obtenus antérieurement sur des systèmes tests. Dans tous les cas étudiés nous avons montré que la présence de la sonde, quelle que soit sa nature et sa structure, perturbait la distribution du champ électromagnétique rayonné par l'objet. Ceci nous conduit à définir une nouvelles approche de la fonction de transfert en microscopie de champ proche. L'étude encore limitée aux sondes monomodes, montre que la fonction de transfert n'est pas définie dans le cas général. Ce premier travail ouvre des perspectives intéressantes puisque pour la première fois des sondes de formes réelles (incluant apex et taper) et de grandes tailles (jusqu'à 70µm pour la partie guidante) éventuellement métallisées, ont été prises en compte dans un modèle numérique. Il permet aussi d'aborder de façon nouvelle le problème de la fonction de transfert et des images spectroscopiques, y compris en IR. Il est aussi adaptable à la polarisation P (TM)
105

Photométrie différentielle de supernovae de type Ia lointaines (0.5

Raux, Julien 09 October 2003 (has links) (PDF)
Aprs avoir rappel le contexte thorique et observationnel de la cosmologie dans le modle ``standard'', cette thse prsente comment, partir de la comparaison des luminosits apparentes de supernovae de type Ia (SNIa) proches et lointaines , il est possible de prciser la gomtrie de l'univers et de faire des mesures des principaux paramtres cosmologiques. Nous dcrivons, ensuite, comment partir d'observations l'aide de l'imageur large champ de vue CFH12K mont sur le CFHT (Canada France Hawaii Telescope, 3.6m, Hawaii) et d'outils logiciels dvelopps au sein de notre groupe, nous avons pu dcouvrir durant la campagne de recherche du Supernova Cosmology Project du printemps 2001 un lot de 4 SNIa lointaines. Une recherche similaire effectue auprs du CTIO (Cerro Tololo Interamerican Telescope, 4m, Chili) par nos collaborateurs a permis la dcouverte d'une dizaine de supernovae supplmentaires. Nous prsentons dans cette thse l'analyse des 6 supernovae les plus lointaines (avec des dcalages vers le rouge compris entre 0.5 et 1.2) qui ont t suivies par l'instrument WFPC2 du tlescope spatial Hubble. A partir de ces observations, nous avons construit leur courbe de lumire en utilisant des outils de photomtrie diffrentielle spcifique l'instrument WFPC2 dvelopps lors de ce travail. La simulation du flux de ces supernovae dans les instruments d'observation a permis de construire des modles de courbe de lumire et ainsi l'ajustement de leurs caractristiques : luminosit apparente au maximum et taux de dcroissance. Enfin, la comparaison de ce lot un lot d'une centaine de SNIa proches issues de la littrature, nous a permis de faire une mesure des paramtres cosmologiques. Nous trouvons, en considrant un univers plat, des valeurs respectives pour la densit rduite de matire de 0.35 (0.15 stat) et 0.22 (0.25 stat) pour les supernovae avec un dcalage vers le rouge autour de 0.5 et autour de 1.
106

La recherche de systèmes nonlinéaires de contrôle de mode glissant à Ordre Supérieur et ses applications pour la MSAP

Huangfu, Yi-Geng 12 January 2010 (has links) (PDF)
Les travaux concernent la commande d'un moteur synchrone à aimants permanents en utilisant les techniques de modes glissants par ordres supérieurs. On a développé une méthodologie complète partant des études théoriques relatives à la linéarisation exacte des systèmes non linéaires par retour d'état et aux techniques de commande par modes glissants, jusque l'implémentation des lois de commande obtenues tant en simulation que sur une plateforme expérimentale. Après avoir posé les objectifs de la thèse et donné les principales motivations, on propose en premier lieu un état de l'art historique du développement de la théorie de la commande pour les systèmes non linéaires. Les divers principes de base de la commande par modes glissants d'ordre un est présenté et explicitée et monte ainsi les avantages et les inconvénients. Une illustration est proposée avec exemple assez simple. Le phénomène de réticence ou de "chattering" est abordé et les solutions les plus classiques utilisées pour le réduire sont rappelées. L'application des techniques de modes glissants d'ordres supérieurs au moteur synchrone à aimants permanents est ensuite présentée. Partant des équations électriques, électromagnétiques et mécaniques qui régissent le système, le modèle d'état est clairement posé. Ensuite, l'auteur décline les objectifs de commande et décrit la synthèse d'une loi de commande, basée sur les modes glissants d'ordres supérieurs, permettant de les atteindre. L'étude qui est faite pour l'établissement du modèle tient aussi compte du fait que les paramètres du système varient dans le temps. Deux surfaces de glissements sont définies en accord avec les objectifs de commande : le courant id et la position angulaire. L'étape suivante a consisté alors à linéariser et découpler par retour d'état, ce système ayant deux entrées et deux sorties. Par la suite, une fois le système linéarisé et découplé, l'auteur fait la synthèse de complète de son correcteur à savoir la loi de commande et des dérivateurs basés sur des modes glissants par ordres supérieurs. De nombreuses simulations montrent l'efficacité du schéma de commande élaboré. Les résultats obtenus en implémentant les lois de commande étudiées sur une plateforme expérimentale sont présentés. L'auteur décrit d'abord la plateforme dSpace utilisée ainsi que le banc expérimental (moteur, capteurs, actionneurs filtres....). Ensuite, sont détaillées les différentes étapes d'implémentation de la commande en utilisant le logiciel MATLAB/SIMULINK. La méthodologie utilisée et les résultats expérimentaux obtenus sont exposés et commentés.
107

Algorithmes pour la détection non-cohérente des codes space-temps

Cipriano, Antonio Maria January 2005 (has links) (PDF)
Cette thèse se compose de deux parties. La première traite du codage et du décodage des codes espace-temps par blocs, dans le cas où ni l'émetteur ni le récepteur n'ont d'informations sur le canal. Nous étudions une famille particulière de codes obtenus à travers une fonction non linéaire appelée fonction exponentielle. Cette partie est formée de quatre chapitres. Dans le chapitre 2, nous reportons le modèle du canal, des rappels de mathématique et les résultats déjà connus dans la littérature sur les codes espace-temps non cohérents. Dans le chapitre 3, nous approfondissons les codes obtenus par la fonction exponentielle, en expliquant l'interprétation géométrique de la procédure de codage et en résolvant des problèmes ouverts sur ce sujet. Dans le chapitre 4, nous proposons un nouveau décodeur simplifié dans le cas d'une antenne à l'émission et de plusieurs antennes à la réception. Une discussion sur la complexité et les paramètres du décodeur est fournie, ainsi que des simulations et des comparaisons avec d'autres propositions. Dans le chapitre 5, nous abordons le cas général à plusieurs antennes à l'émission et nous proposons deux décodeurs simplifiés, ainsi qu'une discussion sur leurs paramètres et leurs complexités. Des simulations des performances et des comparaisons sont également présentées. La deuxième partie de la thèse est formée par le chapitre 6, qui traite de la décomposition des signaux CPM en impulsions PAM. La CPM est une modulation non linéaire: obtenir une description linéaire du signal peut donc être intéressant pour simplifier le projet de codes et de récepteurs pour ces systèmes. Une conclusion finale clôt le travail.
108

Études de problèmes aux limites non linéaires de type pseudo-parabolique

Seam, Ngonn 14 September 2010 (has links) (PDF)
L'objectif de ce travail est l'étude du problème non linéaire de type pseudo parabolique suivant : trouver une fonction mesurable $u$ de $Q:=]0,T[\times \Omega$ solution de \begin{equation*} \left\{ \begin{array}{l@{\quad}l} f\left(t,x,u_t\right)-Div \left\{a\left(x,u,u_t\right)\nabla u+b\left(x,u,u_t\right)\nabla u_t \right\}=g(t,x), \; (t,x)\in Q, \\ u(x,t)=0,\; (t,x)\in ]0,T[\times \partial \Omega, \\ u(0,x)=u_0, \; x\in \Omega,\\ \end{array} \right. \end{equation*} où l'opérateur de Nemestki associé à la fonction $f$ est monotone.\\ Un premier chapitre est conscré à l'étude de l'existence d'une solution pour le problème ci-dessus. Pour cela, on utilise une méthode de semi-discrétisation implicite en temps. L'existence des itérés repose sur le théorème de point fixe de Schauder-Tikhonov et la convergence du schéma sur une outil de compacité adapté à la situation. À la fin du chapitre, on propose des applications à l'équation de Barenblatt et au cas d'un $f$ multivoque. \\ Dans le second chapitre, on s'intéresse au problème de Barenblatt pseudo-parabolique : rechercher une fonction mesurable $u$ de $Q$ à valeur réelle telle que \begin{equation*} \left\{ \begin{array}{l@{\quad}l} f\left(u_t\right(t,x))-\Delta u(t,x)-\epsilon \Delta u_t(t,x)=g(t,x), \; (t,x)\in Q, \\ u(x,t)=0,\; (t,x)\in ]0,T[\times \partial \Omega, \\ u(0,x)=u_0, \; x\in \Omega,\\ \end{array} \right. \end{equation*} où $f$ n'est pas nécessairement monotone.\\ Pour $\epsilon> \epsilon_0>0 $, où $\epsilon_0$ est une valeur critique, on montre que le problème est bien posé en utilisant une méthode similaire à celle du premier chapitre. Pour la valeur critique de $\epsilon=\epsilon_0$, le problème admet au plus une solution ; cette dernière existe moyennant une hypothèse supplémentaire sur $f$. Enfin, si $0<\epsilon<\epsilon_0$, la solution n'est pas unique en général. On propose enfin d'une approche stochastique de l'équation pseudo-parabolique de Barenblatt-Sobolev. Le dernier chapitre propose des simulations numériques monodimensionnelles ; notamment, on s'intéresse à la perturbation singulière pseudo-parabolique lorsque la diffusion moléculaire change de signe.
109

Calcul moulien et théorie des formes normales classiques et renormalisées

Morin, Guillaume 09 June 2010 (has links) (PDF)
La première partie de cette thèse présente le cadre des équations différen- tielles à retard. Ces équations apparaissent notamment dans des modélisations de phénomènes physiques (calcul de marées) et physiologiques. La recherche de forme normale d'équation différentielle à retard est rendue difficile du fait de la dimension infinie de l'espace des conditions initiales. On présente une méthode de calcul due à T. Faria qui permet de réduire cette difficulté en utilisant des variétés centrales de dimension finie, sur lesquelles on peut faire un calcul de forme normale « classique ». On étend ensuite ce résultat à l'aide d'une méthode de G. Gaeta permettant la renormalisation de formes normales usuelles, pour des équations différentielles ordinaires. En utilisant ces deux méthodes, on démontre un théorème donnant l'existence d'une forme renormalisée d'équation différentielle à retard. Dans une deuxième partie, on présente et on étudie le formalisme moulien développé par Jean Ecalle. On utilise ce formalisme pour la recherche de formes normales de champs de vecteurs, et on l'applique à des champs hamiltoniens en coordonnées cartésiennes, puis en coordonnées action-angle. On obtient ainsi une nouvelle démonstration de la version formelle du théorème de Kolmogorov et du théorème de Birkhoff. On présente également une feuille de calcul avec Maple mettant en œuvre certains de ces calculs, et témoignant ainsi de la remarquable aptitude du formalisme moulien à être utilisé dans les logiciels de calcul formel.
110

IDADIGE : Procédé de traitement des images de gels d'électrophorèse bidimensionnelle différentielle dans le contexte de la recherche de marqueurs protéiques

Bernard, Fabien 26 October 2008 (has links) (PDF)
Le sujet de cette thèse s'inscrit dans le cadre du projet NODDICCAP initié par l'entreprise bio-Mérieux et visant le développement de Nouveaux Outils pour le Dépistage, le DIagnostic, l'évaluation du pronostic et le suivi du Cancer Colorectal par une Approche Protéomique. Le développement de ces nouveaux outils passe nécessairement par l'identification de marqueurs tumoraux discriminants et spécifiques du cancer colorectal. L'objectif de la thèse a été d'optimiser l'analyse des images et des données issues de la technologie DIGE (Differential In-Gel Electrophoresis), afin de permettre la découverte de marqueurs potentiels du cancer colorectal. Après avoir identifié les maillons faibles de la chaîne de traitement classique des images de gel d'électrophorèse 2D, nous avons été amenés à reconsidérer les approches utilisées et à rechercher des méthodes de traitement d'image et de données innovantes, ou bien existantes mais issues de domaines voisins. Le choix des méthodes a été guidé par l'évaluation de leur efficacité en comparaison aux méthodes classiquement employées, et également par les contraintes liées au contexte biologique et technologique. Les principales avancées issues de ce travail sont la définition du schéma expérimental, l'approche stratégique de l'analyse d'images ainsi que l'analyse statistique des données. En ce qui concerne le schéma expérimental, le choix d'une lignée cellulaire comme standard commun a permis un meilleur recoupement des données entre différentes expériences. L'analyse stratégique de l'analyse d'image a été améliorée grâce à l'utilisation d'un patron de détection unique. Ce patron unique a été réalisé à l'aide d'une méthode de fusion d'images originale permettant une juste représentativité de chacune des tâches protéiques de l'ensemble des images considérées. Enfin, les méthodes pour l'analyse statistique des données ont tenu compte de l'intensité des tâches protéiques grâce à une régulation de la variance lors de la comparaison des ratios. Par ailleurs, la spécification par le biologiste d'un profil de risque a permis, par exemple, de porter une plus grande attention aux protéines fortement exprimées. L'ensemble des méthodes mises en place depuis l'acquisition des images jusqu'à la découverte et la visualisation des marqueurs protéiques potentiels constitue le workflow IDADIGE (Image and Data Analysis for Differential In Gel Electrophoresis). Ce workflow exploite différents logiciels ainsi que plusieurs fonctions implémentées sous Matlab et regroupées sous le nom ProDIGE. L'exploitation par le laboratoire de protéomique de bioMérieux du workflow IDADIGE a été utilisée en routine et a permis la découverte de marqueurs protéiques du cancer colorectal qui doivent maintenant être validés biologiquement.

Page generated in 5.4882 seconds