• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 52
  • 46
  • Tagged with
  • 224
  • 224
  • 197
  • 177
  • 177
  • 175
  • 173
  • 72
  • 59
  • 41
  • 40
  • 40
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Caractérisation et modélisation spatio-temporelles du canal de propagation radioélectrique dans le contexte MIMO

Guillet, Julien 13 July 2004 (has links) (PDF)
Les techniques MIMO (Multiple Input - Multiple Output) constituent des solutions prometteuses pour les futurs systèmes de communications sans fil à très haut débit. Ces techniques visent à exploiter la dimension spatiale offerte par le milieu de propagation par l'intermédiaire de plusieurs antennes en émission et en réception permettant ainsi d'augmenter substantiellement le débit numérique.Les performances des systèmes MIMO étant largement tributaire des propriétés du canal de propagation sans fil, il est d'autant plus important pour ces systèmes de s'intéresser à ces dernières.Ce document a pour double objectif d'approfondir la connaissance sur les aspects théoriques et physiques de la caractérisation et de la modélisation spatio-temporelles du canal de transmission MIMO, en considérant la dimension spatiale au même niveau que la dimension temporelle, ainsi que de proposer un simulateur du canal MIMO réaliste basé sur des résultats de mesures.
62

Modélisation et simulation du procédé de prépolissage automatique sur centre d'usinage 5 axes

Anthony, Guiot 06 December 2012 (has links) (PDF)
La réalisation de formes complexes comme les moules ou les prothèses médicales nécessite l'utilisation d'opérations de super finition pour obtenir de faibles défauts géométriques, pouvant aller jusqu'au poli-miroir. Ces opérations de prépolissage et de polissage sont encore régulièrement réalisées manuellement. En effet, malgré des avantages en termes de répétabilité, de productivité et de qualité géométrique, les méthodes de polissage automatique sont peu utilisées, car elles nécessitent une mise au point importante. Les travaux de recherche présentés dans ce mémoire participent à la maîtrise du procédé de polissage automatique tout en contrôlant la qualité géométrique des pièces. Pour parvenir à cette maîtrise, un outil de simulation de l'enlèvement de matière est mis en place. Cet outil permet de simuler l'enlèvement de matière au cours d'une opération de prépolissage réalisée sur centre d'usinage 5 axes. Il se base sur un modèle du contact obtenu entre l'outil de pré-polissage et la pièce, ainsi que sur un modèle du pouvoir abrasif intégrant l'usure et l'encrassement du disque. Cette simulation permet de vérifier la régularité de l'abrasion sur une surface et d'identifier les zones pouvant faire apparaitre des défauts macro-géométriques importants. Une méthode est également proposée pour compenser les variations du pouvoir abrasif au cours du temps. La compensation s'effectue en optimisant les consignes de vitesse d'avance et/ou de fréquence de broche le long de la trajectoire. Cette méthode de pilotage permet d'obtenir un taux d'enlèvement de matière plus constant et ainsi de réduire les défauts géométriques générés pendant une opération de prépolissage.
63

Analyse et modélisation des communications concurrentes dans les réseaux haute performance

Martinasso, Maxime 25 May 2007 (has links) (PDF)
La croissance des capacités de calcul des processeurs se poursuit, non plus par l'augmentation des fréquences d'horloge, mais par la multiplication d'unités de traitement (coeur) au sein des chips. Cette augmentation du nombre de coeurs par processeur induit un partage des autres omposants de la machine entre les différentes requêtes. En outre, les applications parallèles provenant du calcul scientifique s'efforcent d'exploiter au maximum les ressources d'une architecture parallèle. La compréhension du partage de ressource devient un des défis majeurs pour utiliser efficacement ces architectures.<br />Ces nouveaux comportements de partage de ressources, ainsi produits, sont difficiles à interpréter et à prédire. Dans cette thèse, nous avons étudié le problème du partage du réseau. Les grappes de calcul utilisent des réseaux dédiés tels que Gigabit Ethernet, Myrinet ou Quadrics. L'exécution simultanée des tâches d'une application entraîne des accès concurrents sur la ressource réseau. Leurs effets conduisent à une perte de performance qui découle du partage de la bande passante réseau entre communications.<br />Suivant ce contexte, nous présentons une analyse fine des comportements concurrents sur les architectures : Quadrics, Myrinet et Gigabit Ethernet. Cette analyse conduit à la définition de modèles prédictifs basés sur la notion de partage de la bande passante. En outre, nous montons que l'intégration de ces modèles dans une simulation permet de prédire les impacts dûs à la concurrence entre communications MPI résultantes de l'exécution d'applications scientifiques. La prédiction des comportements concurrents donne lieu, au niveau scientifique et technique, à une meilleure connaissance des besoins des applications et, au niveau industriel, à la proposition de solutions de grappes adaptées aux besoins de leurs clientèles.
64

Modélisation et simulation de la diffusion

Li, Jing-Rebecca 16 December 2013 (has links) (PDF)
Deux concepts très importants dans mes travaux sont ceux de la diffusion (mouvement aléatoire des particules) et de ceux de la transformée de Fourier. La diffusion des particules peut être décrite par l'équation de la diffusion, dont la solution fondamentale a un forme beaucoup plus complexe que sa transformée de Fourier. Tout d'abord, nous profitons de la forme spéciale de la transformée de Fourier (dans l'espace) de la fonction de Green de l'équation de diffusion pour formuler des méthodes numériques qui sont locales en temps pour la solution des équations avec mémoire. L'idée principale est que la solution sera calculée dans le domaine de Fourier, pour éviter d'évaluer les intégrales de convolution en temps portent la " mémoire ". Ce travail a été rendu possible par le développement d'une quadrature adaptée de l'intégrale de Fourier où un petit nombre de points dans la variable de Fourier était suffisant pour une bonne résolution du problème dans l'espace physique, sur un intervalle de temps important. En particulier, nous avons développé une méthode numérique pour simuler la diffusion dans des domaines non bornés avec sources et l'avons appliquée à la modélisation de la croissance des cristaux, à l'aide du modèle du champ de phase. Puis, afin d'étendre cette approche à des problèmes aux limites, nous avons abordé la question de l'évaluation des potentiels de simple couche et de double couche sur le bord du domaine. Enfin, nous avons généralisé l'idée de remplacer les intégrales de convolution en temps par une quadrature efficace dans le domaine de Fourier, aux intégrales et aux dérivés d'ordres fractionnaires, et obtenu une borne rigoureuse de l'erreur de quadrature. Nous avons aussi appliqué cette approche à une équation des ondes fractionnaire. En 2010, j'ai commencé à appliquer les outils numériques et analytiques à l'équation de Bloch-Torrey, dans le domaine de l'imagerie par résonance magnétique de la diffusion (IRMd) du cerveau. Ce travail a commencé dans le cadre d'une collaboration avec des physiciens d'IRM de Neurospin. Nous avons essayé d'expliquer la relation entre la géométrie cellulaire, la perméabilité membranaire et le signal d'IRMd obtenu. Certaines difficultés de la modélisation et de la simulation du signal d'IRMd au niveau de l'échelle de temps et de l'espace viennent de la physique et de la biologie d'IRMd du cerveau. Premièrement, pour des raisons biologiques et techniques, l'IRMd ne peut mesurer que des temps de diffusion compris entre une et cent millisecondes, correspondant à une distance de diffusion moyenne de 2,5 à 25 micromètres. Cette distance est moyennée sur toutes les molécules d'eau, et la distance de diffusion réelle peut être différente selon que la localisation, au début de la mesure, des molécules d'eau : dans les corps neuronaux, dans les neurites (dendrites et axones) ou dans l'espace extra-cellulaire. Deuxièmement, certaines caractéristiques de la matière grise du cerveau rendent l'analyse et la simulation très difficiles: \begin{enumerate} \item Les cellules sont géométriquement complexes. Les neurones ont un corps solide, mesurant 1 à 10 micromètres de diamètre auquel sont attachés de longues neurites (axones et dendrites) qui mesurent de l'ordre d'un micromètre de diamètre et de plusieurs centaines de micromètres de longueur. \item Les cellules ont une répartition très dense. Les corps neuronaux occupent 12\% du volume du cortex cérébral, les axones 34\%, les dendrites 35\%, l'espace extracellulaire 6\%, pour une largeur moyenne de 10 à 30 nanomètres. \item L'organisation cellulaire est complexe. Les cellules du cortex sont organisées en couches, avec des colonnes de cellules liant différentes couches. \item Les cellules sont perméables. En général, l'eau peut se déplacer entre les cellules et l'espace extracellulaire. \end{enumerate} La résolution d'IRMd est de l'ordre de 1 mm$^3$, ce qui signifie que chaque pixel de l'image affiche les caractéristiques de diffusion moyennées dans un volume de tissu (voxel) de 1 mm$^3$, ce qui est très grand devant les échelles spatiales cellulaires. Pour modéliser le signal de l'IMRd dans un voxel, il faut simuler l'aimantation à l'intérieur de ce voxel et calculer son intégrale au moment de l'écho. La distance de diffusion moyenne ne dépassant pas 25 micromètres, il suffit de faire le calcul dans un domaine légèrement plus grand qu'un voxel pour tenir compte de la diffusion de toutes les molécules d'eau qui auront " vu " ce voxel durant le temps de diffusion. De plus, si nous supposons que le voxel contient un environnement cellulaire qui ne varie pas beaucoup à dans le voxel, nous utilisons un domaine de calcul plus petit, celui-ci devra ne contenir qu'une " portion représentative " du tissu dans le voxel. Pour étudier le lien entre l'atténuation du signal d'IRMd et les propriétés géométriques du tissu, tels que le diamètre moyen des cellules et la fraction volumique cellulaire, nous avons généré, dans un premier temps, des domaines de calcul qui contiennent une configuration cellulaire à étudier. A terme, nous envisageons des simulations sur beaucoup de configurations pour obtenir des résultats statistiquement significatifs. Actuellement, nous construisons une seule configuration cellulaire et résolvons le problème forward et inverse associé. Le signal d'imagerie par résonance magnétique de diffusion dans le tissu biologique peut être considéré comme une sorte de " transformée de Fourier " de la fonction de densité de probabilité de déplacement de l'eau dans les milieux hétérogènes. L'aimantation des protons de l'eau en tissu biologique en présence d'impulsions du gradient de champ magnétique, peut être modélisée par une équation aux dérivées partielles (EDP), l'équation de Bloch-Torrey microscopique à compartiments multiples. Cette EDP peut être comprise comme l'attribution aux molécules d'eau en milieu hétérogène, d'une fréquence spatiale qui dépend de leurs positions. Le signal d'IRMd est l'intégrale de la solution de cette EDP au moment de l'écho. Nous avons résolu numériquement cette EDP en couplant une discrétisation spatiale cartésienne standard avec une discrétisation en temps adaptative (Runge-Kutta Chebyshev " RKC ") et nous avons étudié les caractéristiques de la diffusion d'un modèle de la matière grise du cerveau constitué de cellules cylindriques et sphériques dans l'espace extracellulaire. Puis, par homogénéisation, nous avons formulé un nouveau modèle macroscopique, sous forme d'un système d'équations aux dérivées ordinaires (EDO), pour le signal d'IRMd. Ensuite, nous avons montré par des simulations numériques que ce modèle d'EDO donne une bonne approximation du signal du modèle d'EDP complet pour des temps de diffusion relativement longs. Je mentionne aussi le travail de deux doctorants que je co-encadre actuellement. Dang Van Nguyen (soutenu par le projet SIMUDMRI, ANR COSINUS 2010-2013) a couplé une discrétisation d'éléments finis avec la méthode RKC pour obtenir une discrétisation plus précise des surfaces cellulaires. Il travaille sur l'analyse du signal de l'IRMd des neurones isolés. Huan Tuan Nguyen (soutenu par une bourse de l'École Doctorale " Sciences et Technologies de l'Information, des Télécommunications et des Systèmes " ED STITS, 2010-2013) travaille sur le problème inverse du modèle d'EDO. Enfin, j'envisage trois orientations futures de mes recherches dans l'IRMd. \begin{enumerate} \item En collaboration avec le centre Neurospin IRM, confronter les résultats numériques du modèle d'EDP avec les données expérimentales IRMd des ganglions (réseaux neuronaux) de l'Aplysie (limace de mer géante). \item Prendre en compte l'écoulement sanguin dans les micro-vaisseaux du cerveau, via un nouveau modèle d'EDP. \item Obtenir la formulation d'un nouveau modèle d'EDO valable aux temps de diffusion plus courts ou en présence des cellules plus grandes. \end{enumerate}
65

Modélisation de la croissance des villes

Nguyen, Nga 08 January 2014 (has links) (PDF)
Dans cette thèse nous proposons and nous mettons en application plusieurs modèles décrivant le croissance et la morphologie du tissu urban. Le premier de ces modèles est issu de la percolation en gradient (correlée) déjà proposé de la littérature. Le second, inédit, fait appel à un équation différentielle stochastique. Nos modèles sont paramétrisables: les paramètres que nous avons choisi d'appliquer sont naturels et tiennent compte de l'accessibilité des sites. Le résultat des simulations est conforme à la réalité du terrain. Par ailleurs, nous étudions la percolation en gradient: nous démontrons , suivant Nolin, que la frontière de cluster principal se situe dans un voisinage de la courbe critique et nous estimons ses longueurs et largeurs. Enfin, nous menons une étude du processus de croissance SLE. Nous calculons (preuve assistée par ordinateur) l'espérance des carrés des modules pour SLE_2 and SLE_6. Ces résultats sont liés à la conjecture de Bieberbach.
66

Propriétés et méthodes de calcul de la fiabilité diamètre-bornée des réseaux

Sartor, Pablo 18 December 2013 (has links) (PDF)
Soit un réseau comprenant des lignes de communication qui échouent indépendamment, dans lequel tous ou certains sites, appelés terminaux, doivent être capables de communiquer entre eux. Dans le modèle stochastique statique classique le réseau est représenté par un graphe probabiliste dont les arêtes sont présentes selon des probabilités connues. La mesure de fiabilité classique (CLR) est la probabilité que les terminaux appartiennent à la même composante connexe. Dans plusieurs contextes il est utile d'imposer la condition plus forte que la distance entre deux terminaux quelconques soit bornée supérieurement par un paramètre d. La probabilité que ça se produise est connue comme la fiabilité diamètre-bornée (DCR). Il s'agit d'une extension de la CLR. Les deux problèmes appartiennent à la clase NP-difficile de complexité ; le calcul exact n'est possible que pour les instances de taille limitée ou topologies spécifiques. Dans cette thèse, nous contribuons des résultats concernant le problème du calcul et l'estimation de la DCR. Nous étudions la complexité de calcul de cas particuliers, paramétré par le nombre de terminaux, noeuds et le paramètre d. Nous passons en revue des méthodes pour le calcul exact et étudions des topologies particulières pour lesquelles le calcul de la DCR a une complexité polynomiale. Nous présentons des résultats de base sur le comportement asymptotique de la DCR lorsque le réseau se développe comme un graphe aléatoire. Nous discutons sur l'impact de la contrainte de diamètre dans l'utilisation des techniques de Monte Carlo, et adaptons et testons une famille de méthodes basées sur le conditionnement de l'espace d'échantillonnage en utilisant des structures nommées d-pathsets et d-cutsets. Nous définissons une famille de mesures de performabilité qui généralise la DCR, développons une méthode de Monte Carlo pour l'estimer, et présentons des résultats expérimentaux sur la performance de ces techniques Monte Carlo par rapport à l'approche naïve. Finalement, nous proposons une nouvelle technique qui combine la simulation Monte Carlo et l'interpolation polynomiale pour les mesures de fiabilité.
67

Prédiction de la localisation des protéines membranaires : méthodes méta-heuristiques pour la détermination du potentiel d'insertion des acides aminés

Laroum, Sami 25 November 2011 (has links) (PDF)
Dans ce travail, nous nous intéressons à la localisation des protéines adressées vers la membrane du réticulum endoplasmique, et plus spécifiquement à la reconnaissance des segments transmembranaires et des peptides signaux. En utilisant les dernières connaissances acquises sur les mécanismes d'insertion d'un segment dans la membrane, nous proposons une méthode de discrimination de ces deux types de séquences basée sur le potentiel d'insertion de chaque acide aminé dans la membrane. Cela amène à rechercher pour chaque acide aminé une courbe donnant son potentiel d'insertion en fonction de sa place dans une fenêtre correspondant à l'épaisseur de la membrane. Notre objectif est de déterminer ≪ in silico ≫ une courbe pour chaque acide aminé, afin d'obtenir les meilleures performances pour notre méthode de classification. L'optimisation, sur des jeux de données construits à partir des banques de données de protéines, des courbes est un problème difficile que nous abordons grâce aux méthodes méta-heuristiques. Nous présentons tout d'abord un premier algorithme de recherche locale permettant d'apprendre un ensemble de courbes. Son évaluation sur les différents jeux de données montre de bons résultats de classification. Cependant, nous constatons une difficulté d'ajustement pour les courbes de certains acides aminés. La restriction de l'espace de recherche grâce à des informations pertinentes sur les acides aminés et l'introduction d'un voisinage multiple nous permettent d'améliorer les performances de notre méthode et en même temps de stabiliser les courbes apprises. Nous présentons également un algorithme génétique développé afin d'explorer de manière plus diversifiée l'espace de recherche de ce problème.
68

Amélioration des Techniques de Génération de maillages 3D des structures anatomiques humaines pour la Méthode des Éléments Finis

Lobos, Claudio 05 March 2009 (has links) (PDF)
La Méthode des Éléments Finis (MEF) est probablement la technique la plus utilisée pour la modélisation du comportement mécanique des solides. Elle s'appuie pour cela sur une discrétisations du domaine modélisé en éléments géométrique simples. Cette partition porte le nom de maillage. La solution<br />numérique calculée par la MEF dépend directement du maillage utilisé. <br /><br />Dans le domaine médical, les solides modélisés sont de géométrie complexe. De ce fait, nous privilégions une génération de maillage par recalage élastique. Cette méthode permet d'adapter un maillage prédéfini (atlas) aux données du patient afin de représenter le domaine à modéliser. Le recalage élastique applique un déplacement aux sommets de l'atlas sans en changer sa topologie. Les méthodes de recalage élastique ne prennent cependant pas en considération les éléments, par conséquent il est possible de produire des éléments invalides et de mauvaise qualité. Cette thèse présente une méthode de réparation des éléments après application d'un recalage élastique.<br /><br />Les méthodes de recalage élastique peuvent être limitées lorsque, pour une région spécifique du domaine modélisé, une discrétisation plus fine est requise alors qu'elle ne figure pas dans le maillage atlas. Par exemple dans le domaine de la neurochirurgie, un maillage d'une densité plus importante peut être nécessaire dans la région de la voie d'abord, entre la craniotomie et la tumeur car dans cette région d'intérêt une précision accrue de la simulation est requise. Nous proposons dans cette thèse une méthode de génération de maillage comportant un raffinement local. Cette méthode est appliquée à la neurochirurgie.
69

Approche multi-agents d'un système d'aide à la décision en environnement dynamique et incertain. Application à l'entomologie médico-légale

Morvan, Gildas 25 November 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur le thème de la modélisation et de l'aide à la décision dans le cadre des systèmes complexes. Plus précisément, nous nous intéressons au couplage de simulations orientées agent à une méthode de résolution de problèmes inverses. Une architecture générique de système d'aide à la décision est ainsi proposée. Ces travaux sont appliqués à la conception d'un système d'aide à la décision dédié à l'entomologie médico-légale. Cette discipline à mi-chemin entre la criminalistique et l'entomologie vise à concevoir des méthodes de datation de la mort basées sur des indices entomologiques, i.e., les insectes (principalement des diptères nécrophages) ou restes d'insectes retrouvés sur ou à proximité du corps. Ainsi, dans le cadre de ce travail réalisé en collaboration avec le laboratoire d'entomologie médico-légale de l'Institut de Médecine Légale de Lille, nous présentons : * un modèle à base d'agents permettant de simuler le développement des diptères nécrophages dans un environnement complexe (e.g., un corps situé dans un écosystème donné), en prenant en compte plus de paramètres que les méthodes classiques, * une implémentation de l'architecture de système d'aide à la décision évoquée plus haut, basée sur ce modèle.
70

Chirurgie de l'exophtalmie dysthyroïdienne : planning et assistance au geste

Luboz, Vincent 19 December 2003 (has links) (PDF)
Cette thèse propose une étude du comportement des tissus mous intra-orbitaires dans le cadre du traitement des exophtalmies, caractérisées par une protrusion du globe oculaire. La partie chirurgicale de ce traitement consiste en une décompression de l'orbite par le biais d'une ostéotomie des parois orbitaires pour réduire la protrusion du globe. Nos travaux visent à prédire les relations entre le volume des tissus décompressés, la surface d'ostéotomie et le recul oculaire résultant pour apporter une aide au planning chirurgical. Pour cela, deux modèles ont été développés. Le premier est un modèle analytique simple de l'orbite assimilant les parois orbitaires à un cône et le globe à une sphère. Il permet de déterminer de façon satisfaisante le volume décompressé en fonction du recul souhaité. Le deuxième est un modèle biomécanique des tissus mous intra-orbitaires et de leurs interactions avec les parois osseuses et le globe. Il s'agit d'un maillage Eléments Finis utilisant un matériau poroélastique et prenant en compte la morphologie de l'orbite du patient, les propriétés mécaniques des tissus mous. Il permet de quantifier le recul oculaire et le volume de tissus décompressés en fonction de l'effort (ou du déplacement) imposé par le chirurgien et de l'ostéotomie (surface et position). Ses résultats sont relativement intéressants et permettent d'évaluer le comportement des tissus intra-orbitaires. La méthode de génération automatique de maillage éléments finis, développée dans cette thèse, a permis d'effectuer différentes simulations d'ostéotomies et de conclure que la morphologie de l'orbite patient a un impact sur le recul et le volume décompressé et que l'influence de la surface d'ostéotomie est modérée. Une analyse rhéologique des tissus mous orbitaires a été effectuée. Les tests in vitro ont permis de poser les bases de futures mesures. Les tests in vivo, réalisés avec un capteur ad hoc, ont déterminé la raideur des tissus mous. Bien que les modèles présentés dans cette thèse ne soient pas encore utilisables dans le cadre d'un planning chirurgical, ils fournissent des résultats satisfaisants et une bonne estimation des phénomènes observés lors d'une décompression orbitaire.

Page generated in 0.1521 seconds