• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Transport optimal semi-discret et applications en optique anidolique / Semi-discrete optimal transport and applications in non-imaging optics

Meyron, Jocelyn 16 October 2018 (has links)
Dans cette thèse, nous nous intéressons à la résolution de nombreux problèmes d’optique anidolique. Plus précisément, il s’agit de construire des composants optiques qui satisfont des contraintes d’illumination à savoir que l’on veut que la lumière réfléchie(ou réfractée) par ce composant corresponde à une distribution fixée en avance. Comme applications, nous pouvons citer la conception de phares de voitures ou de caustiques. Nous montrons que ces problèmes de conception de composants optiques peuvent être vus comme des problèmes de transport optimal et nous expliquons en quoi cette formulation permet d’étudier l’existence et la régularité des solutions. Nous montrons aussi comment, en utilisant des outils de géométrie algorithmique, nous pouvons utiliser une méthode numérique efficace, la méthode de Newton amortie, pour résoudre tous ces problèmes. Nous obtenons un algorithme générique capable de construire efficacement un composant optique qui réfléchit (ou réfracte)une distribution de lumière prescrite. Nous montrons aussi la convergence de l’algorithme de Newton pour résoudre le problème de transport optimal dans le cas où le support de la mesure source est une union finie de simplexes. Nous décrivons également la relation commune qui existe entre huit différents problèmes de conception de composants optiques et montrons qu’ils peuvent tous être vus comme des équations de Monge-Ampère discrètes. Nous appliquons aussi la méthode de Newton à de nombreux problèmes de conception de composants optiques sur différents exemples simulés ainsi que sur des prototypes physiques. Enfin, nous nous intéressons à un problème apparaissant en transport optimal numérique à savoir le choix du point initial. Nous développons trois méthodes simples pour trouver de “bons” points initiaux qui peuvent être ensuite utilisés comme point de départ dans des algorithmes de résolution de transport optimal. / In this thesis, we are interested in solving many inverse problems arising inoptics. More precisely, we are interested in designing optical components such as mirrors andlenses that satisfy some light conservation constraints meaning that we want to control thereflected (or refracted) light in order match a prescribed intensity. This has applications incar headlight design or caustic design for example. We show that optical component designproblems can be recast as optimal transport ones for different cost functions and we explainhow this allows to study the existence and the regularity of the solutions of such problems. Wealso show how, using computational geometry, we can use an efficient numerical method namelythe damped Newton’s algorithm to solve all these problems. We will end up with a singlegeneric algorithm able to efficiently build an optical component with a prescribed reflected(or refracted) illumination. We show the convergence of the Newton’s algorithm to solve theoptimal transport problem when the source measure is supported on a finite union of simplices.We then describe the common relation between eight optical component design problemsand show that they can all be seen as discrete Monge-Ampère equations. We also apply theNewton’s method to optical component design and show numerous simulated and fabricatedexamples. Finally, we look at a problem arising in computational optimal transport namelythe choice of the initial weights. We develop three simple procedures to find “good” initialweights which can be used as a starting point in computational optimal transport algorithms.
322

Estimation de sources corticales : du montage laplacian aux solutions parcimonieuses / Cortical source imaging : from the laplacian montage to sparse inverse solutions

Korats, Gundars 26 February 2016 (has links)
L’imagerie de source corticale joue un rôle important pour la compréhension fonctionnelle ou pathologique du cerveau. Elle permet d'estimer l'activation de certaines zones corticales en réponse à un stimulus cognitif donné et elle est également utile pour identifier la localisation des activités pathologiques, qui sont les premières étapes de l'étude des activations de réseaux neuronaux sous-jacents. Diverses méthodes d'investigation clinique peuvent être utilisées, des modalités d'imagerie (TEP, IRM) et magnéto-électroencéphalographie (EEG, SEEG, MEG). Nous souhaitions résoudre le problème à partir de données non invasives : les mesures de l'EEG de scalp, elle procure une résolution temporelle à la hauteur des processus étudiés Cependant, la localisation des sources activées à partir d'enregistrements EEG reste une tâche extrêmement difficile en raison de la faible résolution spatiale. Pour ces raisons, nous avons restreint les objectifs de cette thèse à la reconstruction de cartes d’activation des sources corticales de surface. Différentes approches ont été explorées. Les méthodes les plus simples d'imagerie corticales sont basées uniquement sur les caractéristiques géométriques de la tête. La charge de calcul est considérablement réduite et les modèles utilisés sont faciles à mettre en œuvre. Toutefois, ces approches ne fournissent pas d'informations précises sur les générateurs neuronaux et sur leurs propriétés spatiotemporelles. Pour surmonter ces limitations, des techniques plus sophistiquées peuvent être utilisées pour construire un modèle de propagation réaliste, et donc d'atteindre une meilleure reconstruction de sources. Cependant, le problème inverse est sévèrement mal posé, et les contraintes doivent être imposées pour réduire l'espace des solutions. En l'absence de modèle bioanatomique, les méthodes développées sont fondées sur des considérations géométriques de la tête ainsi que la propagation physiologique des sources. Les opérateurs matriciels de rang plein sont appliqués sur les données, de manière similaire à celle effectuée par les méthodes de surface laplacien, et sont basés sur l'hypothèse que les données de surface peuvent être expliquées par un mélange de fonctions de bases radiales linéaires produites par les sources sous-jacentes. Dans la deuxième partie de ces travaux, nous détendons la contrainte-de rang plein en adoptant un modèle de dipôles distribués sur la surface corticale. L'inversion est alors contrainte par une hypothèse de parcimonie, basée sur l'hypothèse physiologique que seuls quelques sources corticales sont simultanément actives ce qui est particulièrement valable dans le contexte des sources d'épilepsie ou dans le cas de tâches cognitives. Pour appliquer cette régularisation, nous considérons simultanément les deux domaines spatiaux et temporels. Nous proposons deux dictionnaires combinés d’atomes spatio-temporels, le premier basé sur une analyse en composantes principales des données, la seconde à l'aide d'une décomposition en ondelettes, plus robuste vis-à-vis du bruit et bien adaptée à la nature non-stationnaire de ces données électrophysiologiques. Toutes les méthodes proposées ont été testées sur des données simulées et comparées aux approches classiques de la littérature. Les performances obtenues sont satisfaisantes et montrent une bonne robustesse vis-à-vis du bruit. Nous avons également validé notre approche sur des données réelles telles que des pointes intercritiques de patients épileptiques expertisées par les neurologues de l'hôpital universitaire de Nancy affiliées au projet. Les localisations estimées sont validées par l'identification de la zone épileptogène obtenue par l'exploration intracérébrale à partir de mesures stéréo EEG. / Cortical Source Imaging plays an important role for understanding the functional and pathological brain mechanisms. It links the activation of certain cortical areas in response to a given cognitive stimulus, and allows one to study the co-activation of the underlying functional networks. Among the available acquisition modality, electroencephalographic measurements (EEG) have the great advantage of providing a time resolution of the order of the millisecond, at the scale of the dynamic of the studied process, while being a non-invasive technique often used in clinical routine. However the identification of the activated sources from EEG recordings remains an extremely difficult task because of the low spatial resolution this modality provides, of the strong filtering effect of the cranial bones and errors inherent to the used propagation model. In this work different approaches for the estimation of cortical activity from surface EEG have been explored. The simplest cortical imaging methods are based only on the geometrical characteristics of the head. The computational load is greatly reduced and the used models are easy to implement. However, such approaches do not provide accurate information about the neural generators and on their spatiotemporal properties. To overcome such limitations, more sophisticated techniques can be used to build a realistic propagation model, and thus to reach better source reconstruction by its inversion. However, such inversion problem is severely ill-posed, and constraints have to be imposed to reduce the solution space. We began by reconsidering the cortical source imaging problem by relying mostly on the observations provided by the EEG measurements, when no anatomical modeling is available. The developed methods are based on simple but universal considerations about the head geometry as well as the physiological propagation of the sources. Full-rank matrix operators are applied on the data, similarly as done by Surface Laplacian methods, and are based on the assumption that the surface can be explained by a mixture of linear radial basis functions produced by the underlying sources. In the second part of the thesis, we relax the full-rank constraint by adopting a distributed dipole model constellating the cortical surface. The inversion is constrained by an hypothesis of sparsity, based on the physiological assumption that only a few cortical sources are active simultaneously Such hypothesis is particularly valid in the context of epileptic sources or in the case of cognitive tasks. To apply this regularization, we consider simultaneously both spatial and temporal domains. We propose two combined dictionaries of spatio-temporal atoms, the first based on a principal components analysis of the data, the second using a wavelet decomposition, more robust to noise and well suited to the non-stationary nature of these electrophysiological data. All of the proposed methods have been tested on simulated data and compared to conventional approaches of the literature. The obtained performances are satisfactory and show good robustness to the addition of noise. We have also validated our approach on real epileptic data provided by neurologists of the University Hospital of Nancy affiliated to the project. The estimated locations are consistent with the epileptogenic zone identification obtained by intracerebral exploration based on Stereo-EEG measurements.
323

Optimisation et intégration de la mobilité partagée dans les systèmes de transport multimodaux / Optimization and integration of shared mobility in multimodal transport systems

Aissat, Kamel 04 April 2016 (has links)
Le besoin de se déplacer est un besoin fondamental dans la vie de tous les jours. Avec l’extension continue des zones urbaines, l’augmentation de la population et l’amélioration du niveau de vie des citoyens, le nombre de voitures ne cesse d’augmenter. Ceci étant, la plupart des transports publics proposés aujourd’hui obéissent à des règles qui manquent de souplesse et qui incluent rarement le caractère dynamique, en temps et en espace, de la demande. Cela réduit ainsi l’attractivité de ces services et les rendant même parfois difficilement supportables. De ce fait, la majorité des usagers utilisent encore leur propre véhicule. Ce grand nombre de véhicules, qui est en augmentation continue sur les réseaux routiers, provoque de nombreux phénomènes de congestion induisant une surconsommation de carburant, des émissions inutiles de gaz à effet de serre et une perte de temps importante. Pour y remédier, nous proposons dans cette thèse de nouveaux systèmes de déplacement des usagers avec différents modèles d’optimisation pour la mobilité partagée (covoiturage et taxis-partagés) ainsi que la combinaison de la mobilité partagée avec les transports publics. Les expérimentations sont réalisées sur de vrais réseaux routiers ainsi que sur des données réelles. Ces nouveaux systèmes améliorent considérablement la qualité de service des systèmes classiques existants en termes de coût et de flexibilité tout en ayant un temps de calcul raisonnable. / The travelling is a fundamental part of everyday life. The continuous expansion of urban areas combined with the population increasing and the improvement of life standards increases the need of mobility and the use of private cars. Furthermore, the majority of public transportations are subject to rules lacking of flexibility and rarely taking into account the dynamic context. The attractiveness of public transportation is therefore reduced and, as a consequence, its financial support, resulting in a further deterioration of the public services quality and flexibility. Therefore, the majority of users still use their own vehicles. The number of vehicles is continuously increasing on road networks causing important phenomena of congestion, high fuel consumption and emissions of greenhouse gases, time loss. This unpleasant situation forces communities to consider alternative solutions for the mobility such as ride-sharing, an interesting alternative to solo car use. The overall objective of this thesis is to propose new travel systems for users through the introduction of optimization models for shared mobility (ride-sharing and taxi-sharing) and the combination of shared mobility and public transportation. The computational experiments are carried out on real road networks and real data. Our numerical results show the effectiveness of our approach, which improves the quality of service compared to the traditional systems in terms of cost and flexibility. The running time remains reasonable to allow using our framework in real-time transportation applications.
324

Les chemins multiples de la coopération transfrontalière franco-belge : analyse des dynamiques institutionnelles. / The different paths of French-Belgian cross-broder cooperation : analysis of institutional process

Verger, Solange 16 February 2011 (has links)
La recherche doctorale porte sur le développement de la coopération transfrontalière entre collectivités territoriales de part et d'autre de la frontière franco-belge autour des villes de Lille, Tournai et Kortrijk. Au-delà d'une interrogation sur les facteurs externes et les usages politiques de ce nouveau domaine d'action publique, cette monographie étudie le processus de construction institutionnelle à l'œuvre au sein de cet espace émergent de coopération de la fin des années 1980 à 2010. Cela passe tout d'abord par l'analyse des mécanismes de légitimation, en particulier la construction de la question transfrontalière franco-belge en tant que problème légitime d'action publique ainsi que la « fonctionnalisation » de la COPIT (Conférence permanente intercommunale transfrontalière), une des principales organisations transfrontalières franco-belges de la zone étudiée. Les approches en termes de néo-institutionnalisme historique et les travaux relatifs à l'analyse des organisations permettent ensuite d'aborder l'institutionnalisation de la coopération transfrontalière sous l'angle de la production normative et de s'interroger sur la stabilisation dans le temps des règles produites. Le regard porte alors essentiellement sur la COPIT, qui devient en 2008 l'« Eurométropole Lille-Kortrijk-Tournai », ainsi que sur les rapports de force entre les différents acteurs qui la composent, ce qui permet d'identifier les règles et valeurs partagées par ces acteurs et de comprendre leur construction à travers les représentations et les pratiques récurrentes des acteurs. Les mécanismes d'auto-renforcement des règles dans le cadre de l'organisation intercommunale transfrontalière apparaissant toutefois relativement faibles, l'analyse s'oriente finalement vers la mise en évidence d'ordres institutionnels à la fois concurrents et complémentaires à celui de la COPIT/Eurométropole : il s'agit de l'ordre institutionnel encadré par le dispositif européen INTERREG A et de la nébuleuse institutionnelle développée dans le cadre de diverses actions sectorielles. Au final, cette thèse montre la pluralité des logiques institutionnelles qui guident et caractérisent la coopération transfrontalière franco-belge ; autrement dit, la coexistence d'ordres institutionnels multiples pour un même phénomène. / L'auteur n'a pas fourni de résumé.
325

Etude de la démarche expérimentale dans les situations de recherche pour la classe / Study on the experimental approach in Research Situation for the Classroom.

Giroud, Nicolas 28 October 2011 (has links)
La recherche que nous avons menée s'inscrit dans les projets de l'équipe de recherche Maths à Modeler. En particulier dans celui portant sur les situations de recherche en classe (Grenier et Payan, 2002 ; Ouvrier-Buffet, 2003 ; Godot, 2005 ; Cartier, 2008). Cette étude est centrée sur la démarche de recherche en mathématiques et plus particulièrement sur le rôle de l'expérimental. Un des postulats fondateur de notre recherche est que savoir faire des mathématiques, c'est savoir résoudre partiellement des problèmes de recherche, la résolution de tels problèmes nécessitant de passer par des phases expérimentales. Notre problématique porte donc sur la transmission aux élèves du savoir-faire « démarche expérimentale en mathématiques » et sur le rôle que celui-ci joue dans la résolution de problèmes de recherche. Considérant que ce savoir-faire ne peut s'apprendre qu'à travers sa pratique en situation de résolution de problèmes, l'objectif de notre recherche a été la détermination de conditions épistémologiques et didactiques favorisant la mise en pratique de la « démarche expérimentale ». En plus de la construction d'un modèle de situation pour la « démarche expérimentale », nous avons construit, analysé et expérimenté des situations se référant à ce modèle. Pour mener à bien notre étude, nous avons utilisé le modèle de situation de recherche pour la classe (Grenier et Payan, 2002 ; Godot, 2005), ainsi que des éléments de la théorie des situtions didactiques de Brousseau (1998), en particulier validation a-didactique, contrat didactique et milieu. Nous avons aussi défini un modèle de « démarche expérimentale en mathématiques » qui a servi de référant à notre recherche. Après avoir observé que la « démarche expérimentale en mathématiques », telle que nous l'entendons, n'est pas proposée par l'institution scolaire, les expérimentations et les analyses, que nous avons menées, ont montré que, dans une certaine mesure, il est possible de la faire pratiquer à des élèves. De plus, cette pratique a permis aux élèves de progresser dans la résolution grâce à un enrichissement des conceptions qu'ils portaient sur le problème à résoudre. Ces expérimentations nous ont aussi permis d'affiner les situations que nous avons construites. / This research fits into the projects of the Maths à Modeler research team, especially in the one about Research Situation for the Classroom (Grenier and Payan, 2002 ; Ouvrier-Buffet, 2003 ; Godot, 2005 ; Cartier, 2008). One of our founding postulate is that knowing how to do mathematics is knowing how to solve partially reserch problems, the solving of such problems requiring experimental phases. Our problematic is about the teaching of the knowledge "experimental approach in mathematics" and the role that this knowledge plays in solving research problems. As we consider that this knowledge can only be learned by its practise, the aim of our research is the identification of epistemological and didactical conditions favouring the practise of the experimental approach in mathematics. Along with the building of a model of "situations" for the experimental approach, we built, analysed and experimented situations which refer to the model. We used the model of Research Situation for the Classroom (Grenier and Payan, 2002 ; Godot, 2005) and elements of the theory of didactical situation (Brousseau, 1998), especially a-didactical validation, didactical contract and "milieu". We have also defined a model of "experimental approach in mathematics" which was used as a "guide" of our research. After observing that "the experimental approach in mathematics", as we defined it, is not proposed by schools, experimentations and analyses showed that, in a certain way, students can do experimental approach in mathematics. Moreover, this practise let students progress in finding solutions thanks to the improvement of their conceptions about the problem. These experimentations also let us refined the situations that we have built.
326

Approche inverse pour l’identification des propriétés viscoélastiques de structures sandwichs amorties / Inverse approach for the identification of the mechanical properties of viscoelastic damped sandwich structures

Ledi, Koffi Sénanou 12 October 2018 (has links)
Dans ce travail de thèse, une méthode d’identification inverse des propriétés mécaniques du matériau viscoélastique (module de cisaillement et facteur de perte) fonctionnalisé dans une structure sandwich à trois couches symétriques est proposée. L’objectif de ce travail est de pouvoir identifier les propriétés mécaniques in situ. A travers un modèle éléments finis basé sur le modèle Zig-Zag de Rao, notre modèle assure la détermination des paramètres modaux de la poutre sandwich. L'approche inverse consiste en une procédure itérative qui détermine les formes de mode étant donné les paramètres matériaux puis calcule les propriétés viscoélastiques à partir des modes en utilisant un quotient de Rayleigh jusqu'à ce que la convergence sur les propriétés du matériau soit satisfaite. Les paramètres d’entrée du modèle inverse sont les fréquences de résonance et facteurs de perte de la poutre sandwich obtenues expérimentalement. En conséquence, la dépendance en fréquence des propriétés du matériau viscoélastique de la poutre sandwich est déterminée par une démarche automatisée. La méthode a été comparée avec succès aux formules de Ross-Kerwin-Ungar ; à une approche d'optimisation standard et à la littérature. A partir des résultats, nous avons pu déduire les lois de comportement du cœur viscoélastique suivant des modèles rhéologique tels que le modèle de Maxwell généralisé, d’ADF, de GHM et du Zéner fractionnaire. Ce dispositif expérimental couplé à la méthode d’indentification a permis l’investigation des paramètres modaux de la poutre à différentes températures pour étudier l’effet de la température sur les lois rhéologiques. Pour étudier la robustesse de notre méthode, nous avons procédé des essais de reproductibilité, de reproductibilité sur une population d’échantillon. L’efficacité de notre méthode étant été prouvée, une étude de sensibilité a été menée sur les caractéristiques géométriques de notre structure et les paramètres d’entrée. Les résultats obtenus montrent le fort impact de certains paramètres sur l’identification / In this work, a inverse identification method of the mechanical properties of the viscoelastic material (shear modulus and loss factor) functionalized in a sandwich structure with three symmetrical layers is proposed. The objective of this work is to be able to identify the mechanical properties in situ. Through a finite element model based on Rao's Zig-Zag model, our model ensures the modal parameter determination of the sandwich beam. The inverse approach consists of an iterative procedure that determines the mode shapes given the material parameters and then calculates the viscoelastic properties from the modes using a Rayleigh quotient until convergence on the properties of the material is satisfied. The input parameters of the inverse model are the resonance frequencies and loss factors of the sandwich beam obtained experimentally. As a result, the frequency dependence of the viscoelastic properties of the sandwich beam is determined by an automated way. The method has been successfully compared to Ross-Kerwin-Ungar formulas; a standard optimization approach and the literature. From the results, we have been able to deduce the constitutive laws of the viscoelastic heart according to rheological models such as the generalized Maxwell model, ADF, GHM and fractional Zener. This experimental device coupled to the method of identification allowed the investigation of modal parameters of the beam at different temperatures to study the effect of the temperature on the rheological laws. To study the robustness of our method, we carried out tests repeatability, reproducibility on a sample population. Since the effectiveness of our method has been proven, a sensitivity study has been carried out on the geometrical characteristics of our structure and the input parameters. The results obtained show the strong impact of certain parameters on identification
327

Modélisation de la rupture d'un milieu fragile soumis à l'injection d'un fluide visqueux : Analyse de la singularité en pression et du décollement en pointe de fissure / Modeling of cracks in a brittle medium under a viscous fluid load : Analysis of the pressure singularity and fluid lag near the crack tip

Cordova Hinojosa, Rogers Bill 12 November 2018 (has links)
La propagation d'une fissure chargée par un écoulement de fluide visqueux est un phénomène complexe où la compréhension des phénomènes mécaniques mis en jeu en pointe de fissures reste encore partielle. C'est le cas de la zone de décollement entre le solide et le fluide qui apparaît pour un certain choix de débit d'injection, de viscosité du fluide et de ténacité du matériau. Cette thèse propose une modélisation simplifiée de ce problème d'interaction fortement couplé. Dans un premier chapitre, on étudie un modèle simplifié unidimensionnel de film élastique collé sur un substrat rigide et on considère une injection de fluide visqueux entre le film et le substrat. On suppose que la propagation de la fissure est régie par la loi de Griffith. On néglige l'existence du retard possible entre le fluide et le solide et on choisit une loi de comportement non-linéaire pour le fluide visqueux. A partir d'une analyse asymptotique pour une faible viscosité, on établit une solution approchée du problème. On montre que le champ pression est singulier en pointe de fissure et on montre l'influence du débit d'injection sur la cinétique du trajet de fissuration. Dans le deuxième chapitre on propose de prendre en compte l'existence de la zone de décollement en modifiant la formulation du modèle et en le réécrivant sous la forme d'un problème d'optimisation en temps discret où les zones de décollement font partie des inconnues du problème. On valide la formulation proposée sur l'exemple analytique de l'écrasement d'une goutte par une barre rigide. On montre ensuite que cette formulation et l'algorithme lié à son implémentation sont capables de gérer l'évolution de l'écrasement de plusieurs gouttes de forme quelconque en capturant correctement les phase d'étalement des gouttes ainsi que de leur coalescence. On étend ensuite cette formulation au cas de l'écrasement d'une goutte par un film élastique. Dans le dernier chapitre, on examine la validité de l'hypothèse de lubrification utilisée en fracturation hydraulique. A l'aide de la méthode de développement asymptotique, on construit une équation de Reynolds régularisée avec des termes de gradient supérieur tenant compte de la variation spatiale de la hauteur des parois. On compare alors le comportement des champs de pression donnés par les équations de Reynolds classique et régularisée sur des exemples d'écoulement entre des conduits de formes multiples. / The crack evolution under a viscous fluid action is a complex phenomenon where the understanding of the mechanical phenomena near the crack tip is still largely limited. This is the case for the lag between the solid and the fluid front propagation which appears for some configurations of injection rate, fluid viscosity and material toughness. This thesis proposes a simplified model for this strongly coupled interaction problem.The first chapter studies a simplified one-dimensional model of a elastic film bonded to a rigid substrate. We consider a viscous fluid injection between the film and the substrate. The crack propagation is assumed to follow the Griffith's law. The existence of the lag is neglected and a non-linear behavior law is chosen for the viscous fluid. Using an asymptotic analysis, an approximate solution is established for the low viscosity case. It is shown that the pressure field diverges at the crack tip and that the kinetics of the crack is influenced by the injection rate. The second chapter proposes to take into account the existence of the lag by modifying the model formulation and rewriting it as a discrete time optimisation problem where the delamination zones are part of the unknowns of the problem. This formulation is validated for the analytical example of a drop crushed by a rigid bar. It is shown that this formulation and its implementation can manage the evolution of several drops of any shape and correctly captures the drops spreading and coalescence. This formulation is then extended to the case of a drop crushed by an elastic film. In the last chapter, the validity of the lubrication hypothesis is examinated. Using an asymptotic analysis, a regularized Reynolds equation is constructed with higher gradient terms taking into account the spatial variation of the walls height. A comparison between the pressure fields behaviour given by the classical and the regularized Reynolds equation is shown for different conducts.
328

Stationnarité forte sur des graphes discrets ou quantiques / Strong stationnarity on discrete or quantum graphs

Copros, Guillaume 19 July 2018 (has links)
Dans cette thèse, on s'intéresse à la notion de temps fort de stationnarité et à celle, étroitement liée, de dual de stationnarité forte. Ces outils permettent d'étu- dier la convergence de processus ergodiques, en déterminant un instant aléatoire où l'équilibre est atteint. Les espaces d'état des processus considérés ici sont des graphes continus ou discrets. Dans la première partie, on considère le cas discret, et on dégage une condition nécessaire et suffisante à l'existence, pour n'importe quelle loi initiale, d'un temps fort de stationnarité fini. Pour cela, on construit explicitement un dual de station- narité forte, à valeurs dans l'ensemble des parties connexes du graphe, qui évolue à chaque étape en ajoutant ou en enlevant des points de sa frontière. Lorsque cette opération sépare l'ensemble dual en plusieurs parties, afin de ne pas le déconnecter, une de ces parties est choisie au hasard, avec une probabilité proportionnelle à son poids par la mesure invariante. On s'intéresse également au comportement général d'un processus dual, et on donne quelques exemples différents de celui construit précédemment. Dans la deuxième partie, on traite le cas continu, et le processus étudié est alors une diffusion. On caractérise notamment sa mesure invariante, et on explicite un générateur infinitésimal qui devrait être celui d'un processus dual. Néanmoins, ce cas s'avère plus compliqué que le cas discret. Le processus dual n'est donc construit que pour un mouvement brownien sur un graphe particulier, comme l'unique so- lution d'un problème de martingale. Des pistes sont présentées pour traiter des diffusions sur des graphes plus généraux, notamment en utilisant la convergence d'une suite de processus de saut tels que ceux présentés dans la première partie. / In this thesis, we are interested in the notion of strong stationary time, and in that, strongly connected, of strong stationary dual. These tools allow to study the convergence of ergodic processes, by determining a random time when the equilibrium is reached. The state space of the considered processes are discrete or continuous graphs. In the first part, we consider the discrete case, and we explicit a necessary and sufficient condition to the existence, for any initial distribution, of a finite strong stationary time. To do so, we construct explicitly a strong stationary dual, with values in the set of connected subsets of the graph, which evolves at each step by adding or removing some points at its border. Whenever this operation separates the dual set in several parts, in order not to disconnect it, one of these parts is chosen randomly, with a probability proportionnal to its weight relative to the invariant distribution. We also study the general behaviour of any dual process,2 and we give some other examples. In the second part, we deal with the continuous case, and the studied process is then a diffuion. We caracterize its invariant distribution, and we explicit an infinitesimal generator, which is expected to be that of a dual process. Nevertheless, this case turns out to be a little more involved that the discrete one. The dual process is thus constructed only for a brownian motion on a particular graph, as the unique solution of a martingale problem. Some leads are given to solve the case of diffusions on more general graphs, especially by using the convergence of a sequence of jump processes such as those presented in the first part.
329

Régularisation du problème inverse MEG par IRM de diffusion / MEG inverse problem regularization via diffusion MRI

Philippe, Anne-Charlotte 19 December 2013 (has links)
La magnéto-encéphalographie (MEG) mesure l´activité cérébrale avec un excellent décours temporel mais sa localisation sur la surface corticale souffre d´une mauvaise résolution spatiale. Le problème inverse MEG est dit mal-posé et doit de ce fait être régularisé. La parcellisation du cortex en régions de spécificité fonctionnelle proche constitue une régularisation spatiale pertinente du problème inverse MEG. Nous proposons une méthode de parcellisation du cortex entier à partir de la connectivité anatomique cartographiée par imagerie de diffusion. Au sein de chaque aire d´une préparcellisation, la matrice de corrélation entre les profils de connectivité des sources est partitionnée. La parcellisation obtenue est alors mise à jour en testant la similarité des données de diffusion de part et d´autre des frontières de la préparcellisation. C´est à partir de ce résultat que nous contraignons spatialement le problème inverse MEG. Dans ce contexte, deux méthodes sont développées. La première consiste à partitionner l´espace des sources au regard de la parcellisation. L´activité corticale est alors obtenue sur un ensemble de parcelles. Afin de ne pas forcer les sources à avoir exactement la même intensité au sein d´une parcelle, nous développons une méthode alternative introduisant un nouveau terme de régularisation qui, lorsqu´il est minimisé, tend à ce que les sources d´une même parcelle aient des valeurs de reconstruction proches. Nos méthodes de reconstruction sont testées et validées sur des données simulées et réelles. Une application clinique dans le cadre du traitement de données de sujets épileptiques est également réalisée. / Magnetoencephalography (MEG) is a functional non-invasive modality which provides information on the temporal succession of cognitive processes with an excellent time resolution. Unfortunately, spatial resolution is limited due to the ill-posed nature of the MEG inverse problem for estimating source currents from the electromagnetic measurement. Cortex parcellation into regions sharing functional features constitutes a relevant spatial regularization. We propose a whole cortex parcellation method based on the anatomical connectivity mapped by diffusion MRI. Inside areas of a preparcellation, the correlation matrix between connectivity profiles is clustered. The cortex parcellation is then updated testing the similarity of diffusion data on both sides of pre-parcellation boundaries. MEG inverse problem is constrained from this result. Two methods have been developed. The first one is based on the subdivision of source space regarding the parcellation. The cortical activity is obtained on a set of parcels and its analysis is simplified. Not to force sources to have exactly the same value inside a cortical area, we develop an alternative method. We introduce a new regularization term in the MEG inverse problem which constrain sources in a same region to have close values. Our methods are applied on simulated and real subjects. Clinical application is also performed on epileptic data. Each contribution takes part of a pipeline whose each step is detailed to make our works reproducible.
330

Multiscale investigation of the elastic properties of human cortical bone measured by resonant ultrasound spectroscopy / Etude multi-échelle des propriétés élastiques de l'os cortical humain mesurée par spectroscopie par ultrasons résonants

Cai, Xiran 19 June 2018 (has links)
L’os présente la propriété remarquable de s’adapter à son environnement et s’est forgé au cours de l’évolution des caractéristiques exceptionnelles qui fascinent les scientifiques mais aussi les ingénieurs : léger mais d’une rigidité à toute épreuve, une capacité de résistance à la fracture hors norme tout en gardant une certaine flexibilité. Ces propriétés mécaniques de l’os sont l’œuvre d’une optimisation de sa composition et d’une structure fortement hiérarchisée et organisée en multiples niveaux allant de l'échelle nanométrique à l'échelle macroscopique. L’amélioration de la prise en charge des maladies osseuses, l’optimisation des implants orthopédiques et la conception de nouveaux matériaux bio-inspirés passent par une connaissance approfondie des multiples facteurs qui déterminent les propriétés mécaniques de l’os. Dans ce travail, nous mettons l’accent sur les propriétés élastiques de l'os cortical humain à la fois aux échelles millimétrique et micrométrique. Nous avons caractérisé l’élasticité (à l’échelle mésoscopique), la composition et la microstructure de l’os cortical, à partir d’échantillons de fémur, tibia et radius prélevés sur des donneurs âgés, à l’aide d’une batterie de tests expérimentaux comportant des mesures en résonance ultrasonore spectroscopique, micro-tomographie par rayonnement synchrotron, microscopie infrarouge à transformée de Fourier et analyse biochimique. Ces mesures mettent à jour le rôle prépondérant joué par la porosité et le degré de minéralisation dans la détermination de l’élasticité et suffisent à eux seuls à en expliquer les variations. En particulier, les caractéristiques de la microstructure, comme la forme des pores, leur nombre, taille ou connectivité ne semblent pas avoir d’effets mesurables sur l’élasticité à l’échelle mésoscopique. Dans un second temps, une nouvelle approche d’homogénéisation inverse introduite dans cette thèse a permis l’estimation du tenseur des coefficients élastiques de la matrice osseuse à l’échelle microscopique. Connaissant l’élasticité de la matrice, nous avons évalué la gamme des microdéformations qui se produisent localement en réponse à des contraintes physiologiques. Les microdéformations étant à l’origine des signaux qui déclenchent la réponse des cellules mécanosensibles, ce dernier résultat devrait contribuer à une meilleure compréhension du comportement mécanique osseux au niveau microscopique. En conclusion, ce travail de thèse a permis l’obtention d’une base de données unique sur les caractéristiques élastiques de l’os cortical humain et la caractérisation des relations qui existent entre l’élasticité, la microstructure et la composition. / Bone as an important organ in human body is an extraordinary material which exhibits highly optimized properties, strong yet light weight, stiff yet flexible. Its distinct mechanical properties which fascinates not only scientists but also engineers are the results of the highly hierarchized and organized structure and the compositional properties spanning over several lengths from the nanoscale to the macroscale. Hence, a deep understanding of the parameters affecting bone mechanical behavior is necessary to better predict and treat bone diseases, improve orthopedic implants design, and engineer bio-inspired materials. In this work, a special focus is placed on human cortical bone elastic properties both at the millimeter and micrometer scales. Based on a multimodal approach (resonant ultrasound spectroscopy, synchrotron radiation micro-computed tomography, Fourier transform infrared microspectroscopy and biochemistry experiments) involving an exhaustive amount of microstructural and compositional properties, our results provide strong evidence that intra-cortical porosity and degree of mineralization are the most important determinants of bone stiffness at millimeter scale in an elderly population. Further, the other microstructure characteristics independent of porosity have non measurable effects on bone stiffness at this level. At the micrometer scale, a novel inverse homogenization approach is introduced in this work which can evaluate bone matrix anisotropic elastic properties with a good accuracy for all the stiffness constants. Based on the determined bone matrix elasticity data, we investigated the possible range of the magnitude of microstrain experienced by bone matrix. This work opens a way to better evaluate and understand bone mechanical behaviour at the micrometer level, such as the microstrain that can be sensed by osteocytes and builds the bridge to comprehensively investigate the connections between bone anisotropic properties at the millimeter and micrometer scale, and between the anisotropic microelastic properties and the characteristics at the nanometer scale.

Page generated in 0.0583 seconds