• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 187
  • 58
  • 28
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 282
  • 127
  • 100
  • 72
  • 60
  • 43
  • 42
  • 37
  • 35
  • 32
  • 28
  • 26
  • 25
  • 25
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Modélisation et détection de ruptures des signaux physiologiques issus de compétitions d'endurance

Kammoun, Imen 19 December 2007 (has links) (PDF)
Ce travail de thèse porte sur la modélisation et l'estimation de paramètres pertinents pour les signaux de fréquences cardiaques (FC) instantanées. Nous nous intéressons à un paramètre (appelé grossièrement "fractal"), qui témoigne de la régularité locale de la trajectoire et de la dépendance entre les données. Les propriétés asymptotiques de la fonction DFA (Detrended Fluctuation Analysis) et de l'estimateur de H sont étudiées pour le bruit gaussien fractionnaire (FGN) et plus généralement pour une classe semi-paramétrique de processus stationnaires à longue mémoire avec ou sans tendance. On montre que cette méthode n'est pas robuste. On propose la modélisation des séries de FC par une généralisation du FGN, appelée bruit gaussien localement fractionnaire. Un tel processus stationnaire est construit à partir du paramètre dit de fractalité locale (une sorte de paramètre de Hurst avec des valeurs dans IR) sur une bande de fréquences. L'estimation du paramètre est faite par une analyse par ondelettes, tout comme le test d'adéquation. On montre la pertinence du modèle et une évolution du paramètre pendant la course. Une détection des changements de ce paramètre pourrait être extrêmement appropriée. On propose alors une méthode de détection de multiples ruptures du paramètre de longue mémoire (respectivement d'autosimilarité, de fractalité locale). Un estimateur des points de changements est construit, il vérifie un théorème limite. Un théorème de la limite centrale est établi pour l'estimateur des paramètres et un test d'ajustement est mis en place dans chaque zone où le paramètre est inchangé. Enfin, on montre la même évolution du paramètre de fractalité locale sur les FC.
142

Etude expérimentale du comportement d'une poutre en béton armé en flexion trois points réparée par matériaux composites (approche probabiliste).

Croston, Tania 20 June 2006 (has links) (PDF)
Le béton armé (BA) a été largement étudié, surtout à travers son comportement mécanique et ses capacités physico-chimique. Par contre la notion de réparation des ouvrages de génie civil par des solutions composites est plus rarement traitée. Cette recherche porte essentiellement sur : l'analyse de l'influence du degré de fissuration sur la résistance ultime des éprouvettes réparées et l'application des concepts de fiabilité afin d'estimer la probabilité de défaillance. Dans ce but, des poutres en BA ont été pré fissurées par des essais en flexion 3 points jusqu'à 2 niveaux différents d'endommagement puis réparées. L'insertion d'une tige en composite (soit fibre de carbone, soit fibre de verre) et le collage d'une plaque en carbone sur la face tendue de la poutre courte, ont été utilisés comme méthodes de réparation. Lors des essais en flexion de poutres réparées, leur comportement a été évalué à l'aide d'un microscope à longue distance et par la technique d'émission acoustique. A partir des résultats obtenus, nous avons constaté que les deux méthodes de réparation sont très efficaces. En effet, les éprouvettes réparées ont considérablement augmenté leurs résistances ultimes. Une approche probabiliste utilisant les méthodes Monte Carlo et FORM pour déterminer la probabilité de défaillance de l'éprouvette testée en flexion trois points a été utilisée. Ces résultats nous ont permis d'élaborer des abaques qui mettent en relation la force résistante de l'éprouvette, le coefficient de variation et la probabilité de défaillance.
143

Plates-formes de microscopie et fluorescence par résonance de plasmons de surface appliquées à l'imagerie cellulaire

Chabot, Vincent January 2013 (has links)
L'élaboration de nouveaux médicaments repose sur les études pharmacologiques, dont le rôle est d'identifier de nouveaux composés actifs ou de nouvelles cibles pharmacologiques agissant entre autres au niveau cellulaire. Récemment, la détection basée sur la résonance des plasmons de surface (SPR) a été appliquée à l'étude de réponses cellulaires. Cette méthode de détection, permettant d'observer des variations d'indice de réfraction associés à de faibles changements de masse à la surface d'un métal, a l'avantage de permettre l'étude d'une population de cellules vivantes en temps réel, sans nécessiter l'introduction d'agents de marquage. Pour effectuer la détection au niveau de cellules individuelles, on peut employer la microscopie SPR, qui consiste à localiser spatialement la détection par un système d'imagerie. Cependant, la détection basée sur la SPR est une mesure sans marquage et les signaux mesurés sont attribués à une réponse moyennée des différentes sources cellulaires. Afin de mieux comprendre et identifier les composantes cellulaires générant le signal mesuré en SPR, il est pertinent de combiner la microscopie SPR avec une modalité complémentaire, soit l'imagerie de fluorescence. C'est dans cette problématique que s'insère ce projet de thèse, consistant à concevoir deux plates-formes distinctes de microscopie SPR et de fluorescence optimisées pour l'étude cellulaire, de sorte à évaluer les possibilités d'intégration de ces deux modalités en un seul système. Des substrats adaptés pour chaque plate-forme ont été conçus et réalisés. Ces substrats employaient une couche d'argent passivée par l'ajout d'une mince couche d'or. La stabilité et la biocompatibilité des substrats ont été validées pour l'étude cellulaire. Deux configurations permettant d'améliorer la sensibilité en sondant les cellules plus profondément ont été évaluées, soit l'emploi de plasmons de surface à longue portée et de guides d'onde à gaine métallique. La sensibilité accrue de ces configurations a aussi été démontrée pour un usage en biodétection cellulaire. Une plate-forme permettant de mesurer la spectroscopie SPR simultanément avec l'acquisition d'images de fluorescence a été réalisée. Cette plate-forme a ensuite été validée par l'étude de réponses cellulaires suite à une stimulation pharmacologique. Puis, un système basé sur la microscopie SPR a été conçu et caractérisé. Son emploi pour l'étude de réponses au niveau de cellules individuelles a été démontré. Finalement, les forces et faiblesses des substrats et des plates-formes réalisées au cours de la thèse ont été évaluées. Des possibilités d'amélioration sont mises de l'avant et l'intégration des modalités de microscopie SPR et de fluorescence suite aux travaux de la thèse est discutée. Les réalisations au cours de cette étude ont donc permis d'identifier les composantes cellulaires impliquées dans la génération du signal mesuré en biodétection SPR.
144

Le sentiment de marché : mesure et interêt pour la gestion d'actifs

Frugier, Alain 30 September 2011 (has links) (PDF)
La rationalité parfaite des investisseurs, base de l'hypothèse d'efficience desmarchés, est de plus en plus discutée. Ceci a conduit au développement de la financecomportementale. Le sentiment de marché, qui en est issu, est l'objet de cette étude.Après l'avoir mis en relation avec la rationalité et défini, ses modes de mesure courantset une évaluation de leur capacité à anticiper les rentabilités sont présentés. Ensuite, autravers de deux recherches largement indépendantes, nous (1) montrons de manièreempirique, essentiellement à partir de modèles multi-agents et d'une modélisation del'impact des chocs d'information sur la distribution des rentabilités, que les skewness etkurtosis de la distribution des rentabilités peuvent être utilisés comme indicateurs dusentiment de marché ; (2) mettons en évidence la présence de mémoire sur de nombreuxindicateurs de sentiment, ce qui invalide les modalités habituelles de leur utilisation,dans le cadre de stratégies contrarian.
145

Vers des systèmes d'élevage résilients : une approche de l'allocation de la ressource pour combiner sélection et conduite dans l'environnement du troupeau

Douhard, Frédéric 05 November 2013 (has links) (PDF)
Sélectionner les animaux qui ont le plus haut niveau de production, en tenant peu compte d'autres caractères, a toujours bien fonctionné dans les conditions d'un environnement favorable (i.e. ration riche en nutriments, faible charge pathogène, thermoneutralité). Toutefois, pour de nombreuses raisons (économiques, climatiques, écologiques), les éleveurs auront sans doute de plus en plus de mal à réunir de telles conditions dans l'environnement de leur troupeau, et pourront même délibérément choisir de ne pas le faire. Sélectionner des animaux qui soient adaptés avec les conditions futures des troupeaux devient donc tout aussi important qu'adapter la conduite du troupeau en fonction des génotypes sélectionnés. Pour mieux identifier les contraintes et les opportunités d'appliquer ces deux options, nous proposons, pour la première fois dans cette thèse, un modèle animal intégrant les effets de la sélection génétique et de la conduite du troupeau. Ce modèle intègre des coefficients d'allocation de la ressource alimentaire entre les fonctions biologiques en tant que caractères héritables Il permet de simuler à court-terme les performances zootechniques et à long-terme les réponses à la sélection résultant de la transmission de ces caractères d'allocation entre générations. Le modèle a été appliqué à la chèvre laitière et se focalise sur la conduite en lactation longue (LL) d'une partie des chèvres du troupeau (conduite consistant à préserver des femelles en lactation ayant après une mise bas sans réengagement d'une nouvelle reproduction). Nous sommes partis du principe que la sélection et la conduite du troupeau influencent tous deux la façon dont chaque animal alloue ses ressources entre ses fonctions biologiques. Nous avons cherché à évaluer la portée de ce principe pour mieux comprendre le développement des interactions génotype-environnement (G x E) sur le long terme. Dans un troupeau soumis à des variations du niveau d'alimentation, différentes stratégies de sélection ciblant l'amélioration de la production laitière et de la longévité ont été simulées. En accord avec la théorie de l'allocation, les réponses à la sélection révèlent que l'amélioration de la production et de la survie doit faire face à un compromis entre ces deux caractères. Cependant, ce compromis est atténué lorsque la sélection est combinée avec la conduite en LL d'une partie du troupeau. Un tel effet de synergie entre sélection et conduite résulte d'une interaction complexe entre la dynamique individuelle de performance au cours de la LL et le renouvellement du troupeau. Ainsi, la capacité innée des chèvres à prolonger leur lactation semble pouvoir être valorisée pour améliorer la résilience du troupeau.
146

Les processus à mémoire longue saisonniers avec variance infinie des innovations et leurs applications

Ndongo, Mor 29 July 2011 (has links) (PDF)
Dans ce travail, nous étudions de manière approfondie les processus à mémoire longue saisonniers avec variance infinie des innovations. Dans le premier chapitre, nous rappelons les différentes propriétés des lois -stables univariées (stabilité, calcul des moments, simulation, : : :). Nous introduisons ensuite deux modèles à variance infinie largement utilisés dans la littérature statistique : les modèles ARMA -stables et les modèles ARFIMA -stables développés respectivement par Mikosch et al. [57] et Kokoszka et Taqqu [45]. Constatant les limites de ces modèles, nous construisons dans le second chapitre de nouveaux modèles appelés processus ARFISMA symétriques -stables. Ces modèles nous permettent de prendre en compte dans une modélisation la présence éventuelle des trois éléments caractéristiques suivants : mémoire longue, saisonnalité et variance infinie, que l'on rencontre souvent en finance, en télécommunication ou en hydrologie. Après avoir conclu le chapitre par l'étude du comportement asymptotique du modèle par des simulations, nous abordons dans le troisième chapitre, le problème d'estimation des paramètres d'un processus ARFISMA -stable. Nous présentons plusieurs méthodes d'estimation : une méthode semiparamétrique développée par Reisen et al.[67], une méthode de Whittle classique utilisée par Mikosch et al. [57] et par Kokoszka et Taqqu [45], et une autre approche de la méthode de Whittle basée sur l'évaluation de la vraisemblance de Whittle par une méthode de Monte Carlo par chaînes de Markov (MCMC). De nombreuses simulations, effectuées avec le logiciel R [64], permettent de comparer ces méthodes d'estimation. Cependant, ces méthodes ne permettent pas d'estimer le paramètre d'innovation . Ainsi, nous introduisons, dans le quatrième chapitre deux méthodes d'estimation : la méthode de la fonction caractéristique empirique développée par Knight et Yu [43] et la méthode des moments généralisés basée sur des moments conditionnels continus, suggérée par Carrasco et Florens [16]. De plus, afin de comparer les propriétés asymptotiques des estimateurs, des simulations de Monte Carlo sont effectuées. Enfin, dans le cinquième chapitre, nous appliquons ce modèle sur des données de débits du fleuve Sénégal à la station de Bakel. En guise de comparaison, nous considérons le modèle linéaire classique de Box et Jenkins [11], et nous comparons leurs capacités prédictives.
147

Perceptions et réactions des soignants et membres de famille à l’égard d’une intervention de réminiscence auprès de personnes atteintes de démence légère à modérée en soins de longue durée

Ciquier, Gabrielle C. 08 1900 (has links)
La majorité des personnes atteintes de démence en soins de longue durée (SLD) souffre d’une détérioration de la cognition, des interactions sociales, de la santé mentale et de la qualité de vie (QdV). Par conséquent, les proches aidants et les soignants de cette population peuvent éprouver des difficultés, tel que le stress, en raison de la complexité du syndrome. Il s’avère essentiel de valider des interventions psychosociales adaptées à la population atteinte de démence et à ses aidants. La réminiscence, une intervention psychosociale misant sur les capacités résiduelles des personnes atteintes de démence, se fonde sur la remémoration des souvenirs anciens agréables. L’objectif général du mémoire était de valider la mise en œuvre d’une intervention de réminiscence menée par le personnel soignant auprès des personnes atteintes de démence et leurs familles dans un centre de SLD, en faisant appel aux avis experts des soignants et des familles des personnes atteintes de démence dans le contexte d’entrevues. Une évaluation pré-post intervention a permis de mesurer la santé mentale et la QdV des personnes atteintes de démence avant l’intervention, une semaine après et trois mois après l’intervention. Les résultats indiquent que la réminiscence a été bien appréciée par les soignants, les personnes atteintes de démence et leurs familles, et valident sa mise en œuvre en SLD. Des améliorations significatives (Wilcoxon p < 0,025) à court et à long terme ont été observées au niveau de la santé mentale et la QdV des personnes atteintes de démence. / The majority of older adults with dementia living in long-term care (LTC) suffer from a decline in cognition, social interactions, mental health, and quality of life (QoL). As a result, family members and caregivers of this population tend to undergo difficulties, such as stress, due to the complexity of the syndrome. It is therefore essential to validate psychosocial interventions that are suitable for both individuals with dementia and their caregivers. Reminiscence, which involves retrieval of past and pleasurable memories, is a psychosocial intervention that focuses on the residual faculties of individuals with dementia. The overall objective of the thesis was to validate the implementation of a reminiscence intervention led by caregivers for individuals with dementia and their family members in an LTC setting, by collecting the expert opinions of professional caregivers and family members through interviews. Treatment effectiveness was also examined using a pre-post intervention design to measure mental health and QOL of individuals with dementia at baseline, one week after, and three months after intervention. Results indicate that reminiscence was well appreciated by individuals with dementia, caregivers, and family members and validate its implementation in LTC. Findings also show significant short- and long-term improvements (Wilcoxon p < .025) in residents’ mental health and QoL.
148

Numerical modeling of stress redistribution to assess pillar rockburst proneness around longwall panels : Case study of the Provence coal mine, France / Modélisation numérique de la redistribution des contraintes pour évaluer la prédisposition aux coups de terrain autour des panneaux de longue taille : étude de cas de la mine de charbon de Provence, France

Ahmed, Samar 13 December 2016 (has links)
Le phénomène de coup de terrain est une explosion violente de roche qui peut se produire dans les mines souterraines. Dans la présente recherche, nous avons essayé de démontrer les causes qui peuvent influer sur la prédisposition aux coups de terrain en utilisant la modélisation numérique. Cependant, avant tout, l'état de contrainte avant l'exploitation minière et les contraintes induites par les excavations environnantes doivent être étudiés avec précision. La mine de charbon de Provence, qui a subi un phénomène de coup de terrain au niveau de son puits vertical entouré de nombreux panneaux de longue taille, a été choisie comme cas d’étude. Un modèle numérique 3D à grande échelle a été construit pour inclure la zone du puits vertical avec ses piliers et galeries à petite échelle et les panneaux de longue taille à grande échelle avec leurs zones de foudroyage associées. Plusieurs problèmes ont été rencontrés lors du développement de ce modèle numérique à grande échelle. Le premier porte sur l'initialisation de l'état de contrainte à grande échelle, où les contraintes verticales mesurées divergent avec le poids des déblais et les contraintes in situ sont très anisotropes. Le deuxième porte sur la simulation de la zone de foudroyage associée aux panneaux de longue taille. Le troisième concerne l'évaluation de l’instabilité du pilier en fonction de son ratio résistance/contrainte moyenne et de son volume. Le quatrième concerne l'évaluation de la prédisposition aux coups de terrain au niveau du puits vertical en fonction de différents critères. Cinq méthodes ont été développées pour initialiser l’état de contrainte hétérogène dans le modèle numérique à grande échelle avant l’exploitation minière. Elles sont basées sur la méthode de corrélation Simplex, qui consiste à optimiser la différence entre les valeurs de contrainte mesurées in-situ et les valeurs numériques. Le but est de développer des gradients qui soient capables d'exprimer l'hétérogénéité de la contrainte et qui soient compatibles avec les mesures in-situ. La méthode basée sur l’initialisation de l'état de contrainte avec des gradients 3D s’est avérée plus efficace que celle traditionnelle basée sur les ratios de contrainte horizontale à verticale. Concernant la simulation du foudroyage, trois modèles ont été développés et intégrés dans le modèle numérique pour exprimer le comportement mécanique dans la zone de foudroyage au-dessus des panneaux de longue taille. Deux d’entre eux sont basés sur un comportement élastique alors que le troisième est basé sur un comportement elasto-plastique avec écrouissage un phénomène de consolidation. Il a été constaté que la zone de foudroyage au-dessus des panneaux de longue taille peut atteindre 32 fois l'épaisseur de la couche exploitée et que le module d'élasticité de la partie la plus endommagée de la zone foudroyée ne doit pas excéder 220 MPa pour satisfaire la convergence toit-mur. Mais, avec l'avancée de l'exploitation, ce matériau souple se compacte sous la pression des couches supérieures. Dans le cas d'une largeur critique et super-critique, la contrainte verticale dans la zone de foudroyage pourrait dépasser le poids des déblais et pourrait augmenter jusqu'à 4 fois ce poids sur les bords. La contrainte verticale a augmenté dans les piliers au niveau du puit vertical suite à l'exploitation des panneaux de longue taille à proximité. Il a été constaté que le volume du pilier joue un rôle important dans sa stabilité. Le rapport contrainte/résistance a été jugé insuffisant pour expliquer un coup de terrain. Plusieurs critères ont été intégrés au modèle numérique pour évaluer la prédisposition aux coups de terrain. Il a été constaté que les critères basés sur les contraintes et les déformations sont capables d'évaluer la prédisposition aux coups de terrain / Rockburst is a violent explosion of rock that can occur in underground mines. In the current research, the main objective is to demonstrate the causes that may influence the rockburst proneness by using the numerical modeling tool. However, firstly, the pre-mining stress state and the induced stresses due to surrounding excavations have to be studied precisely. The Provence coal mine, where a rockburst took place in its shaft station that is surrounded by many longwall caving panels, has been chosen as a case study. A large-scale 3D numerical model has been constructed to include the shaft station area with its small-scale pillars and galleries, and the large-scale longwall panels with their accompanying goaf area. Many problems appeared while developing such large-scale numerical model, the first problem was the initialization of stress state at a large-scale, where the measured vertical stresses are in disagreement with the overburden weight, and the in-situ stresses are highly anisotropic. The second problem was the simulation of the goaf area accompanying longwall panels. The third problem was the assessment of pillars instability in terms of its strength/average stress ratio, and its volume. The Fourth problem was the assessment of rockburst proneness in the shaft station based on different rockburst criteria. Five methods were developed to initialize the heterogeneous pre-mining stress in the large-scale numerical model. These methods are based on the Simplex Method, which is mainly based on optimizing the difference between the in-situ measured stress values and the numerical stress values to develop stress gradients able to express the stress heterogeneity and compatible with the in-situ measurements. The method that is based on initiating the stress state with 3D stress gradients was found to be more efficient than the traditional method that is based on the horizontal-to-vertical stress ratios. Regarding the goaf simulation, three models were developed and implemented in the numerical model to express the mechanical behavior within the goaf area above longwall panels. Two of these models are based on an elastic behavior, and the third one is based on the strain-hardening elasto-plastic behavior that takes the consolidation phenomenon into consideration. It was found that the goaf area above longwall panels could reach up to 32 times the seam thickness, and the elastic modulus of caved area (the first few meters in the goaf area) did not exceed 220 MPa to fulfill the roof-floor convergence. But, with advance of the exploitation, this soft material consolidated under the pressure of the overlying strata. In case of critical and super-critical width, the vertical stress in the goaf area exceeded the overburden weight, and it increased up to 4 times the overburden weight on the rib-sides. The vertical stress increased in the shaft station pillars as a result of exploiting the nearby longwall panels. It was found that the pillar volume plays an important role in its stability. And, the strength/stress ratio was found to be insufficient to quantify the rockburst proneness in underground mines. Many rockburst criteria were implemented in the numerical model to assess the rockburst proneness. It was found that the criteria that are based on stress and strain changes were able to assess the rockburst proneness
149

Phases classiques et quantiques des systèmes dipolaires de basse dimensionnalité / Classical and quantum phases of low-dimensional dipolar systems

Cartarius, Florian 22 September 2016 (has links)
Cette thèse étudie les phases classiques et quantiques des systèmes atomiques ou moléculaires de basse dimension en mettant un accent particulier sur le crossover dimensionnel de une à deux dimensions.La première partie de la thèse est consacrée à la description d'un système d'atomes froids interagissants avec un potentiel de contact. Plus précisément, nous étudions le dé-piégeage dynamique qui, suite à l'extinction rapide d'un réseau optique, s'opère dans un gaz composé de bosons impénétrables dans un guide d'onde atomique linéaire.  Nous employons une solution exacte, basée sur une  correspondance entre bosons en forte interaction et fermions sans interaction pour déduire l'évolution dynamique quantique exacte. Dans la limite thermodynamique, nous observons l'approche vers un état stationnaire hors équilibre, caractérisé par l'absence d'ordre hors diagonal à longue distance et une visibilité réduite de la distribution en impulsions. Des caractéristiques similaires sont observées dans un système de taille finie pour des temps  correspondant à la moitié du temps de récurrence, lors desquels nous observons que le système approche un état  quasi-stationnaire auquel le système s'approche avec une dépendance temporelle en loi de puissance.La deuxième partie de la thèse analyse l'effet des interactions dipolaires sur l'état fondamental du système. L'inclusion de l'interaction dipôle-dipôle donne lieu à de nouvelles phases quantiques du système unidimensionnel, mais peut également entraîner une instabilité transverse.Cette instabilité est tout d'abord analysée dans le régime classique. Nous considérons des particules classiques  avec interactions dipolaires, confinés sur un anneau par un potentiel harmonique radiale.  Les dipôles sont polarisés perpendiculairement au plan de confinement. En diminuant le confinement dans la direction radiale, les particules classique montrent une transition entre une chaîne simple et une chaîne double (en zigzag).  Nous montrons que cette transition est faiblement du premier ordre. Nous expliquons que la nature de cette transition est déterminée par le couplage entre les modes d'excitation transversaux et axiaux de la chaîne des dipôles.  Ce résultat est très différent du  comportement observé dans les systèmes Coulombiens, où la transition entre la chaîne linéaire et la chaîne en zigzag est continue et appartient à la classe d'universalité de la transition ferromagnétique. Nos résultats s'appliquent aux systèmes dipolaires classiques et aux atomes Rydberg, qui peuvent constituer un banc d'essai pour simuler le comportement critique des aimants couplés à des grilles.Dans le régime quantique, nous considérons un système des bosons dipolaires sur un réseaux optique, confinés par un potentiel harmonique anisotrope. Dans le régime favorisant l'instabilité d'une chaîne simple, nous démontrons que le système peut être  décrit  par un modèle de  Bose-Hubbard étendu à plusieurs modes couplés entre eux, dont les coefficients peuvent être déterminés en utilisant une théorie de basse énergie. La méthode d'intégrale de chemin Monte Carlo, la diagonalisation exacte et TEBD sont utilisés pour déterminer l'état fondamental de modèle de Bose-Hubbard étendu et démontrent que ce modèle capture la transition entre la chaîne linéaire et la chaîne en zigzag. / In this work, the classical and quantum phases of low-dimensional atomic or molecular systems is studied with a particular focus on the regime where a system goes over from a strictly one-dimensional to a two dimensional system.The first part of the thesis is dedicated to atoms interacting via contact interactions. In particular, we study the dynamical depinning following a sudden turn off of an optical lattice for a gas of impenetrable bosons in a tight atomic waveguide. We use an exact solution, which is based on an equivalence between strongly interacting bosons and noninteraction fermions, in order to derive the exact quantum dynamical evolution. At long times, in the thermodynamic limit, we observe the approach to a nonequilibrium steady state, characterized by the absence of quasi-long-range order and a reduced visibility in the momentum distribution. Similar features are found in a finite-size system at times corresponding to half the revival time, where we find that the system approaches a quasisteady state with a power-law behavior.In the second part, we study the effect of additional dipolar interactions on the ground state of the system. The inclusion of dipole-dipole interaction leads to new quantum phases of the one-dimensional system, but can also lead to a transverse instability.This instability is first analyzed in the classical regime. We study classical particles with dipolar interactions, that are confined on a chain by a harmonic potential. The dipoles are polarised perpendicular to the plane of confinement. Classical particles with repulsive power-law interactions undergo a transition from a single to a double chain (zigzag) by decreasing the confinement in the transverse direction. We theoretically characterize this transition when the particles are classical dipoles, polarized perpendicularly to the plane in which the motion occurs, and argue that this transition is of first order, even though weakly. The nature of the transition is determined by the coupling between transverse and axial modes of the chain and contrasts with the behavior found in Coulomb systems, where the linear-zigzag transition is continuous and belongs to the universality class of the ferromagnetic transition. Our results hold for classical dipolar systems and Rydberg atoms, which can offer a test bed for simulating the critical behavior of magnets with lattice coupling.In the quantum regime, we consider dipolar bosons in an optical lattice, tightly confined by an anisotropic harmonic potential. In the regime where a single chain becomes unstable, we show that the system can be mapped onto an extended multi-mode Bose-Hubbard model, where the coefficients can be determined by means of a low energy theory. A path integral Monte Carlo method, exact diagonalization and TEBD are used to determine the ground state of the extended Bose-Hubbard models. and show that the model captures the linear to zigzag transition.
150

Light field remote vision / Algorithmes de traitement et de visualisation pour la vision plénoptique à grande distance

Nieto, Grégoire 03 October 2017 (has links)
Les champs de lumière ont attisé la curiosité durant ces dernières décennies. Capturés par une caméra plénoptique ou un ensemble de caméras, ils échantillonnent la fonction plénoptique qui informe sur la radiance de n'importe quel rayon lumineux traversant la scène observée. Les champs lumineux offrent de nombreuses applications en vision par ordinateur comme en infographie, de la reconstruction 3D à la segmentation, en passant par la synthèse de vue, l'inpainting ou encore le matting par exemple.Dans ce travail nous nous attelons au problème de reconstruction du champ de lumière dans le but de synthétiser une image, comme si elle avait été prise par une caméra plus proche du sujet de la scène que l'appareil de capture plénoptique. Notre approche consiste à formuler la reconstruction du champ lumineux comme un problème de rendu basé image (IBR). La plupart des algorithmes de rendu basé image s'appuient dans un premier temps sur une reconstruction 3D approximative de la scène, appelée proxy géométrique, afin d'établir des correspondances entre les points image des vues sources et ceux de la vue cible. Une nouvelle vue est générée par l'utilisation conjointe des images sources et du proxy géométrique, bien souvent par la projection des images sources sur le point de vue cible et leur fusion en intensité.Un simple mélange des couleurs des images sources ne garantit pas la cohérence de l'image synthétisée. Nous proposons donc une méthode de rendu direct multi-échelles basée sur les pyramides de laplaciens afin de fusionner les images sources à toutes les fréquences, prévenant ainsi l'apparition d'artefacts de rendu.Mais l'imperfection du proxy géométrique est aussi la cause d'artefacts de rendu, qui se traduisent par du bruit en haute fréquence dans l'image synthétisée. Nous introduisons une nouvelle méthode de rendu variationnelle avec des contraintes sur les gradients de l'image cible dans le but de mieux conditionner le système d'équation linéaire à résoudre et supprimer les artefacts de rendu dus au proxy.Certaines scènes posent de grandes difficultés de reconstruction du fait du caractère non-lambertien éventuel de certaines surfaces~; d'autre part même un bon proxy ne suffit pas, lorsque des réflexions, transparences et spécularités remettent en cause les règles de la parallaxe. Nous proposons méthode originale basée sur l'approximation locale de l'espace plénoptique à partir d'un échantillonnage épars afin de synthétiser n'importe quel point de vue sans avoir recours à la reconstruction explicite d'un proxy géométrique. Nous évaluons notre méthode à la fois qualitativement et quantitativement sur des scènes non-triviales contenant des matériaux non-lambertiens.Enfin nous ouvrons une discussion sur le problème du placement optimal de caméras contraintes pour le rendu basé image, et sur l'utilisation de nos algorithmes pour la vision d'objets dissimulés derrière des camouflages.Les différents algorithmes proposés sont illustrés par des résultats sur des jeux de données plénoptiques structurés (de type grilles de caméras) ou non-structurés. / Light fields have gathered much interest during the past few years. Captured from a plenoptic camera or a camera array, they sample the plenoptic function that provides rich information about the radiance of any ray passing through the observed scene. They offer a pletora of computer vision and graphics applications: 3D reconstruction, segmentation, novel view synthesis, inpainting or matting for instance.Reconstructing the light field consists in recovering the missing rays given the captured samples. In this work we cope with the problem of reconstructing the light field in order to synthesize an image, as if it was taken by a camera closer to the scene than the input plenoptic device or set of cameras. Our approach is to formulate the light field reconstruction challenge as an image-based rendering (IBR) problem. Most of IBR algorithms first estimate the geometry of the scene, known as a geometric proxy, to make correspondences between the input views and the target view. A new image is generated by the joint use of both the input images and the geometric proxy, often projecting the input images on the target point of view and blending them in intensity.A naive color blending of the input images do not guaranty the coherence of the synthesized image. Therefore we propose a direct multi-scale approach based on Laplacian rendering to blend the source images at all the frequencies, thus preventing rendering artifacts.However, the imperfection of the geometric proxy is also a main cause of rendering artifacts, that are displayed as a high-frequency noise in the synthesized image. We introduce a novel variational rendering method with gradient constraints on the target image for a better-conditioned linear system to solve, removing the high-frequency noise due to the geometric proxy.Some scene reconstructions are very challenging because of the presence of non-Lambertian materials; moreover, even a perfect geometric proxy is not sufficient when reflections, transparencies and specularities question the rules of parallax. We propose an original method based on the local approximation of the sparse light field in the plenoptic space to generate a new viewpoint without the need for any explicit geometric proxy reconstruction. We evaluate our method both quantitatively and qualitatively on non-trivial scenes that contain non-Lambertian surfaces.Lastly we discuss the question of the optimal placement of constrained cameras for IBR, and the use of our algorithms to recover objects that are hidden behind a camouflage.The proposed algorithms are illustrated by results on both structured (camera arrays) and unstructured plenoptic datasets.

Page generated in 0.0296 seconds