301 |
Marches quantiques et mécanique quantique relativiste / Quantum walks and relativistic quantum mechanicsForets Irurtia, Marcelo Alejandro 10 December 2015 (has links)
Cette thèse étudie deux modèles de calcul: les marches quantiques (QW) et les automates cellulaires quantiques (QCA), en vue de les appliquer en simulation quantique. Ces modèles ont deux avantages stratégiques pour aborder ce problème: d'une part, ils constituent un cadre mathématique privilégié pour coder la description du système physique à simuler; d'autre part, ils correspondent à des architectures expérimentalement réalisables.Nous effectuons d'abord une analyse des QWs en tant que schéma numérique pour l'équation de Dirac, en établissant leur borne d'erreur globale et leur taux de convergence. Puis nous proposons une notion de transformée de Lorentz discrète pour les deux modèles, QW et QCA, qui admet une représentation diagrammatique s'exprimant par des règles locales et d'équivalence de circuits. Par ailleurs, nous avons caractérisé la limite continue d'une grande classe de QWs, et démontré qu'elle correspond à une classe d'équations aux dérivées partielles incluant l'équation de Dirac massive en espace-temps courbe de $(1+1)$-dimensions.Finalement, nous étudions le secteur à deux particules des automates cellulaires quantiques. Nous avons trouvé les conditions d'existence du spectre discret (interprétable comme une liaison moléculaire) pour des interactions à courte et longue portée, à travers des techniques perturbatives et d'analyse spectrale des opérateurs unitaires. / This thesis is devoted to the development of two well-known models of computation for their application in quantum computer simulations. These models are the quantum walk (QW) and quantum cellular automata (QCA) models, and they constitute doubly strategic topics in this respect. First, they are privileged mathematical settings in which to encode the description of the actual physical system to be simulated. Second, they offer an experimentally viable architecture for actual physical devices performing the simulation.For QWs, we prove precise error bounds and convergence rates of the discrete scheme towards the Dirac equation, thus validating the QW as a quantum simulation scheme. Furthermore, for both models we formulate a notion of discrete Lorentz covariance, which admits a diagrammatic representation in terms of local, circuit equivalence rules. We also study the continuum limit of a wide class of QWs, and show that it leads to a class of PDEs which includes the Hamiltonian form of the massive Dirac equation in (1+1)-dimensional curved spacetime.Finally, we study the two particle sector of a QCA. We find the conditions for the existence of discrete spectrum (interpretable as molecular binding) for short-range and for long-range interactions. This is achieved using perturbation techniques of trace class operators and spectral analysis of unitary operators.
|
302 |
Agrégation d'information pour la localisation d'un robot mobile sur une carte imparfaite / Information aggregation for the localization of a mobile robot using a non-perfect mapDelobel, Laurent 04 May 2018 (has links)
La plupart des grandes villes modernes mondiales souffrent des conséquences de la pollution et des bouchons. Une solution à ce problème serait de réglementer l'accès aux centres-villes pour les voitures personnelles en faveur d'un système de transports publics constitués de navettes autonomes propulsées par une énergie n'engendrant pas de pollution gazeuse. Celles-ci pourraient desservir les usagers à la demande, en étant déroutées en fonction des appels de ceux-ci. Ces véhicules pourraient également être utilisés afin de desservir de grands sites industriels, ou bien des sites sensibles dont l'accès, restreint, doit être contrôlé. Afin de parvenir à réaliser cet objectif, un véhicule devra être capable de se localiser dans sa zone de travail. Une bonne partie des méthodes de localisation reprises par la communauté scientifique se basent sur des méthodes de type "Simultaneous Localization and Mapping" (SLAM). Ces méthodes sont capables de construire dynamiquement une carte de l'environnement ainsi que de localiser un véhicule dans une telle carte. Bien que celles-ci aient démontré leur robustesse, dans la plupart des implémentations, le partage d'une carte commune entre plusieurs robots peut s'avérer problématique. En outre, ces méthodes n'utilisent fréquemment aucune information existant au préalable et construisent la carte de leur environnement à partir de zéro.Nous souhaitons lever ces limitations, et proposons d'utiliser des cartes de type sémantique, qui existent au-préalable, par exemple comme OpenStreetMap, comme carte de base afin de se localiser. Ce type de carte contient la position de panneaux de signalisation, de feux tricolores, de murs de bâtiments etc... De telles cartes viennent presque à-coup-sûr avec des imprécisions de position, des erreurs au niveau des éléments qu'elles contiennent, par exemple des éléments réels peuvent manquer dans les données de la carte, ou bien des éléments stockés dans celles-ci peuvent ne plus exister. Afin de gérer de telles erreurs dans les données de la carte, et de permettre à un véhicule autonome de s'y localiser, nous proposons un nouveau paradigme. Tout d'abord, afin de gérer le problème de sur-convergence classique dans les techniques de fusion de données (filtre de Kalman), ainsi que le problème de mise à l'échelle, nous proposons de gérer l'intégralité de la carte par un filtre à Intersection de Covariance Partitionnée. Nous proposons également d'effacer des éléments inexistant des données de la carte en estimant leur probabilité d'existence, calculée en se basant sur les détections de ceux-ci par les capteurs du véhicule, et supprimant ceux doté d'une probabilité trop faible. Enfin, nous proposons de scanner périodiquement la totalité des données capteur pour y chercher de nouveaux amers potentiels que la carte n'intègre pas encore dans ses données, et de les y ajouter. Des expérimentations montrent la faisabilité d'un tel concept de carte dynamique de haut niveau qui serait mise à jour au-vol. / Most large modern cities in the world nowadays suffer from pollution and traffic jams. A possible solution to this problem could be to regulate personnal car access into center downtown, and possibly replace public transportations by pollution-free autonomous vehicles, that could dynamically change their planned trajectory to transport people in a fully on-demand scenario. These vehicles could be used also to transport employees in a large industrial facility or in a regulated access critical infrastructure area. In order to perform such a task, a vehicle should be able to localize itself in its area of operation. Most current popular localization methods in such an environment are based on so-called "Simultaneous Localization and Maping" (SLAM) methods. They are able to dynamically construct a map of the environment, and to locate such a vehicle inside this map. Although these methods demonstrated their robustness, most of the implementations lack to use a map that would allow sharing over vehicles (map size, structure, etc...). On top of that, these methods frequently do not take into account already existing information such as an existing city map and rather construct it from scratch. In order to go beyond these limitations, we propose to use in the end semantic high-level maps, such as OpenStreetMap as a-priori map, and to allow the vehicle to localize based on such a map. They can contain the location of roads, traffic signs and traffic lights, buildings etc... Such kind of maps almost always come with some degree of imprecision (mostly in position), they also can be wrong, lacking existing but undescribed elements (landmarks), or containing in their data elements that do not exist anymore. In order to manage such imperfections in the collected data, and to allow a vehicle to localize based on such data, we propose a new strategy. Firstly, to manage the classical problem of data incest in data fusion in the presence of strong correlations, together with the map scalability problem, we propose to manage the whole map using a Split Covariance Intersection filter. We also propose to remove possibly absent landmarks still present in map data by estimating their probability of being there based on vehicle sensor detections, and to remove those with a low score. Finally, we propose to periodically scan sensor data to detect possible new landmarks that the map does not include yet, and proceed to their integration into map data. Experiments show the feasibility of such a concept of dynamic high level map that could be updated on-the-fly.
|
303 |
Estimation d'une matrice d'échelle. / Scale matrix estimationHaddouche, Mohamed Anis 31 October 2019 (has links)
Beaucoup de résultats sur l’estimation d’une matrice d’échelle en analyse multidimensionnelle sont obtenus sous l’hypothèse de normalité (condition sous laquelle il s’agit de la matrice de covariance). Or il s’avère que, dans des domaines tels que la gestion de portefeuille en finance, cette hypothèse n’est pas très appropriée. Dans ce cas, la famille des distributions à symétrie elliptique, qui contient la distribution gaussienne, est une alternative intéressante. Nous considérons dans cette thèse le problème d’estimation de la matrice d’échelle Σ du modèle additif Yp_m = M + E, d’un point de vue de la théorie de la décision. Ici, p représente le nombre de variables, m le nombre d’observations, M une matrice de paramètres inconnus de rang q < p et E un bruit aléatoire de distribution à symétrie elliptique, avec une matrice de covariance proportionnelle à Im x Σ. Ce problème d’estimation est abordé sous la représentation canonique de ce modèle où la matrice d’observation Y est décomposée en deux matrices, à savoir, Zq x p qui résume l’information contenue dans M et une matrice Un x p, où n = m - q, qui résume l’information suffisante pour l’estimation de Σ. Comme les estimateurs naturels de la forme Σa = a S (où S = UT U et a est une constante positive) ne sont pas de bons estimateurs lorsque le nombre de variables p et le rapport p=n sont grands, nous proposons des estimateurs alternatifs de la forme ^Σa;G = a(S + S S+G(Z; S)) où S+ est l’inverse de Moore-Penrose de S (qui coïncide avec l’inverse S-1 lorsque S est inversible). Nous fournissons des conditions sur la matrice de correction SS+G(Z; S) telles que ^Σa;G améliore^Σa sous le coût quadratique L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² et sous une modification de ce dernier, à savoir le coût basé sur les données LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²). Nous adoptons une approche unifiée des deux cas où S est inversible et S est non inversible. À cette fin, une nouvelle identité de type Stein-Haff et un nouveau calcul sur la décomposition en valeurs propres de S sont développés. Notre théorie est illustrée par une grande classe d’estimateurs orthogonalement invariants et par un ensemble de simulations. / Numerous results on the estimation of a scale matrix in multivariate analysis are obtained under Gaussian assumption (condition under which it is the covariance matrix). However in such areas as Portfolio management in finance, this assumption is not well adapted. Thus, the family of elliptical symmetric distribution, which contains the Gaussian distribution, is an interesting alternative. In this thesis, we consider the problem of estimating the scale matrix _ of the additif model Yp_m = M + E, under theoretical decision point of view. Here, p is the number of variables, m is the number of observations, M is a matrix of unknown parameters with rank q < p and E is a random noise, whose distribution is elliptically symmetric with covariance matrix proportional to Im x Σ. It is more convenient to deal with the canonical forme of this model where Y is decomposed in two matrices, namely, Zq_p which summarizes the information contained in M, and Un_p, where n = m - q which summarizes the information sufficient to estimate Σ. As the natural estimators of the form ^Σ a = a S (where S = UT U and a is a positive constant) perform poorly when the dimension of variables p and the ratio p=n are large, we propose estimators of the form ^Σa;G = a(S + S S+G(Z; S)) where S+ is the Moore-Penrose inverse of S (which coincides with S-1 when S is invertible). We provide conditions on the correction matrix SS+G(Z; S) such that ^Σa;G improves over ^Σa under the quadratic loss L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² and under the data based loss LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²).. We adopt a unified approach of the two cases where S is invertible and S is non-invertible. To this end, a new Stein-Haff type identity and calculus on eigenstructure for S are developed. Our theory is illustrated with the large class of orthogonally invariant estimators and with simulations.
|
304 |
Micrometeorological measurements and numerical simulations of turbulence and evapotranspiration over agroforestryMarkwitz, Christian 25 February 2021 (has links)
No description available.
|
305 |
Algorithmes d’estimation et de détection en contexte hétérogène rang faible / Estimation and Detection Algorithms for Low Rank Heterogeneous ContextBreloy, Arnaud 23 November 2015 (has links)
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles. / One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data.
|
306 |
A comprehensive and multi-modal approach to studying neural and social outcomes after pediatric traumatic brain injuryTuerk, Carola 02 1900 (has links)
Les traumatismes crânio-cérébraux (TCC) pédiatriques (c.-à-d., subis entre la naissance et 18 ans) constituent l’une des principales causes de décès et d’invalidité chez les enfants et les adolescents à travers le monde. Durant la période pédiatrique, les fonctions cognitives, affectives et sociales émergent progressivement, sous-tendues par la maturation cérébrale et l’établissement de réseaux neuronaux complexes. Un TCC subi durant l’enfance ou l’adolescence peut donc causer des dommages au cerveau immature et entrainer des difficultés dans ces domaines. La présentation clinique et les facteurs environnementaux sont très variables d’un enfant ou adolescent à l’autre, de sorte qu’il est difficile d’identifier qui aura un rétablissement optimal et qui aura des séquelles persistantes. Bien que la recherche ait identifié plusieurs facteurs qui contribuent au rétablissement post-TCC pédiatrique, notamment ceux liés à la blessure, à l’enfant et à l'environnement familial, les modèles de prédiction à ce jour ne sont pas toujours exhaustifs et ne tiennent pas compte des facteurs génétiques qui pourraient aider le pronostic.
Parmi l’ensemble des séquelles liées au TCC, les problèmes sociaux (ex: participation sociale réduite, comportements sociaux inappropriés) sont parmi les plus néfastes et peuvent considérablement affecter la qualité de vie. Ces difficultés sociales peuvent résulter d'une perturbation des habiletés socio-cognitives sous-jacentes, mais les mécanismes exacts et les bases neuronales de tels problèmes sont encore inconnus. Notamment, les connaissances actuelles sur la manière dont le TCC pédiatrique affecte les connexions entre les régions cérébrales durant le développement demeurent limitées.
Considérant ces lacunes relatives aux connaissances sur les TCC pédiatriques, cette thèse avait pour but 1) de déterminer les facteurs qui contribuent à la compétence sociale durant la petite enfance (c.-à-d., entre 18 et 60 mois), afin d’établir des pistes normatives pour comprendre l’émergence de problèmes sociaux suite à un TCC pédiatrique, 2) d’établir un modèle pronostique exhaustif du devenir (mesuré par la qualité de vie) après un TCC léger pédiatrique durant la petite enfance, et 3) d’examiner l'impact d’un TCC pédiatrique de sévérité modérée à sévère sur les réseaux cérébraux structurels et fonctionnels, notamment, ceux qui sous-tendent le fonctionnement social et cognitif. Afin d’atteindre ces objectifs, les données de deux cohortes longitudinales ont été analysées et présentées sous forme de quatre articles scientifiques.
Le premier article visait à valider empiriquement le modèle ‘SOCIAL’ (Beauchamp & Anderson, 2010) pour identifier les facteurs qui contribuent à la compétence sociale. Ce modèle théorique postule que des facteurs internes (liés à l'enfant), externes (liés à l’environnement) et cognitifs (fonctions attentionnelles et exécutives, communicatives et socio-cognitives) déterminent la compétence sociale de l’enfant. Les résultats d’un modèle de régression analysé chez un groupe d’enfants neurotypiques âgés de 18 à 60 mois indiquent que les facteurs internes, externes et cognitifs contribuent tous significativement à la compétence sociale de l’enfant. Les facteurs internes ainsi que les fonctions exécutives et socio-cognitives jouent un rôle particulièrement important. En effet, les enfants avec peu d’affect négatif, moins de difficultés exécutives, une meilleure communication non-verbale et une meilleure théorie de l'esprit ont un niveau de compétence sociale plus élevé.
Le deuxième article visait à examiner les facteurs qui contribuent à la qualité de vie six et 18 mois après un TCC léger subi entre l’âge de 18 et 60 mois. Plusieurs prédicteurs potentiels provenant de quatre catégories de facteurs (biologie, environnement, blessure, comportement/cognition) ont été entrés dans un modèle de régression hiérarchique. Les résultats indiquent qu'un facteur génétique, le polymorphisme Val66Met du gène codant pour la protéine BDNF (Brain-Derived Neurotrophic Factor), contribue positivement à la qualité de vie six mois après le TCC, alors qu’un an plus tard, un plus faible niveau de stress parental prédit une meilleure qualité de vie chez l’enfant.
Le but du troisième article était d'étudier l’organisation fonctionnelle du réseau cérébral soutenant les habiletés sociales (le cerveau social) chez les enfants et les adolescents qui ont subi un TCC de sévérité modérée à sévère entre l’âge de neuf et 15 ans. Les participants ont complété un protocole d’acquisition d’imagerie par résonance magnétique fonctionnelle au repos 24 mois après la blessure. Dans deux échantillons indépendants, les résultats indiquent une connectivité fonctionnelle altérée entre les régions cérébrales frontales et le gyrus fusiforme bilatéral dans le groupe TCC (connectivité positive) par rapport au groupe contrôle (connectivité négative).
Le quatrième article a exploré les changements à long terme dans les réseaux de covariance structurelle du cerveau (c.-à-d., des régions cérébrales qui sont structurellement connectées) après un TCC pédiatrique de sévérité modérée à sévère subi entre neuf et 14 ans. L’objectif était d'étudier les différences de covariance structurelle au sein de trois réseaux cognitifs (réseau par défaut [DMN], réseau exécutif central [CEN], réseau de la salience [SN]) entre les enfants avec un TCC et les enfants sans blessure, trois et 24 mois post-TCC. Aucune différence de groupe n'a été trouvée après trois mois. Cependant, 24 mois après la blessure, le groupe TCC montrait une covariance structurelle réduite dans le DMN et le CEN par rapport au groupe contrôle.
Dans leur ensemble, ces résultats suggèrent que des modèles exhaustifs incluant un large éventail de facteurs provenant de plusieurs sphères du fonctionnement sont essentiels afin de comprendre les éléments qui placent un enfant à risque de séquelles après un TCC pédiatrique. Ils mettent également en évidence l’importance de considérer parmi les facteurs de prédiction des marqueurs génétiques impliqués dans les mécanismes de neuroplasticité, et confirment l’influence de facteurs parentaux, notamment la santé mentale du parent, sur le rétablissement post-TCC chez les jeunes enfants. De plus, les résultats montrent qu’un TCC pédiatrique de sévérité modérée à sévère peut induire des altérations à long terme au niveau des réseaux neuronaux sous-jacents aux fonctions sociales et cognitives. Ces résultats permettent de mieux comprendre comment un TCC pédiatrique affecte les circuits cérébraux pendant le développement, ce qui contribue à clarifier les bases neuronales des problèmes sociaux post-TCC. Finalement, les trouvailles et réflexions issues de la thèse supportent l’idée de considérer plusieurs facteurs liés à la blessure, à l’enfant, et à l'environnement familial ainsi que des facteurs génétiques pour le diagnostic, le pronostic, et le rétablissement après un TCC subi durant l’enfance ou l’adolescence. / Pediatric traumatic brain injury (TBI; sustained between birth and 18 years) is one of the leading causes of death and disability among children and adolescents worldwide. During development, cognitive, affective and social functions emerge gradually, supported by rapid brain maturation and the establishment of complex neural networks. TBI sustained during childhood or adolescence can therefore cause damage to the immature brain and lead to difficulties in these domains. Clinical presentation and environmental factors vary greatly, rendering it difficult to identify who will recover well and who will experience persistent sequelae. Although research has identified several factors that contribute to recovery after pediatric TBI, including injury, child-related, and family-environmental variables, existing prediction models are not always comprehensive, and they do not account for genetic factors which could contribute to prognosis.
Among all consequences associated with pediatric TBI, social problems (e.g., reduced social participation, maladaptive social behaviours) may be the most debilitating, and can considerably affect quality of life (QoL). These social difficulties can stem from a disruption of underlying socio-cognitive skills, but the exact mechanisms and neural bases of such problems are still unknown. In particular, current knowledge of how pediatric TBI affects connections between brain regions during development remains limited.
Considering these gaps in the pediatric TBI literature, this thesis aimed to 1) determine factors that contribute to social competence in early childhood (i.e., between 18 and 60 months) in order to establish normative avenues for understanding the emergence of social problems following pediatric TBI, 2) establish a comprehensive prognostic model of outcome (assessed by QoL) after early mild TBI (mTBI), and 3) examine the impact of pediatric moderate to severe TBI on structural and functional brain networks, notably those underlying social and cognitive functioning. In order to meet these objectives, data from two longitudinal cohorts were analyzed and are presented in the form of four scientific articles.
The first article aimed to empirically validate the “SOCIAL” model (Beauchamp & Anderson, 2010) to identify factors that contribute to social competence. This theoretical model posits that internal (child-related), external (environment-related) and cognitive (attentional-executive, communicative and socio-cognitive) factors determine a child's social competence. The results of a regression model analyzed in a sample of neurotypical children aged 18 to 60 months indicate that internal, external and cognitive factors all contribute significantly to a child’s social competence. Internal variables, executive functions, and socio-cognitive factors play a particularly important role. Indeed, children with lower levels of negative affect, fewer executive difficulties, greater non-verbal communication and better theory of mind had better social competence.
The objective of the second article was to examine which factors predict QoL six and 18 months following early mTBI sustained between 18 and 60 months of age. Several potential predictors from four domains (biology, environment, injury and behaviour/cognition) were entered into a hierarchical regression model. The results indicate that a genetic factor, the Val66Met polymorphism of the gene coding for the BDNF protein (Brain-Derived Neuroptrophic Factor), positively contributes to QoL six months after TBI, while a year later, lower parental distress predicts better child QoL.
The aim of the third article was to study the functional organization of the brain network supporting social skills (the social brain) in children and adolescents who sustained moderate to severe TBI between nine and 15 years of age. Participants completed a protocol for the acquisition of functional resting magnetic resonance images 24 months post-injury. In two independent samples, the results indicate altered functional connectivity between frontal brain areas and bilateral fusiform gyrus in the TBI group (positive connectivity) compared to the control group (negative connectivity).
The fourth article explored long-term changes in the brain’s structural covariance networks (i.e., brain regions that are structurally connected) following pediatric moderate to severe TBI sustained between nine and 14 years of age. The aim was to investigate differences in structural covariance within three core cognitive networks (i.e., default-mode [DMN], central executive [CEN], salience [SN]) between children with TBI and typically developing controls, three and 24 months post-injury. No group difference was found after three months. However, at 24 months post-injury, the TBI group showed reduced structural covariance within the DMN and the CEN compared to the control group.
Taken together, these findings suggest that comprehensive models including a wide range of factors from several domains of functioning are essential for understanding the elements that put a child at risk for poor recovery after TBI. They also highlight the importance of considering, among potential predictors, genetic factors involved in mechanisms of neuroplasticity, and confirm the role of parental factors, in particular parent mental health for post-TBI recovery in young children. In addition, the results show that moderate-severe pediatric TBI can induce long-term alterations in neural networks underlying social and cognitive functions. These findings provide insights into how pediatric TBI affects brain circuits during development, and may help to elucidate the neural underpinnings of social problems after pediatric TBI. Finally, the findings and implications from the thesis support the notion that several injury, child-related, family-environmental as well as genetic factors should be considered for diagnosis, prognosis, and recovery after TBI sustained during childhood or adolescence.
|
307 |
Past, present, and future boreal forest productivity across North America : from eddy covariance observations to long-term model simulations over 1901–2100Qu, Bo 08 1900 (has links)
Le changement climatique modifie rapidement la composition, la structure et le fonctionnement de la forêt boréale. Des simulations robustes de la productivité primaire brute (PPB) de la forêt boréale avec des modèles de biosphère terrestre (MBT) sont essentielles pour prédire la force des sources de puits de carbone dans les régions arctiques-boréales. Les mesures de covariance des turbulences fournissent des données précieuses pour l’analyse et l'affinement des MBT. Dans cette thèse, j'ai organisé un ensemble de données d'analyse de modèles pour les forêts boréales d'Amérique du Nord en compilant et harmonisant les données de flux de covariance des turbulences (les flux de dioxyde de carbone, d'eau et d'énergie) et les mesures environnementales (données météorologiques) sur huit peuplements forestiers matures (> 70 ans) représentatifs des différentes caractéristiques de peuplements, de climat et de conditions de pergélisol du biome boréal. L’ensemble de données a été utilisée dans une étude de cas pour paramétrer, forcer et évaluer le schéma canadien de surface terrestre incluant les cycles biogéochimiques (CLASSIC, version 1.3), le MBT de la suite canadienne de modèles du climat et de système terrestre. L'étude de cas a démontré l'utilité de l'ensemble de données et a fourni des lignes directrices pour l’amélioration du modèle CLASSIC. Ensuite, j'ai affiné le taux de carboxylation maximal (Vcmax), l'un des paramètres les plus importants du modèle de photosynthèse, pour les principaux types fonctionnels des plantes boréales (TFP) en utilisant une approche d'optimisation bayésienne. L'optimisation a amélioré les performances de la modélisation du PPB et de l'évapotranspiration. Enfin, avec la nouvelle paramétrisation de CLASSIC, j'ai simulé la PBB de la forêt boréale dans des peuplements forestiers de 1901 à 2100 à partir de données de forçage météorologique soigneusement ajustées en fonction des biais. Les changements dans la PBB annuelle simulée ont été quantifiés et étudiés en lien avec plusieurs contrôles environnementaux biotiques et abiotiques importants. Les simulations long terme ont révélé une augmentation du PBB annuel simulé dans tous les peuplements forestiers au cours des 200 ans. La PPB annuelle simulée dans les peuplements forestiers démontre une variation temporelle considérable des taux de changement du passé, au présent, jusqu'au futur. Les changements du début de la saison de croissance constituaient un contrôle environnemental central de la PPB annuelle simulée dans tous les peuplements forestiers du passé au présent. Il a été identifié que la température de l’air devenait plus importante pour la simulation des PBB annuelles que la durée de la saison de croissance dans le futur. Au cours du 21e siècle, l’augmentation du réchauffement, le dégel du pergélisol associé et les changements dans l’humidité du sol et la dynamique thermique étaient des mécanismes sous-jacents importants pour expliquer ces changements. Ma thèse de doctorat a permis d’identifier les opportunités d’analyses et d’affinement des modèles de biosphère terrestre en lien avec une base de données unique construite dans le cadre de cette thèse. Cette base de données a permis de fournir une nouvelle paramétrisation Vcmax au niveau de différentes TFP dans les modèles et fournir un aperçu de la productivité à long terme de la forêt boréale dans le biome boréal d’Amérique du Nord. / Climate change is rapidly altering boreal forest composition, structure, and functioning. Robust simulations of boreal forest gross primary productivity (GPP) with terrestrial biosphere models (TBMs) are critical for predicting carbon sink-source strength in Arctic-boreal regions. Eddy covariance measurements provide valuable data for benchmarking and refining TBMs. In this thesis, I curated a model benchmarking dataset for North America’s boreal forests by compiling and harmonizing eddy covariance flux (i.e., carbon dioxide, water, and energy fluxes) and supporting environmental measurements (i.e., meteorology) over eight mature forest stands (>70 years old) representative of different stand characteristics, climate, and permafrost conditions in the boreal biome. The dataset was used in a case study to parameterize, force, and evaluate the Canadian Land Surface Scheme Including biogeochemical Cycles (CLASSIC, version 1.3), the TBM of the Canadian suite of climate and Earth system models. The case study demonstrated the utility of the dataset and provided guidelines for further model refinement in CLASSIC. Next, I refined the maximum carboxylation rate at 25 °C (Vcmax25), one of the most important parameters in the photosynthesis model in CLASSIC, for representative boreal plant functional types (PFTs) using a Bayesian optimization approach. The refined PFT-level Vcmax25 yielded improved model performance for GPP and evapotranspiration. Last, I simulated boreal forest GPP in forest stands from 1901 to 2100 with CLASSIC, parameterized using the refined PFT-level Vcmax25. To reduce the uncertainty, daily meteorological forcing data from global historical reanalyses and regional climate projections were downscaled and bias-adjusted for forest stands using a multivariate bias correction algorithm. Changes in simulated annual GPP were quantified in trends and investigated with respect to several important biotic and abiotic environmental controls using a random forest approach. Long-term simulations revealed an increase in simulated annual GPP in all forest stands over the 200 years. However, simulated annual GPP in forest stands was characterized by considerable temporal variation in rates of changes from the past, over the present, to the future. Significant reductions in annual GPP were simulated in forest stands below the southern limit of permafrost during the mid-20th century. During the 21st century, all forest stands were simulated with significant increases in annual GPP. Further analyses show that the start of the growing season was a critical environmental control of simulated annual GPP in all forest stands from the past to the present. However, air temperature would become an important environmental control of simulated annual GPP in the future, showing an importance comparable to or even greater than that of the start of the growing season by the end of the 21st century. Enhanced warming, permafrost thaw, and changes in soil moisture and temperature were important for explaining the changes in simulated annual GPP over the 200 years. My PhD study provides a model benchmarking dataset for benchmarking and refining TBMs, and provides important suggestions for PFT-level Vcmax parameterizations in boreal forests. My long-term simulations reveal that boreal forest GPP in response to climate change had differential changes in different climate and permafrost zones during the 20th and 21st centuries, closely associated with differential changes in soil environment (e.g., soil thermal dynamics).
|
308 |
Applications of stochastic control and statistical inference in macroeconomics and high-dimensional dataHan, Zhi 07 January 2016 (has links)
This dissertation is dedicated to study the modeling of drift control in foreign exchange reserves management and design the fast algorithm of statistical inference with its application in high dimensional data analysis. The thesis has two parts. The first topic involves the modeling of foreign exchange reserve management as an drift control problem. We show that, under certain conditions, the control band policies are optimal for the discounted cost drift control problem and develop an algorithm to calculate the optimal thresholds of the optimal control band policy. The second topic involves the fast computing algorithm of partial distance covariance statistics with its application in feature screening in high dimensional data. We show that an O(n log n) algorithm for a version of the partial distance covariance exists, compared with the O(n^2) algorithm implemented directly accordingly to its definition. We further propose an iterative feature screening procedure in high dimensional data based on the partial distance covariance. This procedure enjoys two advantages over the correlation learning. First, an important predictor that is marginally uncorrelated but jointly correlated with the response can be picked by our procedure and thus entering the estimation model. Second, our procedure is robust to model mis- specification.
|
309 |
Autonomous airborne refueling : relative state estimationRunhaar, Anton Johan 12 1900 (has links)
Thesis (MScEng)--Stellenbosch University, 2011. / ENGLISH ABSTRACT: This thesis presents the development of a state estimation system for use in an Autonomous
Airborne Refueling (AAR) operation through the simulated implementation of GPS, monocular
and stereoscopic vision, inertial measurement sensors and boom parameter measurement in
combination with the Extended Kalman Filter (EKF) and Unscented Kalman Filter (UKF).
A set of functional criteria for the estimation system was developed through an analysis of
the control system input requirements and associated constraints. The estimation system
is further developed by integrating the sensor configurations into the estimation algorithm
structures through the derivation of the applicable mathematical models. Final sensor configurations
are set based on a sensitivity analysis in which the effect of parameters such as
sensor noise, placement and quantity are related to the accuracy with which the states are
estimated.
Uncertainty in the process noise, which is typically approximated, is overcome by adding an
adaptive element to the estimation algorithms in which the current process noise is estimated
allowing compensation for unmodeled process noise uncertainty.
Finally twelve practical sensor configurations are established utilising unique combinations
of the five sensors. Each configuration is simulated using both estimation algorithms after
which all results are evaluated with respect to one another as well as to the minimum state
accuracy criteria. Conclusions are presented based on the evaluation of the results followed
by recommendation for future development. / AFRIKAANSE OPSOMMINGS: Die ontwikkeling van ’n toestandafskattingstelsel, spesifiek toegepas op outonome brandstofhervulling,
word voorgelê in hierdie tesis. Hierdie ontwikkeling behels die implementering
van GPS, monukulêre- en stereo-visie sensors, inersiële sensor eenhede en verbindingsarmsensors
wat gebruik word in ’n Uitgebruide Kalman Filter (Extended Kalman Filter) en Geurlose
Kalman Filter (Unscented Kalman Filter).
’n Volledige ontleding van die beheerstelsel se toevoervereistes en geassosieerde beperkings
is gebruik om ’n stel beoordelingsmaatstawwe vir die toestandafskatting-stelsel te bepaal.
Die stelsel is verder ontwikkel deur verskillende sensorkonfigurasies met die afskattingsalgoritmes
te kombineer deur die afleiding van toepaslike wiskundinge modelle. Hierdie konfigurasies
is verfyn deur ’n sensitiwiteitsanalise, waar die verwantskap tussen die effekte van
sensorruis, sensorligging, hoeveelheid sensors ondersoek is met betrekking tot afskattingsakkuraatheid.
Onsekerheid in die stelsel se prosesruis is deur ’n aanpassings substelsel hanteer, wat kompensasie
vir ongemodeleerde onsekerheid moontlik maak. Twaalf praktiese sensorkonfigurasies
is opgestel vanuit unieke kombinasies van die vyf sensore behartig in die projek. Hierdie
konfigurasies is deur beide afskattingsalgoritmes gebruik om sodoende die akkuraatheid van
die konfigurasies asook die afskattingsalgoritmes te evalueer met betrekking tot mekaar en
aan die hand van die beoordelingsmaatstawwe vir die beheerstelsel. Die tesis is afgesluit deur
gevolgtrekkings asook aanbevelings vir toekomstige navorsing.
|
310 |
Estimation et test dans les modèles paramétriques de processus stationnairesPham Dinh, Tuan 27 January 1975 (has links) (PDF)
.
|
Page generated in 0.076 seconds