• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 64
  • 6
  • Tagged with
  • 152
  • 83
  • 63
  • 46
  • 36
  • 35
  • 33
  • 33
  • 31
  • 25
  • 22
  • 20
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

IRM microscopique 3D de la migration de cellules tumorales et tractographie du cerveau de souris : applications à un modèle de glioblastome Glio6 et de schizophrénie MAP6 / 3D microscopic MRI of the migration of tumor cells and mouse brain tractography : applications to a model of glioblastoma Glio6 and a model of schizophrenia MAP6

Gimenez, Ulysse 11 December 2015 (has links)
Cette thèse a pour but de développer des techniques en imagerie par résonance magnétique(IRM) afin de détecter des altérations neurologiques à l’échelle microscopique dans des modèlesanimaux. Deux modèles chez la souris ont été étudiés en particulier: le modèle Glio6 de glioblastomehumain et le modèle MAP6, apparenté à la schizophrénie. Les méthodologies développées ont étécentrées autour de l’IRM du tenseur de diffusion (DTI) 3D rapide et à haute résolution spatiale pourdes applications ex vivo et in vivo chez le rongeur. Dans le modèle Glio6, la migration de cellulestumorales dans le corps calleux a été précocement détectée et quantifiée alors qu’aucun signe n’étaitvisible sur les IRM anatomiques classiques. La tractographie, imagerie des fibres de la matièreblanche, a permis d’identifier des déficits de certains tracts et de leurs connectivités dans le modèleMAP6. Des altérations inhomogènes ont été détectées, avec en particulier une réduction drastique dela voie cortico-spinale, résultats mettant en exergue le rôle primordial de la protéine MAP6 lors de laneuromorphogénèse. La méthode « Super Résolution » développée puis appliquée in vivo aux sourisMAP6, a permis d’obtenir en moins d’une heure une imagerie de tractographie comparable à celleobtenue ex vivo (en 59h), ce qui ouvre la voie à des suivis longitudinaux in vivo pour des études dudéveloppement du cerveau ou de l’évaluation de nouvelles thérapies. D’autre part, une méthode IRMcellulaire in vivo quantitative a été mise en place. Le principe repose sur la mesure combinée desrelaxivités cellulaires in vitro (pouvoir à réduire les temps de relaxation T2*, T2 et T1) pour convertir lestrois paramètres de la relaxation in vivo en concentrations cellulaires. En utilisant le modèle de gliomeU87 et des cellules U937 marquées magnétiquement, les résultats ont montré qu’une très large gammede concentrations cellulaires peut être quantifiée et que la biodistribution des cellules U937 autour dela tumeur est hétérogène, information essentielle pour étudier l’efficacité d’une thérapie cellulaire. / This thesis aims to develop magnetic resonance imaging (MRI) techniques to detectneurological damage at the microscopic level in animal models. Two mouse models were examined inparticular human glioblastoma model (Glio6) and a schizophrenia mouse model (MAP6 model). Themethodologies developed were centered around 3D fast diffusion tensor imaging (DTI) with highspatial resolution for ex vivo and in vivo applications in rodents. In Glio6 model, the migration oftumor cells in the corpus callosum was early detected and quantified while no signs were visible onconventional anatomical MRI. Tractography identified deficits of some tracts and their connectivity inthe MAP6 model. Inhomogeneous alterations were detected, especially with a drastic reduction of thecorticospinal pathway. Theses results highlight the crucial role of the MAP6 protein in the braindevelopment. The "Super Resolution" post-proccesing was developed and applied in vivo to MAP6mouse model. Tractography imaging comparable to that obtained ex vivo (in 59h) was obtained in lessthan one hour, paving the way for in vivo longitudinal studies as brain development studies orevaluation of new therapies. On the other hand, a in vivo cellular MRI method has been established.The principle is based on the combined measurement of cell relaxivities in vitro, to obtain in vivo cellconcentrations based on relaxation parameters. Using the U87 glioma model and U937 magneticallylabeled cells, the results showed that a wide range of cell concentrations can be quantified and thebiodistribution of U937 cells around the tumor is heterogeneous, information essential to study theeffectiveness of cell therapy.
82

Parametric approaches for modelling local structure tensor fields with applications to texture analysis / Approches paramétriques pour la modélisation de champs de tenseurs de structure locaux et applications en analyse de texture

Rosu, Roxana Gabriela 06 July 2018 (has links)
Cette thèse porte sur des canevas méthodologiques paramétriques pour la modélisation de champs de tenseurs de structure locaux (TSL) calculés sur des images texturées. Estimé en chaque pixel, le tenseur de structure permet la caractérisation de la géométrie d’une image texturée à travers des mesures d’orientation et d’anisotropie locales. Matrices symétriques semi-définies positives, les tenseurs de structure ne peuvent pas être manipulés avec les outils classiques de la géométrie euclidienne. Deux canevas statistiques riemanniens, reposant respectivement sur les espaces métriques a ne invariant (AI) et log-euclidien (LE), sont étudiés pour leur représentation. Dans chaque cas, un modèle de distribution gaussienne et de mélange associé sont considérés pour une analyse statistique. Des algorithmes d’estimation de leurs paramètres sont proposés ainsi qu’une mesure de dissimilarité. Les modèles statistiques proposés sont tout d’abord considérés pour décrire des champs de TSL calculés sur des images texturées. Les modèles AI et LE sont utilisés pour décrire des distributions marginales de TSL tandis que les modèles LE sont étendus afin de décrire des distributions jointes de TSL et de caractériser des dépendances spatiales et multi-échelles. L’ajustement des modèles théoriques aux distributions empiriques de TSL est évalué de manière expérimentale sur un ensemble de textures composées d’un spectre assez large de motifs structuraux. Les capacités descriptives des modèles statistiques proposés sont ensuite éprouvées à travers deux applications. Une première application concerne la reconnaissance de texture sur des images de télédétection très haute résolution et sur des images de matériaux carbonés issues de la microscopie électronique à transmission haute résolution. Dans la plupart des cas, les performances des approches proposées sont supérieures à celles obtenues par les méthodes de l’état de l’art. Sur l’espace LE, les modèles joints pour la caractérisation des dépendances spatiales au sein d’un champ de TSL améliorent légèrement les résultats des modèles opérant uniquement sur les distributions marginales. La capacité intrinsèque des méthodes basées sur le tenseur de structure à prendre en considération l’invariance à la rotation, requise dans beaucoup d’applications portant sur des textures anisotropes, est également démontrée de manière expérimentale. Une deuxième application concerne la synthèse de champs de TSL. A cet e et, des approches mono-échelle ainsi que des approches pyramidales multi-échelles respectant une hypothèse markovienne sont proposées. Les expériences sont effectuées à la fois sur des champs de TSL simulés et sur des champs de TSL calculés sur des textures réelles. Efficientes dans quelques configurations et démontrant d’un potentiel réel de description des modèles proposés, les expériences menées montrent également une grande sensibilité aux choix des paramètres qui peut s’expliquer par des instabilités d’estimation sur des espaces de grande dimension. / This thesis proposes and evaluates parametric frameworks for modelling local structure tensor (LST) fields computed on textured images. A texture’s underlying geometry is described in terms of orientation and anisotropy, estimated in each pixel by the LST. Defined as symmetric non-negative definite matrices, LSTs cannot be handled using the classical tools of Euclidean geometry. In this work, two complete Riemannian statistical frameworks are investigated to address the representation of symmetric positive definite matrices. They rely on the a ne-invariant (AI) and log-Euclidean (LE) metric spaces. For each framework, a Gaussian distribution and its corresponding mixture models are considered for statistical modelling. Solutions for parameter estimation are provided and parametric dissimilarity measures between statistical models are proposed as well. The proposed statistical frameworks are first considered for characterising LST fields computed on textured images. Both AI and LE models are first employed to handle marginal LST distributions. Then, LE models are extended to describe joint LST distributions with the purpose of characterising both spatial and multiscale dependencies. The theoretical models’ fit to empirical LST distributions is experimentally assessed for a texture set composed of a large diversity of patterns. The descriptive potential of the proposed statistical models are then assessed in two applications. A first application consists of texture recognition. It deals with very high resolution remote sensing images and carbonaceous material images issued from high resolution transmission electron microscopy technology. The LST statistical modelling based approaches for texture characterisation outperform, in most cases, the state of the art methods. Competitive texture classification performances are obtained when modelling marginal LST distributions on both AI and LE metric spaces. When modelling joint LST distributions, a slight gain in performance is obtained with respect to the case when marginal distributions are modelled. In addition, the LST based methods’ intrinsic ability to address the rotation invariance prerequisite that arises in many classification tasks dealing with anisotropic textures is experimentally validated as well. In contrast, state of the art methods achieve a rather pseudo rotation invariance. A second application concerns LST field synthesis. To this purpose, monoscale and multiscale pyramidal approaches relying on a Markovian hypothesis are developed. Experiments are carried out on toy LST field examples and on real texture LST fields. The successful synthesis results obtained when optimal parameter configurations are employed, are a proof of the real descriptive potential of the proposed statistical models. However, the experiments have also shown a high sensitivity to the parameters’ choice, that may be due to statistical inference limitations in high dimensional spaces.
83

Modèles d'embeddings à valeurs complexes pour les graphes de connaissances / Complex-Valued Embedding Models for Knowledge Graphs

Trouillon, Théo 29 September 2017 (has links)
L'explosion de données relationnelles largement disponiblessous la forme de graphes de connaissances a permisle développement de multiples applications, dont les agents personnels automatiques,les systèmes de recommandation et l'amélioration desrésultats de recherche en ligne.La grande taille et l'incomplétude de ces bases de donnéesnécessite le développement de méthodes de complétionautomatiques pour rendre ces applications viables.La complétion de graphes de connaissances, aussi appeléeprédiction de liens, se doit de comprendre automatiquementla structure des larges graphes de connaissances (graphes dirigéslabellisés) pour prédire les entrées manquantes (les arêtes labellisées).Une approche gagnant en popularité consiste à représenter ungraphe de connaissances comme un tenseur d'ordre 3, etd'utiliser des méthodes de décomposition de tenseur pourprédire leurs entrées manquantes.Les modèles de factorisation existants proposent différentscompromis entre leur expressivité, et leur complexité en temps et en espace.Nous proposons un nouveau modèle appelé ComplEx, pour"Complex Embeddings", pour réconcilier expressivité etcomplexité par l'utilisation d'une factorisation en nombre complexes,dont nous explorons le lien avec la diagonalisation unitaire.Nous corroborons notre approche théoriquement en montrantque tous les graphes de connaissances possiblespeuvent être exactement décomposés par le modèle proposé.Notre approche, basées sur des embeddings complexesreste simple, car n'impliquant qu'un produit trilinéaire complexe,là où d'autres méthodes recourent à des fonctions de compositionde plus en plus compliquées pour accroître leur expressivité.Le modèle proposé ayant une complexité linéaire en tempset en espace est passable à l'échelle, tout endépassant les approches existantes sur les jeux de données de référencepour la prédiction de liens.Nous démontrons aussi la capacité de ComplEx àapprendre des représentations vectorielles utiles pour d'autres tâches,en enrichissant des embeddings de mots, qui améliorentles prédictions sur le problème de traitement automatiquedu langage d'implication entre paires de phrases.Dans la dernière partie de cette thèse, nous explorons lescapacités de modèles de factorisation à apprendre lesstructures relationnelles à partir d'observations.De part leur nature vectorielle,il est non seulement difficile d'interpréter pourquoicette classe de modèles fonctionne aussi bien,mais aussi où ils échouent et comment ils peuventêtre améliorés. Nous conduisons une étude expérimentalesur les modèles de l'état de l'art, non pas simplementpour les comparer, mais pour comprendre leur capacitésd'induction. Pour évaluer les forces et faiblessesde chaque modèle, nous créons d'abord des tâches simplesreprésentant des propriétés atomiques despropriétés des relations des graphes de connaissances ;puis des tâches représentant des inférences multi-relationnellescommunes au travers de généalogies synthétisées.À partir de ces résultatsexpérimentaux, nous proposons de nouvelles directionsde recherches pour améliorer les modèles existants,y compris ComplEx. / The explosion of widely available relational datain the form of knowledge graphsenabled many applications, including automated personalagents, recommender systems and enhanced web search results.The very large size and notorious incompleteness of these data basescalls for automatic knowledge graph completion methods to make these applicationsviable. Knowledge graph completion, also known as link-prediction,deals with automatically understandingthe structure of large knowledge graphs---labeled directed graphs---topredict missing entries---labeled edges. An increasinglypopular approach consists in representing knowledge graphs as third-order tensors,and using tensor factorization methods to predict their missing entries.State-of-the-art factorization models propose different trade-offs between modelingexpressiveness, and time and space complexity. We introduce a newmodel, ComplEx---for Complex Embeddings---to reconcile both expressivenessand complexity through the use of complex-valued factorization, and exploreits link with unitary diagonalization.We corroborate our approach theoretically and show that all possibleknowledge graphs can be exactly decomposed by the proposed model.Our approach based on complex embeddings is arguably simple,as it only involves a complex-valued trilinear product,whereas other methods resort to more and more complicated compositionfunctions to increase their expressiveness. The proposed ComplEx model isscalable to large data sets as it remains linear in both space and time, whileconsistently outperforming alternative approaches on standardlink-prediction benchmarks. We also demonstrateits ability to learn useful vectorial representations for other tasks,by enhancing word embeddings that improve performanceson the natural language problem of entailment recognitionbetween pair of sentences.In the last part of this thesis, we explore factorization models abilityto learn relational patterns from observed data.By their vectorial nature, it is not only hard to interpretwhy this class of models works so well,but also to understand where they fail andhow they might be improved. We conduct an experimentalsurvey of state-of-the-art models, not towardsa purely comparative end, but as a means to get insightabout their inductive abilities.To assess the strengths and weaknesses of each model, we create simple tasksthat exhibit first, atomic properties of knowledge graph relations,and then, common inter-relational inference through synthetic genealogies.Based on these experimental results, we propose new researchdirections to improve on existing models, including ComplEx.
84

Apport de l’analyse temps-fréquence combinée à l’analyse de formes pour le traitement ISAR

Corretja, Vincent 30 January 2013 (has links)
Dans le cadre de la surveillance maritime, les opérationnels ont de plus en plus recours à l'imagerie radar pour classifier à grande distance un objet marin. Le traitement ISAR (Inverse Synthetic Aperture Radar) répond à ce besoin. Il repose en particulier sur l'analyse des mouvements propres de l'objet marin. Une fois l'objet détecté, il s'agit d'afficher sur la console tactique la représentation de la fréquence Doppler en fonction de la distance, aussi appelée image range-Doppler. Le travail présenté dans ce mémoire s'inscrit dans une perspective d'évolution opérationnelle de la chaîne de traitement existante. Il vise à produire de manière automatique la « meilleure » image range-Doppler. Dans cette thèse, nos contributions s'appuient sur l'idée de reconsidérer la chaîne de traitement en tenant compte de l'a priori que l'objet marin est un objet rigide dont la géométrie structure l'évolution du signal radar. Ainsi, dans une première contribution, nous proposons une nouvelle méthode d'analyse temps-fréquence du signal radar afin d'obtenir une image instantanée où l'opérationnel peut distinguer « au mieux » les superstructures de l'objet marin. Cette dernière est fondée sur la fusion de plusieurs représentations temps-fréquence issues de la classe de Cohen en faisant l'hypothèse que les composantes temps-fréquence sont des trajectoires structurées 2D dans le plan temps-fréquence, contrairement aux termes d'interférences induits par la propriété de bilinéarité des membres de cette classe. Une étude comparative sur données synthétiques et ISAR est menée pour confirmer la pertinence de notre approche, notamment du point de vue de la résolution temps-fréquence et de la suppression des termes d'interférences.Dans une seconde contribution, nous établissons une nouvelle procédure pour qualifier chaque image range-Doppler, obtenue à l'issue de l'analyse temps-fréquence, avec des mesures d'irrégularité de formes que nous fusionnons à l'aide d'un opérateur d'agrégation. Des simulations sur données réelles sont réalisées. Les résultats concordent avec une analyse subjective menée par des opérationnels, ce qui confirme l'efficacité de notre méthode. / In maritime surveillance, radar imaging plays a key role to classify a maritime object. ISAR processing is one of the solutions, which takes advantage of the object rotational motion to provide a range-Doppler image.The work, presented in this report, is an evolution of the existing ISAR processing chain. Therefore, our contributions are based on the processing chain reconsideration by taking into account the fact that the maritime object is a rigid object, the geometry of which influences the radar signal evolution.In a first contribution, we propose a new time-frequency analysis method based on the aggregation of some time-frequency representations obtained with Cohen class members. It consists in differentiating the signal, assumed to be characterized by 2-D near-linear stable trajectories in the time-frequency plane, and the cross-terms, assumed to be geometrically unstructured. A comparative study is then carried out on ISAR synthetic data to confirm the efficiency of our approach.In a second contribution, we present a new procedure to characterize each range-Doppler image, obtained from a time-frequency analysis, by means of shape irregularity measures that are combined with a fuzzy logic operator. To validate our approach, simulations on real data are done. The results are compared to a subjective analysis carried out with practionners.
85

Gustave Guillaume. Aux sources archéologiques du problème de l'article / Gustave Guillaume : an inquiry into the archeological sources of the problem of the article

Babu, Jean-Philippe 07 July 2014 (has links)
Dans Le problème de l’article et sa solution dans la langue française, ouvrage publié en 1919, mais qui reprenait le contenu du mémoire qu’il présenta en 1917 pour l’obtention du diplôme de l'École pratique des Hautes Études, Gustave Guillaume soutenait deux thèses majeures. La première, bien connue, est que l’article est la solution apportée à un problème de représentation existant « universellement pour l’esprit humain », à savoir le problème de « la transition du nom en puissance au nom en effet ». La deuxième thèse est que l’apparition récente et simultanée dans un grand nombre de langues indo-européennes de cette catégorie grammaticale est le résultat d’une « intention systématique ». Moins remarquée et, semble-t-il, moins appréciée par Antoine Meillet que la première, elle lui était pourtant consubstantielle. Notre enquête sur les sources archéologiques de la pensée guillaumienne de l’article montre que dans son premier ouvrage, Guillaume posait les jalons d’une linguistique génétique, ou selon sa propre terminologie, d’une linguistique transcendante, capable de relier l’étude des faits de langue à leur origine dans l’esprit humain. Cette restauration de la subjectivité représentative le conduira à affirmer plus tard que ce n’est pas seulement l’article mais le système entier de la langue qui constitue la réponse à un problème humain de représentation : « un système, est, à tout moment, la solution réussie d'un problème de représentation posé à l'esprit humain » (leçon du 11 janvier 1946). Humboldt disait que la langue est une energeia, qu’elle est « la réitération éternellement recommencée du travail qu’accomplit l’esprit afin de ployer le son articulé à l’expression de la pensée ». Après 1919, toutes les recherches de Guillaume visèrent à le démontrer. / In The Problem of the article and its solution in the French language, published in 1919, but drawned from the thesis he defended for graduating at l'École pratique des Hautes Études, Gustave Guillaume brought up two major thesis. Well known, the first thesis argues that the article is the solution to a problem of representation existing « universellement pour l’esprit humain », that is to say the problem of « la transition du nom en puissance au nom en effet ». The second one is that the recent and independant appearance of the article in many indo-european languages is the result of « une intention systématique ». Less noticed, and apparently not as highly estimeed by Antoine Meillet, this second thesis was anyhow consubstantial with the first one. Our inquiry into the archeological sources of Guillaume’s thought of the article shows that in his first work, the French linguist prepared the ground for a genetic approach to the understanding of language, in other words, for what he called a linguistics bringing the explanation on a transcendental plan and able to link the study of linguistic facts with their origin in the human mind. This restoration of the representative subjectivity will lead him to claim that not only the article but the whole system of language is the answer to a human problem of representation : « un système, est, à tout moment, la solution réussie d'un problème de représentation posé à l'esprit humain » (leçon du 11 janvier 1946). Humboldt said that language is an energeia, the « continual intellectual effort to make the articulated sound capable of expressing thought ». After 1919, in all of his research, Guillaume will aim at proving it.
86

Electromagnetic modeling and characterization of anisotropic ferrite materials for microwave Isolators/Circulators / Modélisation et Caractérisation de matériaux ferrites anisotropes pour les dispositifs micro-ondes isolateurs/circulateurs

V K Thalakkatukalathil, Vinod 15 December 2017 (has links)
Les circulateurs et les isolateurs à ferrite sont couramment utilisés dans l’électronique hyperfréquence en raison de leur forte résistivité électrique et de leur aimantation spontanée élevée. La conception et l’optimisation des dispositifs micro-ondes à ferrites nécessitent d’une part la connaissance de leurs propriétés dynamiques, permittivité complexe et tenseur de perméabilité, et d’autre part le contrôle de la propagation de l’onde électromagnétique (EM) qui conditionne leurs performances. Les logiciels commerciaux de simulation utilisent différents modèles théoriques pour décrire le tenseur de perméabilité en fonction de l’état d’aimantation. Cependant la plupart de ces simulateurs EM restent limités à des états particuliers d’aimantation en raison des hypothèses simplificatrices des modèles de perméabilité utilisés. Dans ce travail de thèse, nous présentons un outil prédictif pour l’étude des propriétés EM des ferrites quel que soit leur état d’aimantation et qui tient compte de l’inhomogénéité des champs internes de polarisation. Cette modélisation combine des techniques expérimentales de détermination des paramètres physiques des ferrites et un modèle théorique qui utilise ces paramètres pour décrire le comportement dynamique des ferrites quel que soit l’état d’aimantation. Dans la première partie de la thèse nous présentons une méthode large bande en ligne coaxiale pour la mesure du coefficient d’amortissement. Les paramètres S théoriques sont calculés à partir d’une analyse EM (problème direct) de la cellule de mesure. Pour le problème inverse, une optimisation numérique a été développée pour calculer le coefficient d’amortissement (α) par comparaison des paramètres S calculés avec ceux mesurés. Dans la seconde partie de la thèse, nous présentons un outil théorique de modélisation EM qui combine une analyse magnétostatique, un modèle du tenseur de perméabilité généralisé (GPT) et le simulateur Ansys HFSSTM. La majorité des paramètres d’entrée comme l’aimantation à saturation ou le champ d’anisotropie peuvent être mesurés à l’aide de techniques standards de caractérisation statique. Seul le paramètre dynamique, le coefficient d’amortissement, est déterminé à l’aide de la technique en ligne coaxiale proposée dans la première partie de la thèse. L’outil théorique développé est ensuite validé par la modélisation et la réalisation d’un circulateur micro-ruban à jonction Y. Grâce à la prise en compte de l’inhomogénéité des champs internes de polarisation, l’outil théorique proposé permet de mieux prédire le comportement dynamique des dispositifs à ferrites et cela pour tout état d’aimantation. / Ferrites are widely used in microwave electronics, particularly for circulators and insulators, because of their high electrical resistivity and high spontaneous magnetization. Design and optimization of microwave devices using ferrites requires realistic knowledge of its dynamic response, namely complex permittivity and permeability tensor and, on the other hand, control of wave propagation that condition their performance. Commercial simulation software use different theoretical models to describe the permeability tensor according to the state of magnetization. However, most of the electromagnetic (EM) simulators remain limited to certain states of magnetization, due to the simplified assumptions on which their permeability models are based upon.In this thesis work, we presented a predictive electromagnetic tool to study the EM properties of ferrites, whatever their magnetization state is, and takes into account the inhomogeneity of the internal polarization fields. This theoretical modeling approach combines experimental techniques to find the physical parameters of the ferrites, and a theoretical model which will use these parameters to describe the dynamic behavior of ferrites at any magnetization state.In the first part of the thesis, we presented a broadband coaxial line method for damping factor measurement. Theoretical S parameters are calculated using the EM analysis (direct problem) of the measurement cell. In the inverse problem, a numerical optimization procedure is developed to compute the damping factor (α) by matching theoretical S parameters with measured S parameters.During the second part of the thesis, we developed a theoretical EM modeling tool which combines a magneto-static solver, generalized permeability tensor model and commercial simulation software Ansys HFSSTM. Most of the input parameters like saturation magnetization, anisotropy field, etc. can be measured using standard characterization methods, except the damping factor used to represent the dynamic losses. Static input parameters of this theoretical tool are determined using standard material characterization methods.Dynamic input parameter, damping factor is calculated using the coaxial line technique proposed in the first part of this thesis. Theoretical EM tool is validated by modeling, and realizing a microstrip Y-junction circulator. By taking into account the inhomogeneity of the internal polarizing fields, proposed theoretical tool can predict the dynamic behavior of ferrite devices more accurately, at all magnetization states.
87

Diffusion acoustique dans les lieux de travail / Acoustical diffusion in workspaces

Dujourdy, Hugo 29 April 2016 (has links)
Il y a plus d'un siècle, les conditions de travail ont fortement évolué sous l'influence de l'industrialisation et notamment à partir de nouvelles méthodes de travail du type Tayloriennes. Des bureaux ouverts à l'Action Office des années 50, c'est plus de 60% de la population active qui est concernée aujourd'hui en Europe. L'évolution des réglementations, liée à la prise de conscience collective des effets psychosomatiques des nuisances sonores, entraîne l'implication par les maîtrises d'ouvrages de bureaux d'études acoustiques pour la préconisation et la mise en œuvre dans la construction et la réhabilitation des espaces tertiaires. La rencontre d'acteurs scientifiques et industriels a donné lieu à ce travail de thèse, étudiant la propagation de l'énergie acoustique pour des espaces dont une des dimensions est différente des autres.La méthode se réduit à la conservation du tenseur énergie-impulsion puis à un système d'équations couplées sur l'intensité acoustique et sur la densité d'énergie. C'est un système hyperbolique d'équations linéaires aux dérivés partielles du premier ordre. Une méthode d'intégration sur une à deux dimensions de l'espace permet d'introduire les coefficients d'absorption et de diffusion moyens. Nous introduisons le potentiel d'intensité et nous écrivons le système sous la forme d'une équation hyperbolique linéaire aux dérivées partielles du second ordre impliquant la densité d'énergie, l'intensité acoustique ou le potentiel d'intensité sur une ou deux dimensions. Nous proposons une méthode analytique approchée permettant de vérifier les résultats à une dimension.Pour la conception acoustique des plateaux de bureaux, la modélisation informatique est un outil remarquable souffrant pourtant de limitations restreignant ses applications. Nous résolvons le formalisme introduit dans ce travail par la méthode des différences finies dans le domaine temporel sur une et deux dimensions. Les schémas utilisés sont stables et explicites et peu couteux en mémoires informatiques. Le fait que nous nous intéressions à une variable énergétique permet de considérer un pas de modélisation spatial important - de l'ordre du mètre - et d'accélérer d'autant les calculs.Le partenariat industriel nous a notamment permis d'accéder à des espaces de type plateaux de bureaux. Nous comparons les résultats des modélisations avec des mesures in situ conduites avec un microphone SoundField ST250 permettant l'estimation de la densité d'énergie et de l'intensité acoustique. / More than a century ago, working conditions have evolved under the influence of industrialization and especially of new management methods such as the Taylorism. From Open-Spaces to Action Offices in the 1950s, more than 60 % of the European working population is concerned today. The evolution of regulations, linked to the collective awareness of the psychosomatic effects of noise, has led clients to request the involvement of acoustical consultants for giving recommendations and supervising their implementation in constructions and rehabilitations of office spaces. This is why scientific and industrial stakeholders joined forces for this thesis dedicated to the propagation of sound energy within rooms characterized by one dimension different from the others.The method developed in this thesis reduces the conservation of the energy-stress tensor to a system of coupled equations for the sound intensity and the sound energy density. It is a hyperbolic system of linear, partial differential equations of first order. Integrating this system on one or two space dimensions leads to the introduction of the mean absorption and diffusion coefficients. We then introduce an intensity potential and write the system in the form of a linear hyperbolic equation involving partial derivatives of second order for the energy density, the sound intensity, or the intensity potential in one or two dimensions. We also propose an analytical approximated method to verify the results in one dimension.For the acoustic design of open-space offices, computer modelling is an outstanding tool. Yet limitations restrict its applications. We solve the equations introduced in this work by the finite-difference time-domain method in the one- and two-dimensional cases. We use stable and explicit schemes that require little computer memory. Considering energy variables allows the use of large spatial steps - of the order of the metre - and accelerates the calculations.The industrial partnership notably gave us access to open-space offices. We compare the results of the modelling with in situ measurements carried out with a SoundField ST250 microphone that makes it possible to estimate the sound energy density and the sound intensity.
88

Analyse / synthèse de champs de tenseurs de structure : application à la synthèse d’images et de volumes texturés / Analysis / synthesis of structure tensor fields : application to the synthesis of textured images and volumes

Akl, Adib 11 February 2016 (has links)
Cette thèse s’inscrit dans le contexte de la synthèse d’images texturées. Dans l’objectif d’assurer une reproduction fidèle des motifs et des variations d’orientations d’une texture initiale, un algorithme de synthèse de texture à deux étapes « structure/texture » est proposé. Il s’agit, dans une première étape, de réaliser la synthèse d’une couche de structure caractérisant la géométrie de l’exemplaire et représentée par un champ de tenseurs de structure et, dans une deuxième étape, d’utiliser le champ de structure résultant pour contraindre la synthèse d’une couche de texture portant des variations plus locales. Une réduction du temps d’exécution est ensuite développée, fondée notamment sur l’utilisation de pyramides Gaussiennes et la parallélisation des calculs mis en oeuvre.Afin de démontrer la capacité de l’algorithme proposé à reproduire fidèlement l’aspect visuel des images texturées considérées, la méthode est testée sur une variété d’échantillons de texture et évaluée objectivement à l’aide de statistiques du 1er et du 2nd ordre du champ d’intensité et d’orientation. Les résultats obtenus sont de qualité supérieure ou équivalente à ceux obtenus par des algorithmes de la littérature. Un atout majeur de l’approche proposée est son aptitude à synthétiser des textures avec succès dans de nombreuses situations où les algorithmes existants ne parviennent pas à reproduire les motifs à grande échelle.L’approche de synthèse structure/texture proposée est étendue à la synthèse de texture couleur. La synthèse de texture 3D est ensuite abordée et, finalement, une extension à la synthèse de texture de forme spécifiée par une texture imposée est mise en oeuvre, montrant la capacité de l’approche à générer des textures de formes arbitraires en préservant les caractéristiques de la texture initiale. / This work is a part of the texture synthesis context. Aiming to ensure a faithful reproduction of the patterns and variations of orientations of the input texture, a two-stage structure/texture synthesis algorithm is proposed. It consists of synthesizing the structure layer showing the geometry of the exemplar and represented by the structure tensor field in the first stage, and using the resulting tensor field to constrain the synthesis of the texture layer holding more local variations, in the second stage. An acceleration method based on the use of Gaussian pyramids and parallel computing is then developed.In order to demonstrate the ability of the proposed algorithm to faithfully reproduce the visual aspect of the considered textures, the method is tested on various texture samples and evaluated objectively using statistics of 1st and 2nd order of the intensity and orientation field. The obtained results are of better or equivalent quality than those obtained using the algorithms of the literature. A major advantage of the proposed approach is its capacity in successfully synthesizing textures in many situations where traditional algorithms fail to reproduce the large-scale patterns.The structure/texture synthesis approach is extended to color texture synthesis. 3D texture synthesis is then addressed and finally, an extension to the synthesis of specified form textures using an imposed texture is carried out, showing the capacity of the approach in generating textures of arbitrary forms while preserving the input texture characteristics.
89

Rupture continentale oblique : évolution tectonique du Golfe de Californie (Basse californie du Sud) du Néogène à l'actuel / Mechanisms of oblique breakup : a tectonic study of the Gulf of California from Neogene to present

Bot, Anna 01 September 2016 (has links)
Le Golfe de Californie (GOC) est un exemple de rift très oblique, au stade d'accrétion depuis 3,6 Ma au sud. La déformation continentale débute au Miocène dans un contexte arrière-arc, en relation avec la subduction de la plaque Pacifique sous la Plaque Nord-Américaine. L'objectif de cette thèse est de déterminer I'histoire de la déformation à I'origine de la rupture continentale ainsi que les phénomènes post-rupture. Cette étude utilise des données tectoniques, sismologiques et géomorphologiques sur la marge Ouest du GOC en Basse Californie du Sud. Elles sont calées temporellement par des datations d'isotopes radiogéniques et cosmogéniques. Une histoire polyphasée de la déformation, essentiellement post-magmatique, est proposée en termes d'évolution des directions des failles et de déformations relativement à la cinématique des plaques. Je démontre dans cette zone que la déformation qui conduit à l'amincissement et à l'étirement lithosphérique est d'abord fortement oblique et devient transtensive et moins oblique relativement à la cinématique à partir de 7-8 Ma. La marge étudiée est intégrée de manière cohérente à I'ensemble des domaines déformés associés à la formation du GOC. On montre notamment que les marges du GOC sont diachrones et qu'elles se forment par migration vers I'Ouest de la déformation vers la zone de subduction, qui devient inactive vers 12 Ma. La dynamique post-breakup du GOC est interprétée en termes de mobilisation par fluage de la croûte inférieure en relation avec un évènement thermique lié à la rupture du slab. En conclusion, l'évolution du GOC ne peut s'expliquer par les modèles simples de rifting oblique et de formation de marges passives. / The Gulf of California (GOC) is an example of highly-oblique rift. Oceanic accretion started 3.6 Ma ago at its southern end. The earliest continental extension started during the Miocene, in a back-arc setting, in connection with the subduction of the Pacific plate (PAC) beneath North America (NAM). ln this study, I reconstitute the strain evolution along the proximal Baja California margin. For this, I used original tectonic and seismological data which I collected in Baja California Sur (BCS). Those data were time-constrained with absolute dating (radiogenic and cosmogenic isotopes). I outline that the main stretching and thinning of the Late Miocene-Pliocene Baja California margin was highly oblique regarding NAM-PAC kinematic vector, turning less oblique. By integrating the studied margin in the evolution of the GOC, it is proposed that the final break-up mechanism occurred within a broad semi-ductile right-lateral central shear-zone. lt is shown that the two GOC passive margins didn't form at the same time, crustal strain migrating westward during the Miocene in response to a probable retreat of the dying slab. The active post-breakup deformation in the proximal BCS is best interpreted in connection with an outward flow of the lower crust in a trend compatible with the margin shaping inherited from the major GOC-normal to GOC-oblique Miocene crustal deformation. This ductile flow would be enhanced by the heat input from the slab rupture. To conclude, the GOC evolution as an oblique rift system adjusts with no existing analogical or numerical model of strain field evolution of oblique rifting, a probable consequence to the complex dynamics in back-arc settings.
90

Dépression post-AVC : apport d’une double approche de neuroimagerie et enquête en vie quotidienne / Post-stroke depression : linking MRI to daily life experience

Lagadec, Saioa 25 June 2012 (has links)
Près de 30% des patients ayant survécus à un AVC, développent une dépression (DPAVC) dont le retentissement sur la qualité de vie peut être majeur. Sa physiopathologie est encore méconnue et les critères diagnostiques ne sont pas clairement définis. Notre objectif est d'identifier des facteurs précoces neuropsychologiques et de neuroimagerie prédictifs d'une dépression 3 mois après l’AVC.Cinquante-cinq patients présentant un premier AVC, sans antécédent neurologique ou psychiatrique ont été inclus. Dix jours après l’AVC, la sévérité des symptômes dépressifs et anxieux a été évaluée d’une part, par les échelles standard d’Hamilton et d’autre part, en vie quotidienne durant 7 jours, par la méthode d’échantillonnage des expériences (ESM). Au même temps, un examen d’IRM multimodale a été réalisé (IRM fonctionnelle de repos, DTI et 3D T1) afin d'évaluer les modifications anatomo-fonctionnelles de l’organisation cérébrale. Trois mois après l’AVC, une mesure standard de la sévérité des symptômes dépressifs et anxieux est à nouveau effectuée. A partir de ces données nous avons exploré la relation existant entre 1/ la sévérité des symptômes dépressifs et les données IRM 2/ la sévérité des symptômes dépressifs et les données ESM 3/ la sévérité des symptômes dépressifs mesurée par ESM et les modifications anatomo-fonctionnelles cérébrales. Nous avons mis en évidence une modification de la connectivité fonctionnelle entre les régions postérieures du réseau en "default mode", de la même façon que dans les dépressions majeure et vasculaire ; et entre le cortex temporal moyen et ce réseau. A la phase aigue de l’AVC, 2 profils symptomatologiques se distinguent : le premier est caractérisé par une grande fatigue et une forte anhédonie, le deuxième est définit par de la tristesse, une forte anxiété, des pensées négatives et une forte réactivité émotionnelle. Ce dernier est associé au risque de DPAVC à 3 mois. Enfin, nous avons montré que les modifications fonctionnelles du DMN prédictives de l’AVC étaient associées à la réactivité émotionnelle, alors que le volume de substance grise du cervelet était corrélé à la fréquence des pensées positives et négatives.En conclusion, la physiopathologie de la DPAVC présenterait des similitudes avec celle de la dépression majeure et de la dépression vasculaire, mais aussi des différences comme l’engagement du cortex temporal moyen au sein du réseau en « default mode ». De plus, cette étude suggère qu'à côté de l'implication de la lésion cérébro-vasculaire, des critères de vulnérabilité psychobiologiques antérieurs à l’AVC influenceraient la survenue d’une dépression. / 30% of stroke survivors will experience Post-Stroke Depression (PSD) that is associated to a poor quality of life. PSD is still under-diagnosed due to the absence of clear diagnostic criteria and its pathophysiology remains unknown. The aim of this study was to identify early imaging and psychiatric risk factors of depression 3 months after stroke. Patients with a first ischemic stroke, without any neurologic and psychiatric history were included. Daily-life symptoms were evaluated using ESM 10 days after stroke. Brain MRI acquisition was performed at 10 days after stroke including DWI, FLAIR/T2, resting state fMRI and anatomical sequences. We explored the association between 1/ the severity of depressive symptoms and MRI data 2/ the severity of depressive symptoms and ESM data 3/ the severity of depressive symptoms measured by ESM and MRI data.Results revealed a modification of the functional connectivity between posterior structures of the DMN (Default Mode Network) and between the middle temporal cortex and the DMN. In the acute phase, depressed patients presented either high fatigue and anhedonia or another profile including high anxiety, negative thoughts and emotional reactivity which is associated to the risk of depression 3 months after stroke. Moreover, we demonstrated that functional connectivity modifications within the DMN and the cerebellum grey matter were respectively associated to emotional reactivity and the frequency of positive and negative thoughts.In conclusion, modifications of the DMN were implicated in the physiopathology of PSD in the same way that major or vascular depression, with a specificity represented by the new contribution of the middle temporal cortex within the DMN. Furthermore, this study suggests that more than a stroke lesion, anterior psychobiological vulnerabilities of an individual patient could mediate PSD occurrence.

Page generated in 0.3079 seconds