• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 364
  • 155
  • 25
  • 2
  • Tagged with
  • 541
  • 280
  • 155
  • 130
  • 120
  • 113
  • 98
  • 70
  • 70
  • 62
  • 52
  • 51
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Etude du transcriptome à partir de données de comptages issues de séquençage haut débit / Transcriptome analysis from high-throughput sequencing count data

Mirauta, Bogdan 12 December 2014 (has links)
Les technologies de séquençage jouent un rôle croissant dans l'analyse de l'expression des transcrits . La méthode la plus courante de séquençage du transcriptome, RNA-Seq est une méthode d'investigation d'une population de transcrits par cisaillement aléatoire, amplification et séquençage à haut débit. Les données issues du RNA-Seq peuvent être utilisées pour la quantification des niveaux d'expression des transcrits et pour la détection des régions transcrites et demandent des approches bioinformatiques.Nous avons développé des approches statistiques pour l'estimation des niveaux de transcription et l'identification des frontières de transcription sans faire usage de l'annotation existante et pour l'analyse des différences dans l'expression entre deux conditions. La reconstruction du paysage transcriptionel est faite dans un cadre probabiliste (Chaînes de Markov Caché - HMM) ou les variations du niveau de la transcription sont prises en compte en termes de changements brusques et de dérives. Le HMM est complété par une loi d'émission qui capture la variance des comptages dans un transcrit, l'auto-corrélation de courte portée et la fraction des positions avec zéro comptages. L'estimation repose sur un algorithme de Monte Carlo Séquentiel (SMC), le Particle Gibbs, dont le temps d'exécution est plus adapté aux génomes microbiennes. L'analyse des différences dans l'expression (DE) est réalisée sans faire usage de l'annotation existante. L'estimation de DE est premièrement faite à la résolution de position et en suite les régions avec un signal DE continu sont agrégés. Deux programmes nommés Parseq et Pardiff sont disponibles à http://www.lgm.upmc.fr/parseq/. / In this thesis we address the problem of reconstructing the transcription profile from RNA-Seq reads in cases where the reference genome is available but without making use of existing annotation. In the first two chapters consist of an introduction to the biological context, high-throughput sequencing and the statistical methods that can be used in the analysis of series of counts. Then we present our contribution for the RNA-Seq read count model, the inference transcription profile by using Particle Gibbs and the reconstruction of DE regions. The analysis of several data-sets proved that using Negative Binomial distributions to model the read count emission is not generally valid. We develop a mechanistic model which accounts for the randomness generated within all RNA-Seq protocol steps. Such a model is particularly important for the assessment of the credibility intervals associated with the transcription level and coverage changes. Next, we describe a State Space Model accounting for the read count profile for observations and transcription profile for the latent variable. For the transition kernel we design a mixture model combining the possibility of making, between two adjacent positions, no move, a drift move or a shift move. We detail our approach for the reconstruction of the transcription profile and the estimation of parameters using the Particle Gibbs algorithm. In the fifth chapter we complete the results by presenting an approach for analysing differences in expression without making use of existing annotation. The proposed method first approximates these differences for each base-pair and then aggregates continuous DE regions.
182

On the use of network coding and multicast for enhancing performance in wired networks / Sur l'utilisation du codage réseau et du multicast pour améliorer la performance dans les réseaux filaires

Wang, Yuhui 17 May 2013 (has links)
La popularité de la grande variété de l'utilisation d'Internet entraîne une croissance significative du trafic de données dans les réseaux de télécommunications. L'efficacité de la transmission de données sera contestée en vertu du principe de la capacité actuelle du réseau et des mécanismes de contrôle de flux de données. En plus d'augmenter l'investissement financier pour étendre la capacité du réseau, améliorer les techniques existantes est plus rationnel et éconmique.Diverses recherches de pointe pour faire face aux besoins en évolution des réseaux ont vu le jour, et l'une d'elles est appelée codage de réseau. Comme une extension naturelle dans la théorie du codage, il permet le mélange de différents flux réseau sur les noeuds intermédiaires, ce qui modifie la façon d'éviter les collisions de flux de données. Il a été appliqué pour obtenir un meilleur débit, fiabilité, sécurité et robustesse dans différents environnements et applications réseau. Cette thèse porte sur l'utilisation du réseau de codage pour le multicast dans les réseaux maillés fixes et systèmes de stockage distribués. Nous avons d'abord des modèles de différentes stratégies de routage multicast dans un cadre d'optimisation, y compris de multicast à base d'arbres et de codage de réseau; nous résolvons les modèles avec des algorithmes efficaces et comparons l'avantage de codage, en termes de gain de débit de taille moyenne graphique généré aléatoirement. Basé sur l'analyse numérique obtenue à partir des expériences précédentes, nous proposons un cadre révisé de routage multicast, appelé codage de réseau stratégique, qui combine transmission muticast standard et fonctions de codage de réseau afin d'obtenir le maximum de bénéfice de codage réseau au moindre coût lorsque ces coûts dépendent à la fois sur le nombre de noeuds à exécuter un codage et le volume de trafic qui est codé. Enfin, nous étudions le problème révisé de transport qui est capable de calculer un système de routage statique entre les serveurs et les clients dans les systèmes de stockage distribués où nous appliquons le codage pour soutenir le stockage de contenu. Nous étendons l'application à un problème d'optimisation général, nommé problème de transport avec des contraintes de degré, qui peut être largement utilisé dans divers domaines industriels, y compris les télécommunications, mais n'a pas été étudié très souvent. Pour ce problème, nous obtenons quelques résultats théoriques préliminaires et nous proposons une approche de décomposition Lagrange raisonnable / The popularity of the great variety of Internet usage brings about a significant growth of the data traffic in telecommunication network. Data transmission efficiency will be challenged under the premise of current network capacity and data flow control mechanisms. In addition to increasing financial investment to expand the network capacity, improving the existing techniques are more rational and economical. Various cutting-edge researches to cope with future network requirement have emerged, and one of them is called network coding. As a natural extension in coding theory, it allows mixing different network flows on the intermediate nodes, which changes the way of avoiding collisions of data flows. It has been applied to achieve better throughput and reliability, security, and robustness in various network environments and applications. This dissertation focuses on the use of network coding for multicast in fixed mesh networks and distributed storage systems. We first model various multicast routing strategies within an optimization framework, including tree-based multicast and network coding; we solve the models with efficient algorithms, and compare the coding advantage, in terms of throughput gain in medium size randomly generated graphs. Based on the numerical analysis obtained from previous experiments, we propose a revised multicast routing framework, called strategic network coding, which combines standard multicast forwarding and network coding features in order to obtain the most benefit from network coding at lowest cost where such costs depend both on the number of nodes performing coding and the volume of traffic that is coded. Finally, we investigate a revised transportation problem which is capable of calculating a static routing scheme between servers and clients in distributed storage systems where we apply coding to support the storage of contents. We extend the application to a general optimization problem, named transportation problem with degree constraints, which can be widely used in different industrial fields, including telecommunication, but has not been studied very often. For this problem, we derive some preliminary theoretical results and propose a reasonable Lagrangian decomposition approach
183

Algorithmes d'ordonnancement inter-couches avec adaptation de modulation et de codage dans les réseaux hétérogènes LTE / Cross-layer spectral and energy efficient scheduling algorithms with adaptive modulation and coding in LTE heterogeneous networks

Hatoum, Rima 26 June 2014 (has links)
Les systèmes de communication sans fil caractérisés par des services à haute vitesse sont en évolution permanentes malgré les restrictions en termes de la capacité du système et les conflits de couverture intérieure. Récemment, les réseaux “SmallCells” basés sur le standard LTE présentent une solution prometteuse en offrant les services demandés avec une meilleure couverture à l’intérieur et augmentant la capacité du système. Cependant, de nombreux défis rencontrent les constructeurs et les opérateurs pour un déploiement efficace de ces systèmes. Dans cette thèse, afin de développer ce type de réseaux et d’apporter des améliorations considérables de Qualité de Service (QoS) et de débits, nous adoptons une stratégie se basant complémentairement sur deux différents niveaux : couche de liaison (MAC) et couche physique. En première partie, au niveau de la couche de liaison, nous proposons deux algorithmes d’ordonnancement et d’allocation conjointes de ressources se basant sur la technique d’Adaptation de Modulation et de Codage (AMC) et sur le contrôle de puissance pour les deux liaisons descendante et montante respectivement. Deux catégories distinctes d’utilisateurs qui diffèrent par la Qualité de Service demandée sont considérées. Ces algorithmes sont nommés respectivement : “Downlink AMC-QRAP” et “Uplink AMC-QRAP”. L’adaptation conjointe de puissance de transmission et de type de Modulation&Codage répond forcement aux variations de la qualité de la liaison sur chaque canal radio destiné à être alloué. Cependant, les deux liaisons, descendante et montante diffèrent par leurs spécificités. En particulier, comme mode de transmission du signal, le système 3GPP LTE utilise la technique OFDMA pour la liaison descendante et la technique SC-FDMA, plus efficace en termes d’énergie, pour la liaison montante. Une modélisation sous forme de problèmes d’optimisation linéaire est ainsi conçue. Comme compromis entre les architectures de réseaux: centralisée et distribuée, nous utilisons l’architecture de groupes ou “clusters” ainsi proposée dans la littérature. Dans la deuxième partie de notre recherche, nous avons abord´e les techniques de la “couche physique” en termes de traitement de signal comme une approche d’amélioration du système LTE. Ainsi, deux contributions basées sur la “transformée en ondelettes” (Wavelet Transform) sont proposées. Premièrement, vu que la technique de modulation multi-porteuse OFDM souffre de plusieurs limitations en termes d’efficacité spectrale et énergétique, de synchronisation et d’interférence entre porteuses, nous proposons une méthode alternative basée sur les ondelettes. Nous avons démontré que la substitution de la transformée de Fourier par la transformée en ondelettes dans la technique OFDM permet de dépasser les différentes limitations de l’OFDM. Enfin, nous avons propos´e une approche pour délimiter et détecter les différents canaux de ressources alloués. Elle est utilisée dans l’algorithme d’ordonnancement de la transmission montante pour améliorer la fiabilité de la transmission et réduire le temps de convergence du problème d’optimisation. Des simulations étendues selon différentes densités de réseau ont été réalisées, en utilisant plusieurs paramètres tels que l’efficacité spectrale, la puissance de transmission, le taux de satisfaction en termes de débits demandés et la capacité du réseau. Nous avons comparé nos méthodes à plusieurs travaux existants dans la littérature et prouvé la surperformance pour les différents paramètres pris en compte. / Responding to the huge demand for high data rates and satisfying Quality of Service (QoS) requirements are the main objectives of the wireless mobile operators. LTE-based small cell system is a promising technology offering the required services, enhanced indoor coverage and increased system capacity. However, many challenges face the constructors and the operators for an effective deployment of these systems. In this thesis, in order to evolve such systems and adduce significant enhancement in terms of QoS and throughput, we adopt a complementary strategy based on both data link layer and physical layer.First, we propose, on the link layer level, two scheduling and joint resource allocation algorithm based on the Adaptive Modulation and Coding (AMC) and the power control mechanism for OFDMA-Downlink and SC-FDMA-Uplink connections respectively. Namely, they refer to: “Downlink AMC-QRAP” and “Uplink AMC-QRAP”. The joint adaptation of the transmission power and the Modulation and Coding Scheme reliably interacts with the link quality on each allocated sub-channel. Two distinct user categories are considered to differentiate between different QoS levels required. Accordingly, a linear optimization model is performed for the problem resolution. A clustering approach proposed in the literature has been used as a tradeoff between centralized and distributed schemes. Particularly, we used the spectrum sensing technique as proposed on the physical layer to detect surrounding transmissions.After that, we tackle the physical layer “signal processing” techniques as an LTE enhancement approach. Thus, two contributions based on the “wavelet transform” (WT) are proposed.The “wavelet-based OFDM” technique is firstly proposed as an alternative transmission mode for both downlink and uplink of the LTE and beyond wireless systems. In fact, theOFDM suffers from several limitations in terms of PAPR, spectral efficiency, synchronization cost and the inter-carrier interference. We proved that with substituting the Fourier transform by the wavelet transform in the OFDM technique, the different OFDM limitations can be significantly overcame. Second, we proposed an enhanced spectrum sensing approach based on WT tool that accurately delimits the occupied resource blocks in the whole spectrum. These physical layer enhancements help improving the scheduling algorithm for the uplink proposed in our second contribution.Extensive network simulations with different network densities have been conducted, using several metrics such as spectral efficiency, throughput satisfaction rate, user outage and transmission power. We have compared our methods to several existing works in the literature and proved the outperformance for the different considered metrics.
184

Multiscale cytometry of 3D cell cultures in microfluidic hydrogel arrays / Cytometrie multi-échelle de cultures cellulaires 3D dans des tableaux de billes de gel microfluidiques

Tomasi, Raphaël 16 December 2016 (has links)
Les conditions du corps humain ne sont pas reproduites fidèlement par la culture cellulaire traditionnelle en 2D. Dans cette thèse, des cultures cellulaires 3D sont réalisées dans une plateforme microfluidique hautement intégrée. Des cellules mammifères adhérentes sont encapsulées dans des gouttes immobilisées dans un tableau de pièges capillaires à haute densité. Dans chaque goutte, les cellules se réorganisent pour former un unique microtissu 3D et fonctionnel appelé sphéroïde. L'utilisation d'un hydrogel permet d'alonger le temps de culture et de perfuser le tableau avec des solutions aqueuses, par exemple pour de l'immuno-cyto-chimie. Un unique sphéroïde, viable, peut aussi être extrait de cette puce microfluidique. Des données quantitatives sont extraites à haut débit au niveau de la population, du sphéroïde (dizaines de miliers de sphéroïdes) et au niveau cellulaire emph{in situ} (centaines de miliers de cellules) grâce à de l'imagerie de fluorescence et au dévelopement d'un code d'analyse d'image. Une première preuve de concept a été obtenue en démontrant la viabilité, la prolifération et la fonctionalité de sphéroïdes d'hépatocytes et en les corrélant à des paramètres morphologiques. Ensuite, des aggrégats de cellules souches mésenchymales ont été produits et les hétérogénéités spatiales dans l'expression de protéines impliquées dans leurs propriétés thérapeutiques ont été étudiées. Enfin, cette technologie a été encore dévelopée pour permettre d'appliquer des conditions biochimiques différentes dans chaque goutte. La production et la culture de sphéroïdes dans cette plateforme microfluidique peut mener à des dévelopements importants dans beaucoup de domaines tels que l'analyse de la toxicité des médicaments, le criblage de médicaments à haut débit, le traitement personnalisé du cancer, l'ingénierie tissulaire ou la modélisation de maladies. / Conventional 2D cell culture fails to reproduce emph{in vivo} conditions. In this PhD thesis, 3D cell culture is implemented into a highly integrated microfluidic platform. Adherent mammalian cells are encapsulated in droplets immobilized on a high density array of capillary traps called anchors. In each droplet, the cells reorganize into a single functional 3D microtissue called spheroid. The use of an hydrogel allows to extend the culturing time in microdroplets and to perfuse the array with aqueous solutions, for instance for immuno-cyto-chemistry. A single and viable spheroid can also be selectively retrieved from the microfluidic chip. High throughput and quantitative data is extracted at the population, spheroid (tens of thousands of spheroids) and cellular level emph{in situ} (hundreds of thousands of cells) thanks to fluorescent imaging and a custom image analysis software. As a first proof of concept, the viability, proliferation and functionality of hp sh s were demonstrated and correlated with morphological parameters. Drug toxicity experiments were also performed on this liver model. Then, human mesenchymal stem cell aggregates were produced and the spatial heterogeneities of the expression of proteins involved in their therapeutic properties were investigated. Finally, this technology was further developed to enable applying different biochemical conditions in each droplet. The production and culture of spheroids in this microfluidic platform could lead to major advances in many fields such as drug toxicity, high throughput drug screening, personalized cancer treatment, tissue engineering or disease modeling.
185

Détection binaire distribuée sous contraintes de communication / Distributed binary detection with communication constraints

Katz, Gil 06 January 2017 (has links)
Ces dernières années, l'intérêt scientifique porté aux différents aspects des systèmes autonomes est en pleine croissance. Des voitures autonomes jusqu'à l'Internet des objets, il est clair que la capacité de systèmes à prendre des décision de manière autonome devient cruciale. De plus, ces systèmes opéreront avec des ressources limitées. Dans cette thèse, ces systèmes sont étudiés sous l'aspect de la théorie de l'information, dans l'espoir qu'une compréhension fondamentale de leurs limites et de leurs utilisations pourrait aider leur conception par les futures ingénieurs.Dans ce travail, divers problèmes de décision binaire distribuée et collaborative sont considérés. Deux participants doivent "déclarer" la mesure de probabilité de deux variables aléatoires, distribuées conjointement par un processus sans mémoire et désignées par $vct{X}^n=(X_1,dots,X_n)$ et $vct{Y}^n=(Y_1,dots,Y_n)$. Cette décision et prise entre deux mesures de probabilité possibles sur un alphabet fini, désignés $P_{XY}$ et $P_{bar{X}bar{Y}}$. Les prélèvements marginaux des variables aléatoires, $vct{X}^n$ et $vct{Y}^n$ sont supposés à être disponibles aux différents sites .Il est permis aux participants d'échanger des quantités limitées d'information sur un canal parfait avec un contraint de débit maximal. Durant cette thèse, la nature de cette communication varie. La communication unidirectionnelle est considérée d'abord, suivie par la considération de communication bidirectionnelle, qui permet des échanges interactifs entre les participants. / In recents years, interest has been growing in research of different autonomous systems. From the self-dring car to the Internet of Things (IoT), it is clear that the ability of automated systems to make autonomous decisions in a timely manner is crucial in the 21st century. These systems will often operate under stricts constains over their resources. In this thesis, an information-theoric approach is taken to this problem, in hope that a fundamental understanding of the limitations and perspectives of such systems can help future engineers in designing them.Throughout this thesis, collaborative distributed binary decision problems are considered. Two statisticians are required to declare the correct probability measure of two jointly distributed memoryless process, denoted by $vct{X}^n=(X_1,dots,X_n)$ and $vct{Y}^n=(Y_1,dots,Y_n)$, out of two possible probability measures on finite alphabets, namely $P_{XY}$ and $P_{bar{X}bar{Y}}$. The marginal samples given by $vct{X}^n$ and $vct{Y}^n$ are assumed to be available at different locations.The statisticians are allowed to exchange limited amounts of data over a perfect channel with a maximum-rate constraint. Throughout the thesis, the nature of communication varies. First, only unidirectional communication is allowed. Using its own observations, the receiver of this communication is required to first identify the legitimacy of its sender by declaring the joint distribution of the process, and then depending on such authentication it generates an adequate reconstruction of the observations satisfying an average per-letter distortion. Bidirectional communication is subsequently considered, in a scenario that allows interactive communication between the participants.
186

Implication du récepteur nucléaire orphelin Nur77 (Nr4a1) dans les effets des antipsychotiques par une approche de transcriptomique chez des rats déficients en Nur77

Majeur, Simon 11 1900 (has links)
Malgré l’usage de médicaments antipsychotiques depuis plusieurs décennies, leur mécanisme d’action précis, autre que leur interaction avec les récepteurs dopaminergiques et sérotoninergiques, demeure peu connu. Nur77 (Nr4a1 ou NGFI-B) est un facteur de transcription de la famille des récepteurs nucléaires associé aux effets des antipsychotiques. Ceci étant dit, le mécanisme d’action de Nur77 est également peu connu. Afin de mieux comprendre les éléments impliqués avec les antipsychotiques et l’activité de Nur77, nous avons comparé les niveaux de transcrits dans le striatum suite à un traitement avec l’halopéridol chez des rats sauvages et déficients en Nur77 à l’aide de la technique de séquençage à haut débit (RNAseq) et d’une analyse bio-informatique. L’halopéridol et Nur77 ont modulé d’importants groupes de gènes associés avec la signalisation des récepteurs dopaminergiques et la synapse glutamatergique. L’analyse a révélé des modulations de gènes clés reliés à la signalisation des protéines G. Parmi les transcrits modulés significativement chez les rats traités avec halopéridol et ceux déficients en Nur77, la dual specificity phosphatase 5 (Dusp5) représente un nouveau candidat d’intérêt. En effet, nous avons confirmé que les niveaux d’ARNm et protéiques de Dusp5 dans le striatum sont associés aux mouvements involontaires anormaux (dyskinésie) dans un modèle de primates non-humains traités chroniquement avec halopéridol. Cette analyse transcriptomique a démontré des altérations rapides et importantes d’éléments impliqués dans la signalisation des protéines G par l’halopéridol, et a permis d’identifier, pour la première fois, une expression de Dusp5 dépendante de Nur77 en tant que nouvelle composante reliée avec la dyskinésie tardive. / Despite antipsychotic drugs being used for several decades, their precise mechanism of action remains elusive. Nur77 (Nr4a1 or NGFI-B) is a transcription factor of the nuclear receptor family associated with antipsychotic drug effects. However, the mechanism of action of Nur77 is also not well understood. To better understand the signaling components implicated with antipsychotic drug use and Nur77 activity, we compared striatal gene transcripts following haloperidol in wild-type and Nur77-deficient rats using Next Generation RNA Sequencing (RNAseq) and a bioinformatics analysis. Haloperidol and Nur77 modulated important subsets of striatal genes associated with dopamine receptor signaling and glutamate synapses. The analysis revealed modulations of key components of G protein signaling that are consistent with a rapid adaptation of striatal cells that may partially explain long-term haloperidol-induced dopamine D2 receptor upregulation. Amongst significantly modulated transcripts in rats treated with haloperidol and rats deficient in Nur77, dual specificity phosphatase 5 (Dusp5) represents a new and very interesting candidate. Indeed, we confirmed that striatal Dusp5 mRNA and protein levels were associated with abnormal involuntary movements (dyskinesia) in non-human primates chronically exposed to haloperidol. This transcriptomic analysis showed important haloperidol-induced G protein-coupled receptor signaling alterations that may support a regulatory role of Nur77 in dopamine D2 receptor signaling pathways and identified, for the first time, a putative Nur77-dependent expression of Dusp5 as a new signaling component for antipsychotic drug-induced tardive dyskinesia.
187

Impact de la variabilité climatique récente (1970-2002) sur le débit des rivières alimentant en eau la grande région de Québec

Blouin, Sébastien 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / L'étude vise à montrer comment la variabilité climatique récente (1970-2002) a influé sur le débit des rivières Saint-Charles, Montmorency, Jacques-Cartier, Chaudière et Etchemin. Premièrement, les tendances dans le climat et les débits régionaux ont été identifiées. Un réchauffement variant entre 0,9°C et 1,6°C a notamment été mesuré; une baisse de pluviosité a été observée en août-septembre; une diminution des cumuls annuels de neige a caractérisé plusieurs secteurs. Pour les débits, des baisses de 25% à 80% ont caractérisé mai, août et septembre. Des autorégressions ont ensuite montré que la pluviosité a été dominante pour le contrôle des écoulements. L'altération de la pluviosité d'août-septembre est d'ailleurs la principale cause de l'accentuation des étiages d'été. Par ailleurs, le réchauffement semble avoir avancé la date des crues printanières par rapport aux années 1970; cela explique partiellement les baisses de débit de mai.
188

Nouvelles approches pour la détermination de la sévérité de la sténose aortique à partir des vitesses du flux sanguin mesurées par imagerie de résonance magnétique

Garcia Flores, Julio 18 April 2018 (has links)
Le rétrécissement de la valve aortique est la maladie cardiovasculaire la plus fréquente après la maladie coronarienne et l’hypertension. Actuellement, l’échocardiographie Doppler (ED) est le principal outil clinique pour déterminer l’aire valvulaire effective (AVE); un des principaux critères pour évaluer la sévérité de la sténose aortique (SA). Dans certains cas, il existe une discordance entre différents résultats obtenus par ED chez un même patient. Il est difficile, alors, de déterminer si ces discordances sont liées à des erreurs de mesure ou bien si elles correspondent à une réelle variation de la sévérité de la SA. L’imagerie cardiovasculaire par résonance magnétique (IRM) peut être utilisée pour évaluer et confirmer la sévérité de la SA. Les principaux objectifs sont : 1) Comparer l’AVE estimée par ED et IRM en utilisant la méthode de l’équation de continuité (EC); 2) Développer de nouvelles méthodes pour estimer l’AVE par IRM, 3) Déterminer la capacité de l’IRM à évaluer la cinétique d’ouverture et de fermeture de la valve aortique et 4) Valider des nouvelles méthodes pour estimer la vorticité par IRM. Nos travaux ont montré une bonne concordance entre les AVEs calculées par ED et IRM en utilisant l’EC. Nous avons donc étudié une nouvelle approche en IRM pour l’estimation de l’AVE en utilisant une nouvelle méthode développée in vitro (AVE par terme source acoustique). Nos travaux ont montré que l’AVE par terme source acoustique calculée à partir du champ de vitesses mesuré par IRM est une méthode fiable pour calculer AVE et elle peut être utilisée pour confirmer la sévérité de la SA lorsque l’examen ED est non concluant. D’autre part, nos travaux ont montré le potentiel de l’IRM pour estimer les indices de cinétique d’ouverture et fermeture de la valve aortique sténosée. En particulier, la pente d’ouverture corrélait mieux avec le taux plasmatique de Peptide Natriuretique de type B et avec un score de risque que les indices conventionnels de SA. Néanmoins, l’utilisation de l’EC pour estimer l’AVE et les indices de cinétique d’ouverture est sujette aux erreurs de mesure et impose un temps d’analyse plus long. En plus on a validé des nouvelles méthodes pour estimer la vorticité in vivo par IRM. La vorticité et les structures tourbillonnaires jouent un rôle fondamental dans l’évaluation des aspects énergétiques de la fonction cardiovasculaire. En conclusion, nos travaux ont souligné le potentiel de l’IRM pour l’évaluation de la sévérité de la SA et ont permis le développement et la validation de nouvelles méthodes pour estimer in vivo la vorticité par IRM. / Aortic valve stenosis is the most common cardiovascular disease after coronary artery diseases and hypertension. Doppler-echocardiography (DE) is the standard method for the evaluation of the severity of aortic stenosis (AS). Valve effective orifice area (EOA) measured by the continuity equation is one of the most frequently used stenotic indices. However, TTE measurement of aortic valve EOA is not feasible or not reliable in a significant proportion of patients. Cardiovascular magnetic resonance (CMR) has emerged as a non-invasive alternative method to evaluate EOA using velocity measurements. The objectives of this thesis were: 1) To compare the DE-derived EOA and CMR-derived EOA using the continuity equation (CE) and 2) To propose new CMR methods to assess EOA and the AS severity; 3) To determine the feasibility of the measurement of the parameters of valve opening and closing kinetics by CMR and 4) To validate new CMR methods to estimate vorticity magnitude. Our work showed a good agreement between the DE-derived EOA and CMR-derived EOA using the CE. This agreement was, however, only due to error compensations. We therefore developed and validated a new CMR method based on the acoustical source term (AST) to estimate the valve EOA and then to introduce a simplified version not requiring vorticity field derivation. This study showed that AST-derived EOA calculated from CMR velocity field measurements is a reliable method to estimate valve EOA and can be useful to confirm AS severity when DE examination is inconclusive. Hence, CMR provides a non-invasive and reliable alternative to DE for the quantification of AS severity. Our work also demonstrated the excellent feasibility and reproducibility of CMR for the measurement of valve kinetic parameters in patients with AS. Furthermore, these parameters compare favorably with conventional indices of stenosis severity to predict risk of poor prognosis. However, the use of CE to estimate EOA may be subject to measurement errors. Furthermore, a validation of new CMR methods for estimate vorticity magnitude was presented. Vorticity and vortical structures play a fundamental role affecting the evaluation of energetic aspects of cardiovascular function. In conclusion, our work demonstrates the feasibility, reliability, and utility of new CMR methods and parameters to identify and quantify the dysfunction of native. New CMR methods estimating vorticity were validated in vivo.
189

Modélisation de la qualité de l'eau et prévision des débits par la méthode des réseaux de neurones

Filion, Mélanie 12 April 2018 (has links)
L'objectif premier de cette étude vise à modéliser, à l'aide des réseaux de neurones, deux paramètres de qualité de l'eau : les nitrates et la matière en suspension. L'intérêt d'une telle simulation est de pouvoir développer un outil d'aide à la décision en matière de gestion des pratiques agricoles. Bien que les réseaux aient montré plus de difficulté à modéliser les MES que les N-NO3, ils ont réussi à approximer les signaux avec une précision suffisante pour le but poursuivi. Le deuxième objectif vise à vérifier si l'ajout de données de teneur en eau du sol améliore la prévision des débits et de comparer le gain apporté, à celui apporté par l'ajout d'un indice de teneur en eau. Les résultats montrent que la couche intermédiaire du sol apporte le gain de performance le plus important quoique l'indice de teneur en eau soit une alternative intéressante.
190

Design and fabrication of a photonic integrated circuit comprising a semi-conductor optical amplifier and a high speed photodiode (SOA-UTC) for >100 Gbit/s applications / Etude d'un récepteur pré-amplifié de type PIC (Photonic Integrated Circuit) réalisé par intégration monolithique d'un amplificateur (SOA) optique à semi-conducteur et d'une photodiode (UTC) pour les liaisons courtes distances à 100 Gbit/s et au delà

Anagnosti, Maria 13 November 2015 (has links)
Ce travail porte sur la conception, la fabrication et la caractérisation d’une photodiode très haut débit (UTC PD) et son intégration avec un préamplificateur optique à semi-conducteur (SOA) pour les liaisons optiques à courte distance à 100 Gbit/s en bandes C et O. Il porte également sur la conception d'un duplexeur (Tx / Rx) avec liaison montante en bande C et liaison descendante en bande O. L'intégration monolithique d’un SOA avec une photodiode haut débit sans filtre optique entre les deux présente des avantages majeurs parmi lesquels: - Augmentation de la distance de transmission. - Augmentation du nombre d'utilisateurs connectés. - Diminution des coûts globaux de fabrication incluant l’assemblage. La première partie de cette étude porte sur l'optimisation SOA pour un fonctionnement à forte puissance (Psat). Un faible facteur de bruit (NF) et une faible dépendance à la polarisation (PDL) sont requis pour les récepteurs préamplifiés. De plus, un fonctionnement du et opérer en régime linéaire est nécessaire pour les schémas de modulation complexes. Le SOA actuel possède un gain de 18 dB avec un facteur de bruit de 8 dB, une faible PDL (<2 dB), et une bonne puissance de saturation en entrée (-8 dBm). Grâce à l’optimisation de la structure verticale du SOA et de son couplage avec la fibre les performances attendues sont améliores : Psat >-5 dBm, NF <8 dB, PDL et gain similaire. D'autre part, les interconnexions électriques de la photodiode ont été optimisées ce qui a permis de démontrer des photodiodes avec une bande passante supérieure à 100 GHz. Les photodiodes présentent un fort coefficient de réponse (R) (0,6 A/W à 1,3 μm et 0,55 A/W à 1,55 μm) et une faible PDL <1 dB. Un fort courant de saturation de 14 mA à 100 GHz a aussi été démonté. Enfin, la caractérisation des SOA-UTC réalisés a montré simultanément une très forte responsivité (95 A/W), une faible dépendance à la polarisation PDL (<2 dB), un faible NF (8 dB) et une large bande passante à 3 dB (> 95 GHz), qui placent nos composants au meilleur niveau de l’état de l’art avec un produit gain-bande record de 6,1 THz. Les Mesures numériques à 64 Gbit/s montrent que notre récepteur atteint une sensibilité de -17 dBm pour un taux d'erreur de 10-9, et la sensibilité attendue à 100 Gbit/s est de -14 dBm / This work focuses on the design, fabrication and measurements of a uni-travelling carrier high speed photodiode (UTC PD) and its integration with a semiconductor optical preamplifier (SOA) for short reach 100 Gbit/s optical links, in O- and C- bands. This work also focuses on the design of a duplexer (Tx/Rx) with downstream in O-band and upstream in C-band. The SOA monolithic integration with a high speed PD without an optical filter in between yields major benefits among which: - Increase in the transmission distance. - Increase in the split ratio correlated to the number of connected users. - Decrease of the overall fabrication and assembling cost. The first part of this work is dedicated to optimizing the SOA for high power operation (Psat). The low noise figure (NF), and polarization dependence loss (PDL) are critical parameters for a preamplified receiver. Also complex modulation formats require linear gain regime of the SOA. The current SOA presents 18 dB gain with NF (8 dB), low PDL (<2 dB), and good input power saturation (-8 dBm). Thanks to further optimization of the SOA vertical structure and coupling with the optical fiber, the expected SOA performance is higher Psat >-5 dBm, NF <8 dB, similar PDL and gain. Secondly, the electrical interconnects of the photodiode is optimized to increase the photodiodes’ bandwidth, which allows to demonstrate photodiode with >100 GHz bandwidth. The PD presents high responsivity (R) (0,6 A/W at 1,3 μm and 0.55 A/W at 1,55 μm) and low PDL <1 dB. Also the saturation photocurrent is high (14 mA at 100 GHz). Finally, the SOA-UTC demonstrates high responsivity (95 A/W), low PDL (<2 dB), low NF (8 dB) and a wide 3 dB bandwidth (>95 GHz), which yields a record gain-bandwidth product of 6.1 THz. Large signal measurements at 64 Gbit/s show that our receiver reaches a low sensitivity of -17 dBm for a bit error rate of 10-9, and is expected to reach -14 dBm at 100 Gbit/s

Page generated in 0.7418 seconds