• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 49
  • 49
  • 15
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Analyse fonctionnelle des polymorphismes du virus du papillome humain de type 33

Alvarez Orellana, Jennifer Élisabeth 04 1900 (has links)
L’infection au virus du papillome humain oncogénique (VPH-HR) est associée au développement du cancer du col de l’utérus. L’expression des oncogènes viraux E6 et E7, qui favorisent la progression vers le cancer, est régulée par la région de contrôle longue ou LCR qui contient des sites de liaison pour plusieurs facteurs de transcription cellulaires et pour le répresseur viral E2. L’expression des oncogènes E6 et E7 est souvent dérégulée dans les cancers du col de l’utérus, une résultante de l’intégration du génome viral qui détruit fréquemment le cadre de lecture du gène E2. Plusieurs isolats ou variantes du VPH de type 33 (VPH33) avec une séquence nucléotidique du LCR différente du prototype ont été identifiés dans des spécimens de femmes infectées par le VPH et présentant des lésions intraépithéliales au niveau du col utérin. Deux polymorphismes, une délétion de 79 pb et la transversion C7732G, ont été associés à la persistance de l’infection et à un plus grand risque de développer une lésion intraépithéliale de haut-grade, respectivement. L’effet fonctionnel des polymorphismes du LCR du VPH33 sur l’expression génique virale, en particulier de la délétion de 79 pb et de C7732G, n’a jamais été caractérisé. Dans une première étude, l’activité transcriptionnelle des variantes de LCR du VPH33 a été comparée à celle du prototype dans les lignées cellulaires C33A et HeLa par des études de gènes rapporteurs suite à leur introduction en amont du gène de la Renilla luciférase. Nos résultats indiquent que l’activité transcriptionnelle des variantes du LCR du VPH33 reflète leur classification phylogénétique; les variantes issues de la lignée A2 étant les plus actives dans les C33A que le prototype du groupe A1. Des analyses par mutagenèse dirigée ont établi que l’activité accrue des LCRs de ces variantes est due à plusieurs variations, incluant la délétion de 79 pb et C7732G, et dont leur effet individuel est assez modeste. Dans les cellules HeLa, les niveaux de transcription des variantes de la lignée A2 étaient similaires à ceux observés chez le prototype. Cet effet a été attribué à la variation A7879G qui induit la répression du LCR dans ces cellules. Ces résultats indiquent que la combinaison de plusieurs variations dites faibles altère significativement l’activité transcriptionnelle du LCR du VPH33. D’un autre côté, les résultats rapportés dans notre deuxième étude indiquent que la mutation d’un élément important pour la régulation de la transcription virale peut tout autant altérer l’activité du LCR. La variante rare LCR10 de la lignée B montre une activité transcriptionnelle accrue comparée au prototype. Des analyses par mutagenèse dirigée ont identifié la variation T7791C comme étant responsable de l’activité augmentée du LCR10. L’effet stimulateur de ce polymorphisme est dû au fait qu’un site répresseur pour le facteur cellulaire C/EBPβ est aboli, tel que déterminé par des essais de liaison à l’ADN in vitro et de gène rapporteur. Un deuxième site C/EBPβ a également été identifié, cette fois-ci, agissant comme activateur de l’expression génique. Finalement, dans une troisième étude, nous montrons que C/EBPβ est un régulateur commun de l’expression des gènes chez les VPHs oncogéniques. Effectivement, plusieurs sites C/EBPβ sont retrouvés dans la région amplificatrice du LCR des VPHs à haut-risque tel que déterminé par des prédictions basées sur des matrices d’énergie et de fréquence. Certains de ces éléments sont similaires aux sites répresseurs et activateurs retrouvés dans le VPH33. Dans l’ensemble, nos études démontrent l’importance de caractériser l’effet individuel des polymorphismes du LCR pour mieux comprendre les mécanismes de modulation de la transcription des VPHs. De plus, nous montrons que C/EBPβ joue un rôle central autant dans la répression que dans l’activation de l’expression des gènes viraux. / The infection by the oncogenic human papillomavirus (HR-HPV) is associated with the development of cervical cancer. The expression of the E6 and E7 viral oncogenes favors progression towards cancer and is driven by the long control region (LCR) which contains binding sites for both cellular factors and the viral E2 protein. The expression of these oncogenes is often upregulated in cervical cancer due to the integration of the viral genome which frequently disrupts the open reading frame of the repressor E2 gene. Several isolates or variants of HPV type 33 (HPV33) with a slightly different nucleotide sequence were previously identified in clinical samples from women infected with HPV33 and presenting squamous intraepithelial lesions of the uterus. Two polymorphisms, a 79-bp deletion and the C7732G transversion, were previously associated with an increased risk of persistence of infection and of developing high-grade lesions, respectively. The functional effect of polymorphisms in the HPV33 LCR on viral gene expression has never been assessed in particular for the 79-bp deletion and C7732G. In the first study presented here, the transcriptional activity of the HPV33 LCR variants were compared to that of the prototype in C33A and HeLa cell lines using gene reporter assays following their introduction upstream of the Renilla luciferase. Our results indicate that the LCR activity of the variants reflects their phylogenetic classification. As such, variants from the A2-sublineage were the most active in C33A cells when compared to the A1-sublineage prototype. Mutational analysis showed that the increased in LCR activity was the result of several weakly-acting variations, including the 79-bp deletion and C7732G. In HeLa cells, the lower transcriptional activity of the A2 variants was caused by A7879G which induces repression of the LCR in these cells. These results show that the combination of weakly-acting variations in the LCR significantly alters viral gene expression. In the second study, we show that the mutation of important regulatory elements also significantly enhances the transcriptional activity of the LCR. The rare HPV33 LCR10 variant from the B lineage exhibits increased transcriptional activity compared to the prototype. Mutational analysis shows that the T7791C variation is responsible for this phenotype. The stimulating effect of this variation is caused by the disruption of a repressor C/EBPβ site as determined in an in vitro DNA-binding assay and gene reporter assays. A second site necessary this time for the activation of the LCR was also identified. Finally, in the third study, we show that C/EBPβ is a common regulator of the oncogenic HPV gene expression. Several C/EBPβ sites were found in the enhancer region of the LCR of these HPV types as determined by our prediction using both energy- and frequency-based matrices. Some of these sites were found to be similar to the repressor and activating sites in the HPV33 LCR. Taken together, our studies highlight the importance of characterizing individual variations in the LCR in order to improve our knowledge on the mechanisms involved in the regulation of viral gene expression. We also show that the activating and inhibitory functions of C/EBPβ are important for the modulation of viral transcription.
42

Probability flows in deep learning

Huang, Chin-Wei 10 1900 (has links)
Les modèles génératifs basés sur la vraisemblance sont des éléments fondamentaux pour la modélisation statistique des données structurées. Ils peuvent être utilisés pour synthétiser des échantillons de données réalistes, et la fonction de vraisemblance peut être utilisée pour comparer les modèles et déduire diverses quantités statistiques. Cependant, le défi réside dans le développement de modèles capables de saisir avec précision les schémas statistiques présentés dans la distribution des données. Les modèles existants rencontrent souvent des limitations en termes de flexibilité représentationnelle et d’évolutivité computationnelle en raison du choix de la paramétrisation, freinant ainsi la progression vers cet idéal. Cette thèse présente une exploration systématique des structures appropriées qui peuvent être exploitées pour concevoir des modèles génératifs basés sur la vraisemblance, allant des architectures spécialisées telles que les applications triangulaires et les applications de potentiel convexes aux systèmes dynamiques paramétriques tels que les équations différentielles neuronales qui présentent des contraintes minimales en termes de paramétrisation. Les modèles proposés sont fondés sur des motivations théoriques et sont analysés à travers le prisme du changement de variable associé au processus de génération de données. Cette perspective permet de considérer ces modèles comme des formes distinctes de probability flows, unifiant ainsi des classes apparemment non liées de modèles génératifs basés sur la vraisemblance. De plus, des conceptions algorithmiques pratiques sont introduites pour calculer, approximer ou estimer les quantités nécessaires pour l’apprentissage et l’évaluation. Il est prévu que cette thèse suscite l’intérêt des communautés de modélisation générative et d’apprentissage automatique Bayésien/probabiliste, et qu’elle serve de ressource précieuse et d’inspiration pour les chercheurs et les praticiens du domaine. / Likelihood-based generative models are fundamental building blocks for statistical modeling of structured data. They can be used to synthesize realistic data samples, and the likelihood function can be used for comparing models and inferring various statistical quantities. However, the challenge lies in developing models capable of accurately capturing the statistical patterns presented in the data distribution. Existing models often face limitations in representational flexibility and computational scalability due to the choice of parameterization, impeding progress towards this ideal. This thesis presents a systematic exploration of suitable structures that can be exploited to design likelihood-based generative models, spanning from specialized architectures like triangular maps and convex potential maps to parametric dynamical systems such as neural differential equations that bear minimal parameterization restrictions. The proposed models are rooted in theoretical foundations and analyzed through the lens of the associated change of variable in the data generation process. This perspective allows for viewing these models as distinct forms of probability flows, thereby unifying seemingly unrelated classes of likelihood-based generative models. Moreover, practical algorithmic designs are introduced to compute, approximate, or estimate necessary quantities for training and testing purposes. It is anticipated that this thesis would be of interest to the generative modeling and Bayesian/probabilistic machine learning communities, and will serve as a valuable resource and inspiration for both researchers and practitioners in the field.
43

Proximity-to-Separation Based Energy Function Control Strategy for Power System Stability

Chan, Teck-Wai January 2003 (has links)
The issue of angle instability has been widely discussed in the power engineering literature. Many control techniques have been proposed to provide the complementary synchronizing and damping torques through generators and/or network connected power apparatus such as FACTs, braking resistors and DC links. The synchronizing torque component keeps all generators in synchronism while damping torque reduces oscillations and returns the power system to its pre-fault operating condition. One of the main factors limiting the transfer capacity of the electrical transmission network is the separation of the power system at weak links which can be understood by analogy with a large spring-mass system. However, this weak-links related problem is not dealt with in existing control designs because it is non-trivial during transient period to determine credible weak links in a large power system which may consist of hundreds of strong and weak links. The difficulty of identifying weak links has limited the performance of existing controls when it comes to the synchronization of generators and damping of oscillations. Such circumstances also restrict the operation of power systems close to its transient stability limits. These considerations have led to the primary research question in this thesis, "To what extent can the synchronization of generators and damping of oscillations be maximized to fully extend the transient stability limits of power systems and to improve the transfer capacity of the network?" With the recent advances in power electronics technology, the extension of transfer capacity is becoming more readily achievable. Complementary to the use of power electronics technology to improve transfer capacity, this research develops an improved control strategy by examining the dynamics of the modes of separation associated with the strong and weak links of the reduced transmission network. The theoretical framework of the control strategy is based on Energy Decomposition and Unstable Equilibrium Points. This thesis recognizes that under extreme loadings of the transmission network containing strong and weak links, weak-links are most likely to dictate the transient stability limits of the power system. We conclude that in order to fully extend the transient stability limits of power system while maximizing the value of control resources, it is crucial for the control strategy to aim its control effort at the energy component that is most likely to cause a separation. The improvement in the synchronization amongst generators remains the most important step in the improvement of the transfer capacity of the power system network.
44

Representation Learning for Visual Data

Dumoulin, Vincent 09 1900 (has links)
No description available.
45

Deep learning of representations and its application to computer vision

Goodfellow, Ian 04 1900 (has links)
No description available.
46

Deep geometric probabilistic models

Xu, Minkai 10 1900 (has links)
La géométrie moléculaire, également connue sous le nom de conformation, est la représentation la plus intrinsèque et la plus informative des molécules. Cependant, prédire des conformations stables à partir de graphes moléculaires reste un problème difficile et fondamental en chimie et en biologie computationnelles. Les méthodes expérimentales et computationelles traditionnelles sont généralement coûteuses et chronophages. Récemment, nous avons assisté à des progrès considérables dans l'utilisation de l'apprentissage automatique, en particulier des modèles génératifs, pour accélérer cette procédure. Cependant, les approches actuelles basées sur les données n'ont généralement pas la capacité de modéliser des distributions complexes et ne tiennent pas compte de caractéristiques géométriques importantes. Dans cette thèse, nous cherchons à construire des modèles génératifs basés sur des principes pour la génération de conformation moléculaire qui peuvent surmonter les problèmes ci-dessus. Plus précisément, nous avons proposé des modèles de diffusion basés sur les flux, sur l'énergie et de débruitage pour la génération de structures moléculaires. Cependant, il n'est pas trivial d'appliquer ces modèles à cette tâche où la vraisemblance des géométries devrait avoir la propriété importante d'invariance par rotation par de translation. Inspirés par les progrès récents de l'apprentissage des représentations géométriques, nous fournissons à la fois une justification théorique et une mise en œuvre pratique sur la manière d'imposer cette propriété aux modèles. Des expériences approfondies sur des jeux de données de référence démontrent l'efficacité de nos approches proposées par rapport aux méthodes de référence existantes. / Molecular geometry, also known as conformation, is the most intrinsic and informative representation of molecules. However, predicting stable conformations from molecular graphs remains a challenging and fundamental problem in computational chemistry and biology. Traditional experimental and computational methods are usually expensive and time-consuming. Recently, we have witnessed considerable progress in using machine learning, especially generative models, to accelerate this procedure. However, current data-driven approaches usually lack the capacity for modeling complex distributions and fail to take important geometric features into account. In this thesis, we seek to build principled generative models for molecular conformation generation that can overcome the above problems. Specifically, we proposed flow-based, energy-based, and denoising diffusion models for molecular structure generation. However, it's nontrivial to apply these models to this task where the likelihood of the geometries should have the important property of rotational and translation invariance. Inspired by the recent progress of geometric representation learning, we provide both theoretical justification and practical implementation about how to impose this property into the models. Extensive experiments on common benchmark datasets demonstrate the effectiveness of our proposed approaches over existing baseline methods.
47

Apprentissage de stratégies de calcul adaptatives pour les réseaux neuronaux profonds

Kamanda, Aton 07 1900 (has links)
La théorie du processus dual stipule que la cognition humaine fonctionne selon deux modes distincts : l’un pour le traitement rapide, habituel et associatif, appelé communément "système 1" et le second, ayant un traitement plus lent, délibéré et contrôlé, que l’on nomme "système 2". Cette distinction indique une caractéristique sous-jacente importante de la cognition humaine : la possibilité de passer de manière adaptative à différentes stratégies de calcul selon la situation. Cette capacité est étudiée depuis longtemps dans différents domaines et de nombreux bénéfices hypothétiques semblent y être liés. Cependant, les réseaux neuronaux profonds sont souvent construits sans cette capacité à gérer leurs ressources calculatoires de manière optimale. Cette limitation des modèles actuels est d’autant plus préoccupante que de plus en plus de travaux récents semblent montrer une relation linéaire entre la capacité de calcul utilisé et les performances du modèle lors de la phase d’évaluation. Pour résoudre ce problème, ce mémoire propose différentes approches et étudie leurs impacts sur les modèles, tout d’abord, nous étudions un agent d’apprentissage par renforcement profond qui est capable d’allouer plus de calcul aux situations plus difficiles. Notre approche permet à l’agent d’adapter ses ressources computationnelles en fonction des exigences de la situation dans laquelle il se trouve, ce qui permet en plus d’améliorer le temps de calcul, améliore le transfert entre des tâches connexes et la capacité de généralisation. L’idée centrale commune à toutes nos approches est basée sur les théories du coût de l’effort venant de la littérature sur le contrôle cognitif qui stipule qu’en rendant l’utilisation de ressource cognitive couteuse pour l’agent et en lui laissant la possibilité de les allouer lors de ses décisions il va lui-même apprendre à déployer sa capacité de calcul de façon optimale. Ensuite, nous étudions des variations de la méthode sur une tâche référence d’apprentissage profond afin d’analyser précisément le comportement du modèle et quels sont précisément les bénéfices d’adopter une telle approche. Nous créons aussi notre propre tâche "Stroop MNIST" inspiré par le test de Stroop utilisé en psychologie afin de valider certaines hypothèses sur le comportement des réseaux neuronaux employant notre méthode. Nous finissons par mettre en lumière les liens forts qui existent entre apprentissage dual et les méthodes de distillation des connaissances. Notre approche a la particularité d’économiser des ressources computationnelles lors de la phase d’inférence. Enfin, dans la partie finale, nous concluons en mettant en lumière les contributions du mémoire, nous détaillons aussi des travaux futurs, nous approchons le problème avec les modèles basés sur l’énergie, en apprenant un paysage d’énergie lors de l’entrainement, le modèle peut ensuite lors de l’inférence employer une capacité de calcul dépendant de la difficulté de l’exemple auquel il fait face plutôt qu’une simple propagation avant fixe ayant systématiquement le même coût calculatoire. Bien qu’ayant eu des résultats expérimentaux infructueux, nous analysons les promesses que peuvent tenir une telle approche et nous émettons des hypothèses sur les améliorations potentielles à effectuer. Nous espérons, avec nos contributions, ouvrir la voie vers des algorithmes faisant un meilleur usage de leurs ressources computationnelles et devenant par conséquent plus efficace en termes de coût et de performance, ainsi que permettre une compréhension plus intime des liens qui existent entre certaines méthodes en apprentissage machine et la théorie du processus dual. / The dual-process theory states that human cognition operates in two distinct modes: one for rapid, habitual and associative processing, commonly referred to as "system 1", and the second, with slower, deliberate and controlled processing, which we call "system 2". This distinction points to an important underlying feature of human cognition: the ability to switch adaptively to different computational strategies depending on the situation. This ability has long been studied in various fields, and many hypothetical benefits seem to be linked to it. However, deep neural networks are often built without this ability to optimally manage their computational resources. This limitation of current models is all the more worrying as more and more recent work seems to show a linear relationship between the computational capacity used and model performance during the evaluation phase. To solve this problem, this thesis proposes different approaches and studies their impact on models. First, we study a deep reinforcement learning agent that is able to allocate more computation to more difficult situations. Our approach allows the agent to adapt its computational resources according to the demands of the situation in which it finds itself, which in addition to improving computation time, enhances transfer between related tasks and generalization capacity. The central idea common to all our approaches is based on cost-of-effort theories from the cognitive control literature, which stipulate that by making the use of cognitive resources costly for the agent, and allowing it to allocate them when making decisions, it will itself learn to deploy its computational capacity optimally. We then study variations of the method on a reference deep learning task, to analyze precisely how the model behaves and what the benefits of adopting such an approach are. We also create our own task "Stroop MNIST" inspired by the Stroop test used in psychology to validate certain hypotheses about the behavior of neural networks employing our method. We end by highlighting the strong links between dual learning and knowledge distillation methods. Finally, we approach the problem with energy-based models, by learning an energy landscape during training, the model can then during inference employ a computational capacity dependent on the difficulty of the example it is dealing with rather than a simple fixed forward propagation having systematically the same computational cost. Despite unsuccessful experimental results, we analyze the promise of such an approach and speculate on potential improvements. With our contributions, we hope to pave the way for algorithms that make better use of their computational resources, and thus become more efficient in terms of cost and performance, as well as providing a more intimate understanding of the links that exist between certain machine learning methods and dual process theory.
48

RESIDUAL STRESS AND MICROSTRUCTURAL EVOLUTION OF COMPOSITES AND COATINGS FOR EXTREME ENVIRONMENTS

John I Ferguson (17582760) 10 December 2023 (has links)
<p dir="ltr">A current engineering challenge is to understand and validate material systems capable of maintaining structural viability under the elevated temperature and environmental conditions of hypersonic flight. One aspect of this challenge is the joining of multiple materials with thermal expansion mismatch, which can lead to residual stress, resulting in debits in component lifetime under in-service loading. The focus of this work is a series of studies focused on a ceramic-metal composite (WC/Cu), a zirconia coating applied to a carboncarbon (C/C) composite, and a silicide (R512E) coating applied to a Nb-based alloy (C103). Each of these material systems are candidates for elevated temperature applications in which dissimilar constituents result in residual stress in the material. Each study leveraged experimental residual strain measurements, with the primary focus on the use of synchrotron X-ray diffraction, in conjunction with representative models, and microscopy to illuminate the active mechanisms in the development and evolution of residual stress in the bulk material. The combination of experimental and modeling predictions provides a framework to inform the viability and lifing of material systems exhibiting dissimilar expansion properties.</p>
49

A deep learning theory for neural networks grounded in physics

Scellier, Benjamin 12 1900 (has links)
Au cours de la dernière décennie, l'apprentissage profond est devenu une composante majeure de l'intelligence artificielle, ayant mené à une série d'avancées capitales dans une variété de domaines. L'un des piliers de l'apprentissage profond est l'optimisation de fonction de coût par l'algorithme du gradient stochastique (SGD). Traditionnellement en apprentissage profond, les réseaux de neurones sont des fonctions mathématiques différentiables, et les gradients requis pour l'algorithme SGD sont calculés par rétropropagation. Cependant, les architectures informatiques sur lesquelles ces réseaux de neurones sont implémentés et entraînés souffrent d’inefficacités en vitesse et en énergie, dues à la séparation de la mémoire et des calculs dans ces architectures. Pour résoudre ces problèmes, le neuromorphique vise à implementer les réseaux de neurones dans des architectures qui fusionnent mémoire et calculs, imitant plus fidèlement le cerveau. Dans cette thèse, nous soutenons que pour construire efficacement des réseaux de neurones dans des architectures neuromorphiques, il est nécessaire de repenser les algorithmes pour les implémenter et les entraîner. Nous présentons un cadre mathématique alternative, compatible lui aussi avec l’algorithme SGD, qui permet de concevoir des réseaux de neurones dans des substrats qui exploitent mieux les lois de la physique. Notre cadre mathématique s'applique à une très large classe de modèles, à savoir les systèmes dont l'état ou la dynamique sont décrits par des équations variationnelles. La procédure pour calculer les gradients de la fonction de coût dans de tels systèmes (qui dans de nombreux cas pratiques ne nécessite que de l'information locale pour chaque paramètre) est appelée “equilibrium propagation” (EqProp). Comme beaucoup de systèmes en physique et en ingénierie peuvent être décrits par des principes variationnels, notre cadre mathématique peut potentiellement s'appliquer à une grande variété de systèmes physiques, dont les applications vont au delà du neuromorphique et touchent divers champs d'ingénierie. / In the last decade, deep learning has become a major component of artificial intelligence, leading to a series of breakthroughs across a wide variety of domains. The workhorse of deep learning is the optimization of loss functions by stochastic gradient descent (SGD). Traditionally in deep learning, neural networks are differentiable mathematical functions, and the loss gradients required for SGD are computed with the backpropagation algorithm. However, the computer architectures on which these neural networks are implemented and trained suffer from speed and energy inefficiency issues, due to the separation of memory and processing in these architectures. To solve these problems, the field of neuromorphic computing aims at implementing neural networks on hardware architectures that merge memory and processing, just like brains do. In this thesis, we argue that building large, fast and efficient neural networks on neuromorphic architectures also requires rethinking the algorithms to implement and train them. We present an alternative mathematical framework, also compatible with SGD, which offers the possibility to design neural networks in substrates that directly exploit the laws of physics. Our framework applies to a very broad class of models, namely those whose state or dynamics are described by variational equations. This includes physical systems whose equilibrium state minimizes an energy function, and physical systems whose trajectory minimizes an action functional (principle of least action). We present a simple procedure to compute the loss gradients in such systems, called equilibrium propagation (EqProp), which requires solely locally available information for each trainable parameter. Since many models in physics and engineering can be described by variational principles, our framework has the potential to be applied to a broad variety of physical systems, whose applications extend to various fields of engineering, beyond neuromorphic computing.

Page generated in 0.1075 seconds