• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 604
  • 222
  • 71
  • 55
  • 53
  • 48
  • 42
  • 20
  • 10
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 1116
  • 695
  • 170
  • 165
  • 113
  • 111
  • 97
  • 90
  • 90
  • 87
  • 72
  • 68
  • 67
  • 61
  • 60
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Toward coherent accounting of uncertainty in hydrometeorological modeling

Thiboult, Antoine January 2015 (has links)
La considération adéquate des différentes sources d’incertitude est un aspect crucial de la prévision hydrométéorologique. La prévision d’ensemble, en fournissant des informations sur la probabilité d’occurrence des sorties du modèle, représente une alternative séduisante à la prévision déterministe traditionnelle. De plus, elle permet de faire face aux différentes sources d’incertitude qui se trouvent le long de la chaîne de modélisation hydrométéorologique en générant des ensembles là où ces incertitudes se situent. Le principal objectif de cette thèse est d’identifier un système qui soit capable d’appréhender les trois sources principales d’incertitude que sont la structure du modèle hydrologique, ses conditions initiales et le forçage météorologique, dans le but de fournir une prévision qui soit à la fois précise, fiable et économiquement attractive. L’accent est mis sur la cohérence avec laquelle les différentes incertitudes doivent être quantifiées et réduites. Notamment, celles-ci doivent être considérées explicitement avec une approche cohésive qui fasse en sorte que chacune d’entre elles soit traitée adéquatement, intégralement et sans redondance dans l’action des divers outils qui composent le système. Afin de répondre à cette attente, plusieurs sous-objectifs sont définis. Le premier se penche sur l’approche multimodèle pour évaluer ses bénéfices dans un contexte opérationnel. Dans un second temps, dans le but d’identifier une implémentation optimale du filtre d’ensemble de Kalman, différents aspects du filtre qui conditionnent ses performances sont étudiés en détail. L’étape suivante rassemble les connaissances acquises lors des deux premiers objectifs en réunissant leurs atouts et en y incluant la prévision météorologique d’ensemble pour construire un système qui puisse fournir des prévisions à la fois précises et fiables. Il est attendu que ce système soit en mesure de prendre en compte les différentes sources d’incertitude de façon cohérente tout en fournissant un cadre de travail pour étudier la contribution des différents outils hydrométéorologiques et leurs interactions. Enfin, le dernier volet porte sur l’identification des relations entre les différents systèmes de prévisions précédemment créés, leur valeur économique et leur qualité de la prévision. La combinaison du filtre d’ensemble de Kalman, de l’approche multimodèle et de la prévision météorologique d’ensemble se révèle être plus performante qu’aucun des outils utilisés séparément, à la fois en précision et fiabilité et ceci en raison d’unemeilleure prise en compte de l’incertitude que permet leur action complémentaire. L’ensemble multimodèle, composé par 20 modèles hydrologiques sélectionnés pour leurs différences structurelles, est capable de minimiser l’incertitude liée à la structure et à la conceptualisation, grâce au rôle spécifique que jouent les modèles au sein de l’ensemble. Cette approche, même si utilisée seule, peut conduire à des résultats supérieurs à ceux d’un modèle semi-distribué utilisé de façon opérationnelle. L’identification de la configuration optimale du filtre d’ensemble de Kalman afin de réduire l’incertitude sur les conditions initiales est complexe, notamment en raison de l’identification parfois contre-intuitive des hyper-paramètres et des variables d’état qui doivent être mises à jour, mais également des performances qui varient grandement en fonction du modèle hydrologique. Cependant, le filtre reste un outil de première importance car il participe efficacement à la réduction de l’incertitude sur les conditions initiales et contribue de façon importante à la dispersion de l’ensemble prévisionnel. Il doit être malgré tout assisté par l’approche multimodèle et la prévision météorologique d’ensemble pour pouvoir maintenir une dispersion adéquate pour des horizons dépassant le court terme. Il est également démontré que les systèmes qui sont plus précis et plus fiables fournissent en général une meilleure valeur économique, même si cette relation n’est pas définie précisément. Les différentes incertitudes inhérentes à la prévision hydrométéorologique ne sont pas totalement éliminées, mais en les traitant avec des outils spécifiques et adaptés, il est possible de fournir une prévision d’ensemble qui soit à la fois précise, fiable et économiquement attractive. / A proper consideration of the different sources of uncertainty is a key point in hydrometeorological forecasting. Ensembles are an attractive alternative to traditional deterministic forecasts that provide information about the likelihood of the outcomes. Moreover, ensembles can be generated wherever a source of uncertainty takes place in the hydrometeorological modeling chain. The global objective of this thesis is to identify a system that is able to decipher the three main sources of uncertainty in modeling, i.e. the model structure, the hydrological model initial conditions and the meteorological forcing uncertainty, to provide accurate, reliable, and valuable forecast. The different uncertainties should be quantified and reduced in a coherent way, that is to say that they should be addressed explicitly with a cohesive approach that ensures to handle them adequately without redundancy in the action of the different tools that compose the system. This motivated several sub-objectives, the first one of which focusing on the multimodel approach to identify its benefits in an operational framework. Secondly, the implementation and the features of the Ensemble Kalman Filter (EnKF) are put under scrutiny to identify an optimal implementation. The next step reunites the knowledge of the two first goals by merging their strengths and by adding the meteorological ensembles to build a framework that issues accurate and reliable forecasts. This system is expected to decipher the main sources of uncertainty in a coherent way and provides a framework to study the contribution of the different tools and their interactions. Finally, the focus is set on the forecast economic value and provides an attempt to relate the different systems that have been built to economic value and forecast quality. It is found that the combination of the EnKF, the multimodel, and ensemble forcing, allows to issue forecasts that are accurate and nearly reliable. The combination of the three tools outperforms any other used separately and the uncertainties that were considered are deciphered thanks to their complementary actions. The 20 dissimilar models that compose the multimodel ensemble are able to minimize the uncertainty related to the model structure, thanks to the particular role they play in the ensemble. Such approach has the capacity to outperform more a complex semi-distributed model used operationally. To deal optimally with the initial condition uncertainty, the EnKF implementation may be complex to reach because of the unintuitive specification of hyper-parameters and the selection of the state variable to update, and its varying compatibility with hydrological model. Nonetheless, the filter is a powerful tool to reduce initial condition uncertainty and contributes largely to the predictive ensemble spread. However, it needs to be supported by a multimodel approach and ensemble meteorological forcing to maintain adequate ensemble dispersion for longer lead times. Finally, it is shown that systems that exhibit better accuracy and reliability have generally higher economic value, even if this relation is loosely defined. The different uncertainties inherent to the forecasting process may not be eliminated, nonetheless by explicitly accounting for them with dedicated and suitable tools, an accurate, reliable, and valuable predictive ensemble can be issued.
42

La conjecture de Kadison-Singer

Desmeules, Sarah January 2015 (has links)
La conjecture de Kadison-Singer traitant de l’existence et de l’unicité d’extension d’état pur de la C*-algèbre des opérateurs diagonaux dans B(H) sur B(H) fut émise en 1959 par Kadison et Singer. Il faut attendre jusqu’en 2013 pour que l’une de ses équivalences soit finalement résolue. La première partie de ce mémoire étudie le lien entre la conjecture et le résultat prouvé via deux autres équivalences. La seconde partie traite en profondeur de la preuve du résultat en passant par plusieurs concepts, tels que les familles entrelacées, la notion de stabilité et le polynôme caractéristique mixte. Enfin, la dernière partie porte sur une équivalence particulière, soit la conjecture de Feichtinger.
43

Handling spatial vagueness issues in SOLAP datacubes by introducing a risk-aware approach in their design

Edoh-Alové, Djogbénuyè Akpé 23 April 2018 (has links)
Thèse en cotutelle: Université Laval Québec, Canada et Université Blaise-Pascal, Clermont-Ferrand, France / Les systèmes Spatial On-Line Analytical Processing (SOLAP) permettent de prendre en charge l’analyse multidimensionnelle en ligne d’un très grand volume de données ayant une référence spatiale. Dans ces systèmes, le vague spatial n’est généralement pas pris en compte, ce qui peut être source d’erreurs dans les analyses et les interprétations des cubes de données SOLAP, effectuées par les utilisateurs finaux. Bien qu’il existe des modèles d’objets ad-hoc pour gérer le vague spatial, l’implantation de ces modèles dans les systèmes SOLAP est encore à l’état embryonnaire. En outre, l’introduction de tels modèles dans les systèmes SOLAP accroit la complexité de l’analyse au détriment de l’utilisabilité dans bon nombre de contextes applicatifs. Dans cette thèse nous nous proposons d’investiguer la piste d’une nouvelle approche visant un compromis approprié entre l’exactitude théorique de la réponse au vague spatial, la facilité d’implantation dans les systèmes SOLAP existants et l’utilisabilité des cubes de données fournis aux utilisateurs finaux. Les objectifs de cette thèse sont donc de jeter les bases d’une approche de conception de cube SOLAP où la gestion du vague est remplacée par la gestion des risques de mauvaises interprétations induits, d’en définir les principes d’une implantation pratique et d’en démontrer les avantages. En résultats aux travaux menés, une approche de conception de cubes SOLAP où le risque de mauvaise interprétation est considéré et géré de manière itérative et en adéquation avec les sensibilités des utilisateurs finaux quant aux risques potentiels identifiés a été proposée; des outils formels à savoir un profil UML adapté, des fonctions de modification de schémas multidimensionnels pour construire les cubes souhaités, et un processus formel guidant de telles transformations de schémas ont été présentés; la vérification de la faisabilité de notre approche dans un cadre purement informatique avec la mise en œuvre de l’approche dans un outil CASE (Computed Aided Software Engineering) a aussi été présentée. Pour finir, nous avons pu valider le fait que l’approche fournisse non seulement des cubes aussi compréhensibles et donc utilisables que les cubes classiques, mais aussi des cubes où le vague n’est plus laissé de côté, sans aucun effort pour atténuer ses impacts sur les analyses et les prises de décision des utilisateurs finaux. / SOLAP (Spatial On-Line Analytical Processing) systems support the online multi-dimensional analysis of a very large volume of data with a spatial reference. In these systems, the spatial vagueness is usually not taken into account, which can lead to errors in the SOLAP datacubes analyzes and interpretations end-users make. Although there are ad-hoc models of vague objects to manage the spatial vagueness, the implementation of these models in SOLAP systems is still in an embryonal state. In addition, the introduction of such models in SOLAP systems increases the complexity of the analysis at the expense of usability in many application contexts. In this thesis we propose to investigate the trail of a new approach that makes an appropriate compromise between the theoretical accuracy of the response to the spatial vagueness, the ease of implementation in existing SOLAP systems and the usability of datacubes provided to end users. The objectives of this thesis are to lay the foundations of a SOLAP datacube design approach where spatial vagueness management in itself is replaced by the management of risks of misinterpretations induced by the vagueness, to define the principles of a practical implementation of the approach and to demonstrate its benefits. The results of this thesis consist of a SOLAP datacube design approach where the risks of misinterpretation are considered and managed in an iterative manner and in line with the end users tolerance levels regarding those risks; formal tools namely a suitable UML (Unified Modeling Language) profile, multidimensional schemas transformation functions to help tailored the datacubes to end-users tolerance levels, and a formal process guiding such schemas transformation; verifying the feasibility of our approach in a computing context with the implementation of the approach in a CASE (Computed Aided Software Engineering) tool. Finally, we were able to validate that the approach provides SOLAP datacubes that are not only as comprehensible and thus usable as conventional datacubes but also datacubes where the spatial vagueness is not left out, with no effort to mitigate its impacts on analysis and decision making for end users.
44

Étude de l’énergie de symétrie dans les collisions 40,48Ca+40,48Ca à 35 Me V/A

Boisjoli, Mark 23 April 2018 (has links)
Le terme d’énergie de symétrie (Csym) contenu à l’intérieur de l’équation d’état de la matière nucléaire est étudié via l’isoscaling et les formes des distributions isotopiques pour les réactions 40,48Ca+40,48Ca à une énergie incidente de 35 MeV/A. Les collisions périphériques et semi-périphériques sont étudiées. Un couplage entre deux appareils expérimentaux, le spectromètre VAMOS et le multidétecteur INDRA, a été fait. VAMOS a permis de mesurer la charge et la masse des résidus d’évaporation du quasi-projectile (PLF) avec grande précision. Les particules légères chargées ont été mesurées simultanément avec INDRA, permettant d’estimer le paramètre d’impact et l’énergie d’excitation ainsi que de reconstruire le fragment primaire, parent du PLF. L’étude des PLF montre la présence d’un effet pair-impair associé aux effets de désintégrations secondaires. L’extraction d’une information concernant Csym par l’étude des PLF, dans le cadre de cette thèse, est donc difficile, d’où la nécessité de reconstruire le fragment primaire. En étudiant les fragments primaires reconstruits, nous observons une évolution du paramètre Csym/T en fonction de la charge. Cette évolution est attribuée au degré d’excitation des fragments. De plus, la forme des distributions globales de Csym/T nous permet d’extraire le rapport des contributions de surface et de volume à l’énergie de symétrie. Ces rapports nous montrent des effets de surface importants, appuyés par les calculs théoriques. À partir des températures extraites par les spectres en énergie des protons, une valeur de Csym est extraite. Ces valeurs, autour de 30 MeV, sont cohérentes avec des valeurs autour de la densité de saturation. / Symmetry term (Csym) inside the nuclear equation of state is studied with the help of the isoscaling parameters and the isotopic distributions widths for 40,48Ca+40,48Ca reactions at an incident energy of 35 MeV/A. Peripheral et semi-peripheral collisions are studied. A coupling between two experimental setups, VAMOS spectrometer and INDRA multidetector was done. VAMOS was able to measure the charge and mass of the projectile like fragment (PLF) with a high precision. Light charged particles were measured in coincidence with INDRA, and they give us an impact parameter and excitation energy estimations They are also used in the primary fragment reconstruction, which are the PLF parent. PLF study shows the presence of an important odd-even effect, which can be associated to the secondary decay effects. The extracted values of the symmetry energy term directly from the PLF are not reliable. Therefore, it is necessary to reconstruct the primary fragment in order to take into account the secondary decay effects. By studying primary fragments, we observe an evolution of the parameter Csym/T as a function of the charge. This evolution is attributed to the fragment excitation energy. Also, global distributions of Csym/T give us an information on the surface over the volume contributions to the symmetry energy ratio. Those ratios show important surface contributions, same results given by simulations. With extracted temperatures from proton energy spectra, a Csym value can be obtained. Those values, around 30 MeV, are coherent with values around the saturation density.
45

Du dualisme épistémique au dualisme éthique : un plaidoyer pour l'intériorité

Monast, Brian 23 April 2018 (has links)
Il y a deux choses. On a souvent de la difficulté à l’admettre. Ce sont deux manières de connaître, ce à quoi on résiste déjà ; mais ce sont plus encore deux manières d’être au monde et de se lier à lui en étant pour ou contre lui. La différence entre l’esprit et le corps, le dedans et le dehors, apparaît maintenant comme étant la différence entre le monde et son image, entre la réalité connue immédiatement, réalité sensible, affective, vécue, et le réel connu médiatement : connaissances symboliques, quantitatives, manières qu’a l’intelligence d’indexer un réel extérieur à partir d’un sensible immédiat. Or, ne plus reconnaître de réalité qu’en une connaissance objective, ce serait substituer l’image du réel au réel, se fermer à notre propre réalité, et donc à la vie, puisque nous sommes vie. Le travail de la raison consisterait à analyser, à découper, contrôler, dominer. Or, si ce savoir objectif, savoir de la raison, a sa praxis, le savoir subjectif aurait la sienne propre. À ces deux savoirs correspondent deux praxis, deux éthiques inscrites nécessairement dans la structure même du vivant. Ce n’est point ce que, dans la littérature contemporaine anglophone — du moins en philosophie analytique —, on semble disposé à reconnaître. On y dépeint plutôt la connaissance subjective comme étant une forme de connaissance primitive, « folklorique ». Les présentes recherches ont donc dû s’attarder à mettre en lumière l’incompréhension dont souffre le dualisme épistémique dans la philosophie de l’esprit qui répond au goût du jour, laissant surtout en friche la tâche d’élucider plus longuement le sens du dualisme éthique en tant que tel, quoique celui-ci se trouve néanmoins exposé dans le dernier chapitre du travail.
46

La digestibilité des fromages commerciaux : impact de la structure et de la texture des fromages

Fang, Xixi 23 April 2018 (has links)
La structure et la texture des aliments solides et leur évolution pendant la digestion affectent leur désintégration et la vitesse de libération et de dégradation des protéines. Il a été démontré que la cinétique de digestion a un impact sur l’utilisation postprandiale des protéines. D'autre part, les différentes variétés de fromages présentent des caractères texturaux, variant de souple à ferme, selon les processus technologiques appliqués pour leur fabrication. Ce projet vise à étudier si, et comment, la structure et la texture des fromages affectent la désintégration et la digestion des protéines des fromages. Des fromages commerciaux de textures différentes ont été choisis pour la première étude. Leur désintégration et la digestion des protéines en modèle in vitro ont été caractérisées. Les résultats ont montré que la phase gastrique de la digestion représente l’étape clef de la désintégration. La désintégration à la fin de la digestion gastrique était corrélée négativement avec certains des paramètres texturaux du fromage initial (cohésion et élasticité). Cependant la désintégration était aussi corrélée positivement à la teneur en lipides du fromage. La libération et la dégradation des protéines variaient entre les fromages, en raison de leurs vitesses de désintégration différentes. La deuxième étude a examiné l’impact des changements de texture fromagère, induits par la réduction de la teneur en lipides du fromage seulement, sur la digestibilité des fromages de type Cheddar et Mozzarella. En réduisant la teneur en lipides du fromage Cheddar, la digestion des protéines était ralentie, en raison de sa désintégration plus lente. Par contre la réduction de la teneur en lipides n’influence pas la digestion des fromages Mozzarella, en raison de la faible réduction de la teneur en lipides du fromage qui joue un rôle limité sur la texture du fromage. La désintégration des fromages à la fin de digestion gastrique et duodénale était non seulement corrélée négativement à la cohésion et l’élasticité du fromage initial, mais aussi à la dureté du fromage initial. La troisième étude a vérifié l'impact du changement de la texture du fromage durant la digestion gastrique et son impact sur la désintégration du fromage, en utilisant les fromages de type Cheddar et Mozzarella, de composition et texture similaires, comme modèles. Dans les premières 15 min de la digestion gastrique, la contrainte de rupture (la pression nécessaire pour engendrer la rupture du fromage) était diminuée rapidement et la désintégration était rapide pour les fromages Cheddar et Mozzarella. De 15 à 120 min de la digestion gastrique, la contrainte de rupture était stable pour le fromage Cheddar, tandis qu’elle était diminuée graduellement pour le fromage Mozzarella. Cependant le fromage Cheddar était peu désintégré tandis que le fromage Mozzarella était désintégré graduellement. Ces résultats suggèrent que certaines variétés de fromages ont des cinétiques de digestion différentes qui influencent la digestion des protéines. / Recently, the food disintegration in stomach was reported to be affected by food structure and texture and their changes during digestion. This phenomenon should affect the kinetics of protein release and degradation in gastro-intestinal tract, which may affect protein postprandial utilization. Cheeses, depending on their processing parameters, have different structural and textural properties. This study aimed to understand how cheese structure and texture affect cheese disintegration and protein digestion during digestion. Firstly, cheese disintegration and cheese protein digestion were characterized for five commercial cheeses presenting different textural properties induced by different technological treatments. This study aimed to understand if cheese texture affects cheese digestibility. Results showed that gastric digestion was the critical step in cheese disintegration. Cheese disintegration at the end of gastric digestion was correlated negatively to cheese springiness and cohesiveness. Meanwhile cheese disintegration was also correlated positively to cheese initial fat content. The protein release and hydrolysis rates during gastric digestion were different among cheeses, related to their different disintegration rates. Secondly, the impact of cheese texture, induced by fat reduction only, on the digestibility of Cheddar and Mozzarella cheeses was studied. With decreasing fat content in Cheddar, the protein digestion slowed down explained by their slower disintegration. However, the reduction of fat in Mozzarella cheese had no impact on cheese disintegration and protein digestion, explained by the low fat reduction which presented limited effect on cheese texture. Cheese disintegration at the end of gastric and duodenal digestion was correlated negatively not only to cheese cohesiveness and springiness, but also to cheese initial hardness. Thirdly, the change of cheese texture during gastric digestion and its further effect on cheese disintegration were studied, using Cheddar and Mozzarella cheeses presenting similar compositional and textural properties as models. Results showed that during the first 15 min of gastric digestion, cheeses showed a sharp decrease of fracture stress (pressure at which the sample crumbles) meanwhile the disintegration was fast. From 15 to 120 min gastric digestion, the fracture stress of Cheddar remained stable while Mozzarella cheese showed a slow but gradual decrease of the fracture stress. During this time, Cheddar cheese was barely disintegrated, meanwhile the disintegration of Mozzarella was gradual. These results suggest that some cheese varieties show different digestion kinetics that modulate the digestion of cheese proteins.
47

Composition operators on model spaces

Karaki, Muath 23 April 2018 (has links)
Cette thèse est consacrée à l'étude des opérateurs de composition sur les espaces modèles. Soit φ une fonction analytique du disque unité dans lui même et soit θ une fonction intérieure, c'est à dire une fonction holomorphe et bornée par 1 dont les limites radiales sur le cercle sont de module 1 presque partout par rapport à la mesure de Lebesgue. A cette fonction θ, on associe l'espace modèle Kθ, défini comme l'ensemble des fonctions f ∈ H2 qui sont orthogonales au sous-espace θH2. Ici H2 est l'espace de Hardy du disque unité. Ces sous-espaces sont importants en théorie des opérateurs car ils servent à modéliser une large classe de contractions sur un espace de Hilbert. Le premier problème auquel nous nous intéressons concerne la compacité d'un opérateur de composition Cφ vu comme opérateur de Kθ dans H2. Récemment, Lyubarskii et Malinnikova ont obtenu un joli critère de compacité pour ces opérateurs qui fait intervenir la fonction de comptage de Nevanlinna du symbole φ. Ce critère généralise le critère classique de Shapiro. Dans une première partie de la thèse, nous généralisons ce résultat de Lyubarskii-Malinnikova à une classe plus générale de sous-espaces, à savoir les espaces de de Branges-Rovnyak ou certains de leurs sous-espaces. Les techniques utilisées sont en particulier des inégalités fines de type Bernstein pour ces espaces. Le deuxième problème auquel nous nous intéressons dans cette thèse concerne l'invariance de Kθ sous l'action de Cφ. Ce problème nous amène à considérer une structure de groupe sur le disque unité du plan complexe via les automorphismes qui fixent le point 1. A travers cette action de groupe, chaque point du disque produit une classe d'équivalence qui se trouve être une suite de Blaschke. On montre alors que les produits de Blaschke correspondants sont des solutions "minimales" d'une équation fonctionnelle ψ∘φ=λψ , où λ est une constante unimodulaire et φ un automorphisme du disque unité. Ces résultats sont ensuite appliqués au problème d'invariance d'un espace modèle par un opérateur de composition. / This thesis concerns the study of composition operators on model spaces. Let φ be an analytic function on the unit disc into itself and let θ be an inner function, that is a holomorphic function bounded by 1 such that the radial limits on the unit circle are of modulus 1 almost everywhere with respect to Lebesgue measure. With this function θ, we associate the model space Kθ, defined as the set of functions f ∈ H2, which are orthogonal to the subspace θH2. Here, H2 is the Hardy space on the unit disc. These subspaces are important in operator theory because they are used to model a large class of contractions on Hilbert space. The first problem which we are interested in concerns the compactness of the composition operator Cφ as an operator on H2 into H2. Recently, Lyubarskii and Malinnikova have obtained a nice criterion for the compactness of these operators which is related to the Nevanlinna counting function. This criterion generalizes the classical criterion of Shapiro. In the first part of the thesis, we generalize this result of Lyubarskii-Malinnikova to a more general class of subspaces, known as de Branges-Rovnyak spaces or some subspaces of them. The techniques that are used are particular Bernstein type inequalities of these spaces. The second problem in which we are interested in this thesis concerns the invariance of Kθ under Cφ. We present a group structure on the unit disc via the automorphisms which fix the point 1. Then, through the induced group action, each point of the unit disc produces an equivalence class which turns out to be a Blaschke sequence. Moreover, the corresponding Blaschke products are minimal solutions of the functional equation ψ∘φ=λψ , where λ is a unimodular constant and φ is an automorphism of the unit disc. These results are applied in the invariance problem of the model spaces by the composition operator.
48

Polynômes orthogonaux

Lavoie, Mathieu 23 April 2018 (has links)
Les polynômes orthogonaux sont introduits par la théorie de Sturm-Liouville, puis les équivalences existantes entre leurs définitions classiques sont montrées. Certains résultats de base de la théorie sont ensuite décortiqués. On termine en introduisant des résultats préliminaires de la théorie analytique des polynômes, qui étudie les liens entre les coefficients d'un polynôme, ses zéros et ses points critiques.
49

Structure, dynamique et évolution du transcriptome chez les conifères

Raherison, Solonirina Mahefasoa Elie 23 April 2018 (has links)
Les analyses transcriptomiques contribuent à la compréhension des fonctions du génome des organismes non modèles comme les conifères, qui ont une importance économique et écologique au Canada. La majorité des études transcriptomiques sur les conifères ont abordé des questions biologiques spécifiques, en se penchant tout particulièrement sur les gènes différentiellement exprimés entre les stades de développement et les conditions biologiques. Ces études sont faites à partir d’un nombre limité de tissus. Notre étude avait des objectifs plus fondamentaux qui étaient d’étudier la structure, la dynamique et l’évolution du transcriptome chez les conifères. Nous avons mené deux études d’expression pour comparer différents tissus (études sur plusieurs tissus), une dont le but était de comparer des espèces et une autre pour analyser la variation temporelle de l’expression de gènes d’un type de tissu au cours d’une saison de croissance. Les données d’expression ont été générées grâce à la méthode d’hybridation utilisant des puces à ADN. Nous avons construit la première puce à oligonucléotide pour les conifères. Comparée aux puces à ADNc utilisées dans d’autres études, notre puce a une plus large couverture du génome avec près de 24 000 gènes de l’épinette blanche (Picea glauca [Moench] Voss.). L’analyse sur plusieurs espèces a montré la conservation des profils d’expression préférentiels aux tissus vasculaires entre des espèces d’épinettes. Nous avons créé la première base de données d’expression tissulaire chez les conifères. Cette base de données, appelée PiceaGenExpress, est issue d’une analyse sur plusieurs tissus qui se base sur des données semi-quantitatives. Pour une autre étude sur plusieurs tissus, nous avons analysé des données quantitatives. Ces analyses ont permis de mettre en évidence l’organisation modulaire du transcriptome et de construire un réseau transcriptionnel du xylème. Dans ce réseau, PgNAC-7 est le gène le mieux connecté et préférentiellement exprimé pendant la formation du bois initial, indiquant ainsi son rôle variable dans le temps. Nos résultats constituent une base des connaissances qui permettent des études sur des sujets indépendants par d’autres auteurs. Nos découvertes sont aussi une base pour le développement de marqueurs pour la sélection génétique des conifères dans une perspective de conservation et d’amélioration. / Transcriptome analyses contribute to the understanding of genome function in non-model organisms such as conifers trees, which are of economic and ecological importance in Canada. Most transcriptome profiling experiments in conifers have addressed specific biological questions, focusing on differential expressed genes between developmental stages or biological conditions and have analysed only a few different tissue types at a time. Our study had more fundamental goals which were to investigate transcriptome structure, dynamics and evolution in conifers. We conducted two gene expression studies comparing different tissues (multi-tissue analysis), as well as an analysis comparing species and another that monitored changes over the course of a growth season within a tissue type. Expression data were generated from microarray hybridizations. We developed the first oligonucleotide microarray in conifers. Compared to the cDNA-based microarrays used in previous studies, it has broader genome coverage with about 24 000 white spruce (Picea glauca [Moench] Voss.) genes. Analysis across species revealed the conservation of vascular tissue preferential expression patterns between spruce species. We built the first gene expression database of tissues in conifers. This database, called PiceaGenExpress, comes from a multi-tissue analysis based on semi-quantitative data. A separate multi-tissue analysis used quantitative data, highlighted the modular organization of transcriptome and, lead to the construction of a xylem transcriptional network. The gene PgNAC-7 was the most connected gene in the network and was preferentially expressed during earlywood formation indicating that its role is temporally variable. Ours results represent a knowledge foundation which has enabled research on several independent topics by other researchers. Our findings are also a basis for the development of genetic selection markers for conifer tree breeding and conservation.
50

Développement d'un décanteur lamellaire pour le traitement d'eau en situation d'urgence humanitaire

Bédard, Gabriel 23 April 2018 (has links)
Les situations d’urgence dans les pays en voie de développement amènent les populations locales à vivre sans accès à de l’eau propre à la consommation. Afin de répondre à de telles situations, un projet de développement d’un décanteur lamellaire transportable a débuté avec, comme objectif, d’obtenir un système permettant d’abaisser la turbidité d’une grande variété d’eaux brutes, pouvant être rencontrées sur le terrain, à un niveau de 5 UTN ou moins. À la suite des deux premières phases du projet (2011 et 2013), un travail de maîtrise ayant pour objectif d’améliorer la performance du système a été effectué et fait l’objet du présent mémoire. Ce travail inclut des essais en laboratoires à l'université Laval (Canada) ainsi que la construction de la version finale du système à Pune (Inde). Globalement, l’ajout d’un déversoir longitudinal et d’une plaque de déflection trouée au-dessus des lamelles du décanteur a permis d’améliorer la répartition du débit à travers ces lamelles. Également, un floculateur hydraulique à chicanes en configuration « autour de l’extrémité » a été construit et a permis d’atteindre l’objectif de traitement (5 UTN). / Emergencies in developing countries bring local population to live with a lack of safe drinking water. In order to answer these crisis, a transportable plate settler project was started and aimed at developing a system which would be able to reduce the turbidity of a great variety of raw water which can be found on the field during an emergency to 5 NTU or less. After the first two phases of the project (2011 and 2013), a master degree project was started with the aim of further improve the performance of the system and is the object of the present dissertation. This work includes laboratory tests at Laval University (Canada) and the construction of the final version of the system in Pune (India). In general, a lengthwise launder and a ported baffle were added above the settling plates allowed a better distribution of the flow though those plates. Also, a baffle hydraulic floculator in an "around-the-end" configuration was built and has allowed to achieve the performance objective (5 NTU).

Page generated in 0.0334 seconds