• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 50
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1055
  • 348
  • 219
  • 208
  • 204
  • 167
  • 145
  • 144
  • 116
  • 101
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Mécanismes d'accès multiple dans les réseaux sans fil large bande / Multiple Access Mechanisms in Broadband Wireless Networks

Ragaleux, Alexandre 22 September 2016 (has links)
Dans cette thèse, nous étudions le problème de l'allocation de ressources dans le cadre des réseaux 4G LTE. La méthode d'accès OFDMA qui est utilisée partage les ressources radios à la fois dans le domaine fréquentiel et temporel. En raison des déficiences du canal, les utilisateurs ne bénéficient pas toujours des mêmes débits d'émission/réception sur chacune des ressources. Dans ce cadre, notre problème consiste à distribuer ces ressources radios aux mobiles afin de leur permettre de transmettre/recevoir des données. L'algorithme utilisé pour allouer les ressources a une importance fondamentale sur les performances du système. La norme LTE ajoute des contraintes supplémentaires à ce problème et rend l'exploitation de la diversité fréquentielle et de la diversité multi-utilisateurs plus difficile. En effet, sous ces contraintes, nous montrons que le problème de l'allocation de ressources fait alors partie de la classe des problèmes « difficiles ». Par conséquent, les algorithmes classiques de la littérature sont souvent inadaptés à un réseau LTE réel. Nous proposons des algorithmes d'allocation de ressources à la fois pour le sens montant et descendant de LTE. Les contraintes de la norme sont rigoureusement prises en compte afin de construire des solutions efficaces. De plus, les algorithmes proposés sont génériques et peuvent donc s'adapter à une grande variété d'objectifs. En particulier, nous nous attachons à prendre en charge les trafics multimédias dont les débits et les besoins en qualité de service sont très hétérogènes (taux d’erreurs binaires, retard, gigue, etc.). En effet, l'augmentation progressive des débits et la forte popularité des équipements mobiles intelligents amènent à une utilisation toujours plus massive des applications multimédias. Tous nos algorithmes sont validés par simulation. Par ce biais, nous montrons que la prise en compte des contraintes de LTE est essentielle à l'obtention de performances élevées. / In this thesis, we study the resource allocation problem within the framework of 4G LTE networks. The OFDMA access method divides the radio resources both in the frequency and time domains. Due to channel impairments, users do not always have the same transmit/receive rates on each resource. In this context, our problem is to share the radio resources between users and enable them to transmit/receive data. The algorithm used to allocate resources is of fundamental importance on system performance. The LTE standard adds constraints to this problem and makes harder the exploitation of the frequency and the multi-user diversity. Indeed, under these constraints, we show that the resource allocation problem becomes part of the « most difficult » problems. Therefore, the conventional algorithms are often not adapted to a real LTE network. We provide resource allocation algorithms for both the uplink and downlink of LTE. The constraints of the standard are rigorously taken into account in order to build effective solutions. In addition, the proposed algorithms are generic and can adapt to a wide variety of objectives. In particular, we focus on the support of multimedia traffic with heterogeneous quality of service requirements (bit error rate, delay, jitter, etc.). Indeed, the gradual increase of the offered throughput and the strong popularity of smart mobile devices lead to a massive use of multimedia applications. Our algorithms are validated through extensive simulation. By this means, we show that the inclusion of LTE constraints is essential to achieving high performance.
412

Représentations redondantes et hiérarchiques pour l'archivage et la compression de scènes sonores / Sparse and herarchical representations for archival and compression of audio scenes

Moussallam, Manuel 18 December 2012 (has links)
L'objet de cette thèse est l'analyse et le traitement automatique de grands volumes de données audio. Plus particulièrement, on s'intéresse à l'archivage, tâche qui regroupe, au moins, deux problématiques: la compression des données, et l'indexation du contenu de celles-ci. Ces deux problématiques définissent chacune des objectifs, parfois concurrents, dont la prise en compte simultanée s'avère donc difficile. Au centre de cette thèse, il y a donc la volonté de construire un cadre cohérent à la fois pour la compression et pour l'indexation d'archives sonores. Les représentations parcimonieuses de signaux dans des dictionnaires redondants ont récemment montré leur capacité à remplir une telle fonction. Leurs propriétés ainsi que les méthodes et algorithmes permettant de les obtenir sont donc étudiés dans une première partie de cette thèse. Le cadre applicatif relativement contraignant (volume des données) va nous amener à choisir parmi ces derniers des algorithmes itératifs, appelés également gloutons. Une première contribution de cette thèse consiste en la proposition de variantes du célèbre Matching Pursuit basées sur un sous-échantillonnage aléatoire et dynamique de dictionnaires. L'adaptation au cas de dictionnaires temps-fréquence structurés (union de bases de cosinus locaux) nous permet d'espérer une amélioration significative des performances en compression de scènes sonores. Ces nouveaux algorithmes s'accompagnent d'une modélisation statistique originale des propriétés de convergence usant d'outils empruntés à la théorie des valeurs extrêmes. Les autres contributions de cette thèse s'attaquent au second membre du problème d'archivage: l'indexation. Le même cadre est cette fois-ci envisagé pour mettre à jour les différents niveaux de structuration des données. Au premier plan, la détection de redondances et répétitions. A grande échelle, un système robuste de détection de motifs récurrents dans un flux radiophonique par comparaison d'empreintes est proposé. Ses performances comparatives sur une campagne d'évaluation du projet QUAERO confirment la pertinence de cette approche. L'exploitation des structures pour un contexte autre que la compression est également envisagé. Nous proposons en particulier une application à la séparation de sources informée par la redondance pour illustrer la variété de traitements que le cadre choisi autorise. La synthèse des différents éléments permet alors d'envisager un système d'archivage répondant aux contraintes par la hiérarchisation des objectifs et des traitements. / The main goal of this work is automated processing of large volumes of audio data. Most specifically, one is interested in archiving, a process that encompass at least two distinct problems: data compression and data indexing. Jointly addressing these problems is a difficult task since many of their objectives may be concurrent. Therefore, building a consistent framework for audio archival is the matter of this thesis. Sparse representations of signals in redundant dictionaries have recently been found of interest for many sub-problems of the archival task. Sparsity is a desirable property both for compression and for indexing. Methods and algorithms to build such representations are the first topic of this thesis. Given the dimensionality of the considered data, greedy algorithms will be particularly studied. A first contribution of this thesis is the proposal of a variant of the famous Matching Pursuit algorithm, that exploits randomness and sub-sampling of very large time frequency dictionaries. We show that audio compression (especially at low bit-rate) can be improved using this method. This new algorithms comes with an original modeling of asymptotic pursuit behaviors, using order statistics and tools from extreme values theory. Other contributions deal with the second member of the archival problem: indexing. The same framework is used and applied to different layers of signal structures. First, redundancies and musical repetition detection is addressed. At larger scale, we investigate audio fingerprinting schemes and apply it to radio broadcast on-line segmentation. Performances have been evaluated during an international campaign within the QUAERO project. Finally, the same framework is used to perform source separation informed by the redundancy. All these elements validate the proposed framework for the audio archiving task. The layered structures of audio data are accessed hierarchically by greedy decomposition algorithms and allow processing the different objectives of archival at different steps, thus addressing them within the same framework.
413

Functional representation of deformable surfaces for geometry processing / Représentation fonctionnelle des surfaces déformables pour l’analyse et la synthèse géométrique

Corman, Etienne 18 November 2016 (has links)
La création et la compréhension des déformations de surfaces sont des thèmes récurrent pour le traitement de géométrie 3D. Comme les surfaces lisses peuvent être représentées de multiples façon allant du nuage ​​de points aux maillages polygonales, un enjeu important est de pouvoir comparer ou déformer des formes discrètes indépendamment de leur représentation. Une réponse possible est de choisir une représentation flexible des surfaces déformables qui peut facilement être transportées d'une structure de données à une autre.Dans ce but, les "functional map" proposent de représenter des applications entre les surfaces et, par extension, des déformations comme des opérateurs agissant sur des fonctions. Cette approche a été introduite récemment pour le traitement de modèle 3D, mais a été largement utilisé dans d'autres domaines tels que la géométrie différentielle, la théorie des opérateurs et les systèmes dynamiques, pour n'en citer que quelques-uns. Le principal avantage de ce point de vue est de détourner les problèmes encore non-résolus, tels que la correspondance forme et le transfert de déformations, vers l'analyse fonctionnelle dont l'étude et la discrétisation sont souvent mieux connues. Cette thèse approfondit l'analyse et fournit de nouvelles applications à ce cadre d'étude. Deux questions principales sont discutées.Premièrement, étant donné deux surfaces, nous analysons les déformations sous-jacentes. Une façon de procéder est de trouver des correspondances qui minimisent la distorsion globale. Pour compléter l'analyse, nous identifions les parties les moins fiables du difféomorphisme grâce une méthode d'apprentissage. Une fois repérés, les défauts peuvent être éliminés de façon différentiable à l'aide d'une représentation adéquate des champs de vecteurs tangents.Le deuxième développement concerne le problème inverse : étant donné une déformation représentée comme un opérateur, comment déformer une surface en conséquence ? Dans une première approche, nous analysons un encodage de la structure intrinsèque et extrinsèque d'une forme en tant qu'opérateur fonctionnel. Dans ce cadre, l'objet déformé peut être obtenu, à rotations et translations près, en résolvant une série de problèmes d'optimisation convexe. Deuxièmement, nous considérons une version linéarisée de la méthode précédente qui nous permet d'appréhender les champs de déformation comme agissant sur la métrique induite. En conséquence la résolution de problèmes difficiles, tel que le transfert de déformation, sont effectués à l'aide de simple systèmes linéaires d'équations. / Creating and understanding deformations of surfaces is a recurring theme in geometry processing. As smooth surfaces can be represented in many ways from point clouds to triangle meshes, one of the challenges is being able to compare or deform consistently discrete shapes independently of their representation. A possible answer is choosing a flexible representation of deformable surfaces that can easily be transported from one structure to another.Toward this goal, the functional map framework proposes to represent maps between surfaces and, to further extents, deformation of surfaces as operators acting on functions. This approach has been recently introduced in geometry processing but has been extensively used in other fields such as differential geometry, operator theory and dynamical systems, to name just a few. The major advantage of such point of view is to deflect challenging problems, such as shape matching and deformation transfer, toward functional analysis whose discretization has been well studied in various cases. This thesis investigates further analysis and novel applications in this framework. Two aspects of the functional representation framework are discussed.First, given two surfaces, we analyze the underlying deformation. One way to do so is by finding correspondences that minimize the global distortion. To complete the analysis we identify the least and most reliable parts of the mapping by a learning procedure. Once spotted, the flaws in the map can be repaired in a smooth way using a consistent representation of tangent vector fields.The second development concerns the reverse problem: given a deformation represented as an operator how to deform a surface accordingly? In a first approach, we analyse a coordinate-free encoding of the intrinsic and extrinsic structure of a surface as functional operator. In this framework a deformed shape can be recovered up to rigid motion by solving a set of convex optimization problems. Second, we consider a linearized version of the previous method enabling us to understand deformation fields as acting on the underlying metric. This allows us to solve challenging problems such as deformation transfer are solved using simple linear systems of equations.
414

Random projection for high-dimensional optimization / Projection aléatoire pour l'optimisation de grande dimension

Vu, Khac Ky 05 July 2016 (has links)
À l'ère de la numérisation, les données devient pas cher et facile à obtenir. Cela se traduit par de nombreux nouveaux problèmes d'optimisation avec de très grandes tailles. En particulier, pour le même genre de problèmes, le nombre de variables et de contraintes sont énormes. En outre, dans de nombreux paramètres d'application tels que ceux dans l'apprentissage de la machine, une solution précise est moins préférée que celles approximatives mais robustes. Il est un véritable défi pour les algorithmes traditionnels, qui sont utilisés pour bien travailler avec des problèmes de taille moyenne, pour faire face à ces nouvelles circonstances.Au lieu de développer des algorithmes qui évoluent bien à résoudre ces problèmes directement, une idée naturelle est de les transformer en problèmes de petite taille qui se rapporte fortement aux originaux. Étant donné que les nouvelles sont de tailles gérables, ils peuvent encore être résolus efficacement par des méthodes classiques. Les solutions obtenues par ces nouveaux problèmes, cependant, nous donner un aperçu des problèmes originaux. Dans cette thèse, nous allons exploiter l'idée ci-dessus pour résoudre certains problèmes de grande dimension optimisation. En particulier, nous appliquons une technique spéciale appelée projection aléatoire pour intégrer les données du problème dans les espaces de faible dimension, et de reformuler environ le problème de telle manière qu'il devient très facile à résoudre, mais capte toujours l'information la plus importante.Dans le chapitre 3, nous étudions les problèmes d'optimisation dans leurs formes de faisabilité. En particulier, nous étudions le problème que l'on appelle l'adhésion linéaire restreint. Cette classe contient de nombreux problèmes importants tels que la faisabilité linéaire et entier. Nous proposonsd'appliquer une projection aléatoire aux contraintes linéaires etnous voulons trouver des conditions sur T, de sorte que les deux problèmes de faisabilité sont équivalentes avec une forte probabilité.Dans le chapitre 4, nous continuons à étudier le problème ci-dessus dans le cas où l'ensemble restreint est un ensemble convexe. Nous établissons les relations entre les problèmes originaux et projetés sur la base du concept de la largeur gaussienne, qui est populaire dans la détection comprimé. En particulier, nous montrons que les deux problèmes sont équivalents avec une forte probabilité aussi longtemps que pour une projection aléatoire échantillonné à partir ensemble sous-gaussienne avec grande dimension suffisante (dépend de la largeur gaussienne).Dans le chapitre 5, nous étudions le problème de l'adhésion euclidienne:.. `` Étant donné un vecteur b et un euclidienne ensemble fermé X, décider si b est en Xor pas "Ceci est une généralisation du problème de l'appartenance linéaire restreinte précédemment considéré. Nous employons une gaussienne projection aléatoire T pour l'intégrer à la fois b et X dans un espace de dimension inférieure et étudier la version projetée correspondant. Lorsque X est fini ou dénombrable, en utilisant un argument simple, nous montrons que les deux problèmes sont équivalents presque sûrement quelle que soit la dimension projetée. Dans le cas où X peut être indénombrable, nous prouvons que les problèmes initiaux et prévus sont également équivalentes si la dimension d projetée est proportionnelle à une dimension intrinsèque de l'ensemble X. En particulier, nous employons la définition de doubler la dimension estimer la relation entre les deux problèmes.Dans le chapitre 6, nous proposons d'appliquer des projections aléatoires pour la zone de confiance sous-problème. Nous réduisons le nombre de variables en utilisant une projection aléatoire et prouver que des solutions optimales pour le nouveau problème sont en fait des solutions approchées de l'original. Ce résultat peut être utilisé dans le cadre de confiance-région pour étudier l'optimisation de boîte noire et l'optimisation des produits dérivés libre. / In the digitization age, data becomes cheap and easy to obtain. That results in many new optimization problems with extremely large sizes. In particular, for the same kind of problems, the numbers of variables and constraints are huge. Moreover, in many application settings such as those in Machine learning, an accurate solution is less preferred as approximate but robust ones. It is a real challenge for traditional algorithms, which are used to work well with average-size problems, to deal with these new circumstances.Instead of developing algorithms that scale up well to solve these problems directly, one natural idea is to transform them into small-size problems that strongly relates to the originals. Since the new ones are of manageable sizes, they can still be solved efficiently by classical methods. The solutions obtained by these new problems, however, will provide us insight into the original problems. In this thesis, we will exploit the above idea to solve some high-dimensional optimization problems. In particular, we apply a special technique called random projection to embed the problem data into low dimensional spaces, and approximately reformulate the problem in such a way that it becomes very easy to solve but still captures the most important information. Therefore, by solving the projected problem, we either obtain an approximate solution or an approximate objective value for the original problem.We will apply random projection to study a number of important optimization problems, including linear and integer programming (Chapter 3), convex optimization with linear constraints (Chapter 4), membership and approximate nearest neighbor (Chapter 5) and trust-region subproblems (Chapter 6).In Chapter 3, we study optimization problems in their feasibility forms. In particular, we study the so-called restricted linear membership problem. This class contains many important problems such as linear and integer feasibility. We proposeto apply a random projection to the linear constraints, andwe want to find conditions on T, so that the two feasibility problems are equivalent with high probability.In Chapter 4, we continue to study the above problem in the case the restricted set is a convex set. Under that assumption, we can define a tangent cone at some point with minimal squared error. We establish the relations between the original and projected problems based on the concept of Gaussian width, which is popular in compressed sensing. In particular, we prove thatthe two problems are equivalent with high probability as long as for some random projection sampled from sub-gaussian ensemble with large enough dimension (depends on the gaussian width).In Chapter 5, we study the Euclidean membership problem: ``Given a vector b and a Euclidean closed set X, decide whether b is in Xor not". This is a generalization of the restricted linear membership problem considered previously. We employ a Gaussian random projection T to embed both b and X into a lower dimension space and study the corresponding projected version: ``Decide whether Tb is in T(X) or not". When X is finite or countable, using a straightforward argument, we prove that the two problems are equivalent almost surely regardless the projected dimension. In the case when X may be uncountable, we prove that the original and projected problems are also equivalent if the projected dimension d is proportional to some intrinsic dimension of the set X. In particular, we employ the definition of doubling dimension estimate the relation between the two problems.In Chapter 6, we propose to apply random projections for the trust-region subproblem. We reduce the number of variables by using a random projection and prove that optimal solutions for the new problem are actually approximate solutions of the original. This result can be used in the trust-region framework to study black-box optimization and derivative-free optimization.
415

Simulation numérique de reformeur autothermique de diesel / Numerical simulation of diesel autothermal reformer

Epalle, Thomas 23 April 2019 (has links)
Le reformage autothermique, dans lequel une oxydation air carburant permet d’initier les réactions de formation d’hydrogène à partir de carburant et d’eau, semble une voie prometteuse pour la synthèse d’hydrogène à bord de navires. Son application au diesel, carburant majoritairement utilisé dans le secteur maritime, bien que moins bien connue académiquement que celle du méthane, permet une opérabilité du vaisseau sur l’ensemble du globe. Cependant les réacteurs associés sont particulièrement sujets au dépôt de carbone, néfaste pour leur durabilité, et requièrent alors une attention toute particulière au niveau des zones de mélange lors de leur conception. Dans les cas d’écoulements fortement tridimensionnels, une approche RANS couplée à un schéma cinétique décrivant les espèces gazeuses, est le plus souvent utilisée. Ce schéma consiste alors soit en un nombre succint de réactions empiriques, au risque de se montrer peu précis sur les niveaux de polluants, ou au contraire en des schémas d’une cinquantaine d’espèces issus de la réduction automatique de schémas complets, qui restent cependant trop lourds à utiliser lors d’une phase de conception. L’objectif de la thèse est alors de proposer une méthodologie pour décrire l’impact d’une géométrie sur les niveaux de polluants compatibles avec les outils habituellement utilisés dans le milieu industriel. Ainsi, la description du couplage chimie-écoulement est réalisée par le biais des logiciels Fluent R et de la suite Chemkin R de ANSYS R . Après une analyse de la chimie du reformage autothermique du diesel, une méthode de génération de schémas globaux d’une di-zaine d’espèces à partir d’un schéma détaillé est proposée. Elle est, par la suite appliquée avec succès à l’oxydation partielle du n-dodécane. Le schéma estalors utilisé dans la première simulation réactive de reformeur auto-thermique avec injection de diesel liquide réalisée à ce jour. Malgré les difficultés de validation dûes au manque de données experimentales et aux limitations des logiciels imposés, les résultats obtenus sont encourageants. / Autothermal reformers use fuel-air oxidation to ensure production of hydrogen from fuel and water on-board. The use of diesel instead of better-known methan, permits the ships to be refuelled all around the world. These systems show strong sensitivity to carbon deposit which reduces their lifetime. Good knowledge of the fuel air mixing is thus required. Academic description of such tridimensional systems usually relies on the application of a RANS simulation coupled with gaseous chemical kinetics mechanism. These mechanisms can then consist on a few empirical reactions, or at the opposite, on quite large schemes, with more than 50 species derived automatically from big detailled schemes. The resulting description is then not enough precise, or at the opposite too computationally expensive to be used during design process. This thesis thus aims to develop an industrial compatible methodology to describe the impact of design geometry on pollutant formation. ANSYS software such as Fluent and Chemkin are then used to perform the simulation. An original method of limited size mechanism derivation from larger chemical scheme is proposed. It is succesfully applied to the generation of a partial oxidation mechanism of n-dodecane, from the results of diesel reforming chemical analysis. The resulting scheme is then applied on theliquid injection diesel autoreformer reactive simulation. Even if validation difficulties result from the lack of experimental data and limitations of the softwares, it remains the first simulation of this kind in the litterature, to our knowledge. Promising results are obtained.
416

Efficiency of distributed queueing games and of path discovery algorithms / Efficacité des jeux en files d'attente distribués et des algorithmes de découvert de chemin

Doncel, Josu 30 March 2015 (has links)
Cette thèse porte sur l'efficacité des algorithmes distribués de partage des ressources et des algorithmes de découvert de chemin en ligne. Dans la première partie de la thèse, nous analysons un jeu dans lequel les utilisateurs paient pour utiliser une ressource partagée. La ressource allouée à un utilisateur est directement proportionnel à son paiement. Chaque utilisateur veut minimiser son paiement en assurant une certaine qualité de service. Ce problème est modélisé comme un jeu non-coopératif de partage des ressources. A cause du manque des expressions analytiques de la discipline de file d'attente sous-jacente, nous pouvons résoudre le jeu que sous certaines hypothèses. Pour le cas général, nous développons une approximation basée sur un résultat fort trafic et nous validons la précision de l'approximation numériquement.Dans la deuxième partie, nous étudions l'efficacité des jeux de balance de charge, c'est à dire, nous comparons la perte de performance de routage non coopératif décentralisé avec un routage centralisé. Nous montrons que le PoA est une mesure très pessimiste car il est atteint que dans des cas pathologiques. Dans la plupart des scénarios, les implémentations distribués de balance de charge effectuent presque aussi bien que la mise en œuvre centralisée optimale.Dans la dernière partie de la thèse, nous analysons problème de découverte chemin optimal dans les graphes complets. En ce problème, les valeurs des arêtes sont inconnues, mais peuvent être interrogés. Pour une fonction donnée qui est appliquée à des chemins, l'objectif est de trouver un meilleur chemin de valeur à partir d'une source vers une destination donnée interrogation le plus petit nombre de bords. Nous vous proposons le rapport de requête en tant que mesure de l'efficacité des algorithmes qui permettent de résoudre ce problème. Nous prouvons une limite inférieure pour ne importe quel algorithme qui résout ce problème et nous avons proposé un algorithme avec un rapport de requête strictement inférieure à 2. / This thesis deals with the efficiency of distributed resource sharing algorithms and of online path discovery algorithms. In the first part of the thesis, we analyse a game in which users pay for using a shared resource. The allocated resource to a user is directly proportional to its payment. Each user wants to minimize its payment while ensuring a certain quality of service. This problem is modelled as a non-cooperative resource-sharing game. Due to lack of analytical expressions for the underlying queuing discipline, we are able to give the solution of the game only under some assumptions. For the general case, we develop an approximation based on a heavy-traffic result and we validate the accuracy of the approximation numerically. In the second part, we study the efficiency of load balancing games, i.e., we compare the loss in performance of noncooperative decentralized routing with a centralized routing. We show that the PoA is very pessimistic measure since it is achieved in only pathological cases. In most scenarios, distributed implementations of load-balancing perform nearly as well as the optimal centralized implementation. In the last part of the thesis, we analyse the optimal path discovery problem in complete graphs. In this problem, the values of the edges are unknown but can be queried. For a given function that is applied to paths, the goal is to find a best value path from a source to a given destination querying the least number of edges. We propose the query ratio as efficiency measure of algorithms that solve this problem. We prove a lower-bound for any algorithm that solves this problem and we proposed an algorithm with query ratio strictly less than 2.
417

Contributions à la compression de données

Pigeon, Steven January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
418

Parallélisation des algorithmes de Monte-Carlo multicanoniques

Brunet, Charles 19 April 2018 (has links)
Les méthodes de Monte-Carlo multicanoniques sont des techniques adaptatives de simulation numérique permettant d'estimer des distributions de probabilités complexes, particulièrement lorsque les probabilités recherchées sont extrêmement petites. Ces méthodes sont basées notamment sur les chaînes de Markov. Avec ces méthodes il est possible d'obtenir des résultats de manière beaucoup plus rapide qu'avec d'autres techniques comme le Monte-Carlo. Nous discutons ici de la parallélisation de ces algorithmes, pour en permettre l'utilisation sur un super-ordinateur. De cette manière, il deviendra possible de simuler des systèmes encore plus complexes avec davantage de précision. Dans ce mémoire, nous voyons tout d'abord des notions de base à propos de la programmation parallèle. Puis nous étudions les fondements mathématiques du Monte-Carlo multicanonique. Ensuite, nous déterminons des critères pour en estimer la performance et la précision. Enfin, nous étudions comment on peut le paralléliser afin de l'utiliser sur un super-ordinateur.
419

Remote sensing of phytoplankton in the Arctic Ocean : development, tuning and evaluation of new algorithms

Li, Juan 01 September 2022 (has links)
Thèse en cotutelle : Université Laval, Québec, Canada, Philosophiæ doctor (Ph. D.) et Wuhan University, Wuhan, Chine. / Au cours des dernières décennies, l'augmentation de la production primaire (PP) dans l'océan Arctique (AO) a en partie été associée à une augmentation de la biomasse phytoplanctonique, comme l'ont montré des études de télédétection. La concentration en chlorophylle a (Chl), un indicateur de la biomasse phytoplanctonique, est un facteur clé qui peut biaiser les estimations de la PP quand elle comporte des erreurs de mesure. En d'autres mots, une estimation précise de la Chl est cruciale pour améliorer notre connaissance de l'écosystème marin et de sa réponse au changement climatique en cours. Cependant, la télédétection de la couleur de l'océan dans l'océan Arctique présente plusieurs défis. Tout d'abord, il est bien connu que l'échec des algorithmes standards de la couleur de l'océan dans l'AO est dû à l'interférence des matières colorées et détritiques (CDM) dans le spectre visible, mais comment et dans quelle mesure cela va biaiser l'estimation de la Chl reste inconnu. En outre, la Chl étant un facteur clé utilisé pour estimer la PP, la propagation des erreurs des estimations de la Chl aux estimations de la PP doit être évaluée. Le dernier mais le plus important est qu'un algorithme robuste avec une incertitude raisonnable, en particulier pour les eaux côtières complexes et productives, n'est pas encore disponible. Pour résoudre ces problèmes, dans cette étude, nous avons d'abord compilé une grande base de données bio-optiques in situ dans l'Arctique, à partir de laquelle nous avons évalué de manière approfondie les algorithmes de couleur de l'océan actuellement disponibles du point de vue des impacts des CDM. Nous avons constaté que plus le niveau de CDM par rapport à la Chl dans la colonne d'eau était élevé, plus il biaisait les estimations de la Chl. L'analyse de sensibilité des estimations de la PP sur la Chl a montré que l'erreur des estimations de la Chl était amplifiée de 7% lorsqu'elle était passée dans l'estimation du PP en utilisant un modèle de PP résolu spectralement et verticalement. En outre, pour obtenir de meilleurs résultats, nous avons optimisé un algorithme semi-analytique (Garver-Siegel-Maritorena, GSM) pour l'AO en ajoutant la bande spectrale de 620 nm qui est moins affectée par le CDM et le signal ici est généralement élevé pour les eaux riches en CDM, devenant anisi important pour le GSM afin d'obtenir des estimates précises de la Chl. Notre algorithme ajusté, GSMA, n'a amélioré la précision que de 8% pour l'AO, mais l'amélioration pour les eaux côtières a atteint 93%. Enfin, étant donné que les algorithmes qui n'exploitent pour la plupart que les parties bleue et verte du spectre visible sont problématiques pour les eaux très absorbantes/obscures, nous avons introduit un modèle d'émission de fluorescence pour tenir compte des propriétés bio-optiques du phytoplancton dans la partie rouge du spectre visible. En se couplant avec le GSMA, le nouvel algorithme à spectre complet, FGSM, a encore amélioré la précision des estimations de la Chl de ~44% pour les eaux eutrophes. À l'avenir, des couplages sont nécessaires à des fins de validation en ce qui concerne l'application satellitaire. De plus, de nouvelles approches pouvant être appliquées pour détecter le maximum de chlorophylle sous la surface (SCM), les efflorescences en bordure de glace et/ou sous la glace, les types fonctionnels de phytoplancton (PFT), sont attendues. / In the recent decades, the raise of primary production (PP) in the Arctic Ocean (AO) is mainly driven by the increase of phytoplankton biomass as multiple remote sensing studies have suggested. Chlorophyll a concentration (Chl), a proxy of phytoplankton biomass, is a key factor that biases PP estimates. In terms of bottom-up control, accurate Chl estimate is crucial to improve our knowledge of marine ecosystem and its response to ongoing climate change. However, there are several challenges of ocean color remote sensing in the Arctic Ocean. Firstly, it is well known that the failure of standard ocean color algorithms in the AO is due to the interference of colored and detrital material (CDM) in the visible spectrum, but how and to what extend it will bias the estimation of Chl remains unknown. Besides, Chl as a key factor used to estimate PP, error propagation from Chl estimates to PP estimates needs to be assessed. The last but most important is that a robust algorithm with reasonable uncertainty, especially for the complex and productive coastal waters, is not yet available. To address these problems, in this study, we first compiled a large Arctic in situ bio-optical database, based on which we thoroughly evaluated presently available ocean color algorithms from a perspective of the impacts of CDM. We found that the higher the level of CDM relative to Chl in the water column, the larger it would bias Chl estimates. Sensitivity analysis of PP estimates on Chl showed that the error of Chl estimates was amplified within 7% when passed into the estimation of PP using a spectrally- and vertically-resolved PP model. Besides, to obtain better results, we tuned GSM for the AO by adding 620 waveband which is less affected by CDM and the signal here is generally high for CDM-rich waters thus become important for GSM to retrieve accurate Chl estimates. Our tuned algorithm, GSMA, merely improved the accuracy by 8% for the AO, but the improvement for coastal waters reached up to 93%. Finally, given that algorithms that only exploits visible spectrum are problematic for highly-absorbing/dark waters, we introduced the fluorescence emission model to account for the bio-optical properties of phytoplankton in the near infrared spectrum. By coupling with GSMA, the novel full-spectrally algorithm, FGSM, further improved the accuracy of Chl estimates by ~44% for eutrophic waters. In the future, matchups are needed for validation purposes with respect to satellite application. Moreover, new approaches that can be applied to detect subsurface chlorophyll maximum (SCM), ice-edge and/or under-ice blooms, phytoplankton functional types (PFT) and so on are expected.
420

Algorithmes d'apprentissage automatique pour la conception de composés pharmaceutiques et de vaccins

Giguère, Sébastien 23 April 2018 (has links)
La découverte de composés pharmaceutiques est actuellement trop longue et trop coûteuse, et le taux d’échec, trop élevé. Les bases de données biochimiques et génomiques ne cessent de grossir et il est maintenant impraticable d’interpréter ces données. Un changement radical est nécessaire ; certaines étapes de ce processus doivent être automatisées. Les peptides jouent un rôle important dans le système immunitaire et dans la signalisation cellulaire. Leurs propriétés favorables en font des candidats de choix pour initier la conception de nouveaux médicaments et assister la production de nouveaux vaccins. De plus, les techniques de synthèse modernes permettent de rapidement synthétiser ces molécules à faible coût. Les algorithmes d’apprentissage statistique sont particulièrement bien adaptés pour apprendre de façon automatisée des modèles, possiblement biochimiques, à partir des données existantes. Ces méthodes et les peptides offrent donc une solution de choix aux défis auxquels fait face la recherche pharmaceutique. Nous proposons un noyau permettant l’apprentissage de modèles statistiques de phénomènes biochimiques impliquant des peptides. Celui-ci permet, entre autres, l’apprentissage d’un modèle universel pouvant raisonnablement quantifier l’énergie de liaison entre toute séquence peptidique et tout site de liaison d’une protéine cristallisée. De plus, il unifie la théorie de plusieurs noyaux existants tout en conservant une faible complexité algorithmique. Ce noyau s’avère particulièrement adapté pour quantifier l’interaction entre les antigènes et les complexes majeurs d’histocompatibilité. Nous proposons un outil pour prédire les peptides qui survivront au processus de présentation antigénique. Cet outil a gagné une compétition internationale et aura plusieurs applications en immunologie, dont la conception de vaccins. Ultimement, un peptide doit maximiser l’interaction avec une protéine cible ou maximiser la bioactivité chez l’hôte. Nous formalisons ce problème comme un problème de prédiction de structures. Puis, nous proposons un algorithme exploitant les plus longs chemins dans un graphe pour déterminer les peptides maximisant la bioactivité prédite par un modèle préalablement appris. Nous validons cette nouvelle approche en laboratoire par la découverte de peptides antimicrobiens. Finalement, nous fournissons des garanties de performance de type PAC-Bayes pour deux algorithmes de prédiction de structure dont un est nouveau. / The discovery of pharmaceutical compounds is currently too time-consuming, too expensive, and the failure rate is too high. Biochemical and genomic databases continue to grow and it is now impracticable to interpret these data. A radical change is needed; some steps in this process must be automated. Peptides are molecules that play an important role in the immune system and in cell signaling. Their favorable properties make them prime candidates for initiating the design of new drugs and assist in the design of vaccines. In addition, modern synthesis techniques can quickly generate these molecules at low cost. Statistical learning algorithms are well suited to manage large amount of data and to learn models in an automated fashion. These methods and peptides thus offer a solution of choice to the challenges facing pharmaceutical research. We propose a kernel for learning statistical models of biochemical phenomena involving peptides. This allows, among other things, to learn a universal model that can reasonably quantify the binding energy between any peptide sequence and any binding site of a protein. In addition, it unifies the theory of many existing string kernels while maintaining a low computational complexity. This kernel is particularly suitable for quantifying the interaction between antigens and proteins of the major histocompatibility complex. We provide a tool to predict peptides that are likely to be processed by the antigen presentation pathway. This tool has won an international competition and has several applications in immunology, including vaccine design. Ultimately, a peptide should maximize the interaction with a target protein or maximize bioactivity in the host. We formalize this problem as a structured prediction problem. Then, we propose an algorithm exploiting the longest paths in a graph to identify peptides maximizing the predicted bioactivity of a previously learned model. We validate this new approach in the laboratory with the discovery of new antimicrobial peptides. Finally, we provide PAC-Bayes bound for two structured prediction algorithms, one of which is new.

Page generated in 0.0842 seconds