• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 340
  • 199
  • 45
  • 1
  • Tagged with
  • 573
  • 309
  • 119
  • 71
  • 63
  • 63
  • 59
  • 57
  • 56
  • 54
  • 50
  • 48
  • 45
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Techniques de codage d’images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches / Image coding techniques based on scene sparse representations and multi-patches spatial prediction

Chérigui, Safa 18 June 2014 (has links)
Au cours de ces dernières années, le domaine de la compression vidéo a connu un essor considérable avec le standard H.264/AVC et l'arrivée de son successeur HEVC. La prédiction spatiale de ces standards repose sur la propagation unidirectionnelle de pixels voisins. Bien que très efficace pour étendre des motifs répondants aux mêmes caractéristiques, cette prédiction présente des performances limitées lorsqu'il s'agit de propager des textures complexes. Cette thèse vise à explorer de nouveaux schémas de prédiction spatiale afin d'améliorer les techniques actuelles de prédiction intra, en étendant ces schémas locaux et monodimensionnels à des schémas globaux, multidimensionnels et multi-patches. Une première méthode de prédiction hybride intégrant correspondance de bloc et correspondance de gabarit (template) a été investiguée. Cette approche hybride a ensuite été étendue en prédiction multi-patches de type "neighbor embedding" (NE). L'autre partie de la thèse est dédiée à l'étude des épitomes dans un contexte de compression d'images. L'idée est d'exploiter la redondance spatiale de l'image d'origine afin d'extraire une image résumé contenant les patches de texture les plus représentatifs de l'image, puis ensuite utiliser cette représentation compacte pour reconstruire l'image de départ. Ce concept d'épitome a été intégré dans deux schémas de compression, l'un de ces algorithmes s'avère vraiment en rupture avec les techniques traditionnelles dans la mesure où les blocs de l'image sont traités, à l'encodeur et au décodeur, dans un ordre spatial qui dépend du contenu et cela dans un souci de propagation des structures de l'image. Dans ce dernier algorithme de compression, des modes de prédiction directionnelle intra H.264 étendus et des méthodes avancées de prédiction multi-patches y ont été également introduits. Ces différentes solutions ont été intégrées dans un encodeur de type H.264/AVC afin d'évaluer leurs performances de codage par rapport aux modes intra H.264 et à l'état de l'art relatif à ces différentes techniques. / In recent years, video compression field has increased significantly since the apparition of H.264/AVC standard and of its successor HEVC. Spatial prediction in these standards are based on the unidirectional propagation of neighboring pixels. Although very effective to extend pattern with the same characteristics, this prediction has limited performances to extrapolate complex textures. This thesis aims at exploring new spatial prediction schemes to improve the current intra prediction techniques, by extending these local schemes to global, multidimensional and multi-patches schemes. A hybrid prediction method based on template and block matching is first investigated. This hybrid approach is then extended to multi-patches prediction of type "Neighbor Embedding" (NE). The other part of this thesis is dedicated to the study of epitome image within the scope of image compression. The idea is to exploit spatial redundancies within the original image in order to first extract a summary image containing the texture patches the most representative of the image, and then use this compacted representation to rebuild the original image. The concept of epitome has been incorporated in two compression schemes, one of these algorithms is in rupture with the traditional techniques since the image blocks are processed, both at encoder and decoder sides, in a spatial order that depends on the image content and this in the interest of propagating image structures. In this last compression algorithm, extended H.264 Intra directional prediction modes and advanced multi-patches prediction methods have been also included. These different solutions have been integrated in an H.264/AVC encoder in order to assess their coding performances with respect to H.264 intra modes and the state of the art relative to these different techniques.
202

Commande non-entière des systèmes. : développement et application pour les modèles du flux de trafic routier / Non-integer control system-development and application for the traffic flow models

Uzunova, Milka 04 December 2009 (has links)
Le travail de thèse présenté dans le manuscrit s’articule autours de plusieurs éléments d’études concernant les modèles macroscopiques de flux de trafic routier à savoir la modélisation, la simulation et la commande. L’objectif de l’étude consiste à atteindre ou à maintenir une circulation automobile fluide sur des voies rapides. Il s’agit donc de s’assurer que le processus de flux de trafic routier reste dans des limites de stabilité et tout en offrant les meilleures performances et qualités de service aux usagers. L’étude repose sur l’analyse de la solution analytique d’une équation dynamique d’évolution du processus afin d’obtenir une fonction de transfert (TF). Le modèle retenu est un modèle macroscopique de flux de trafic du premier ordre du type LWR. L’objectif est d’obtenir une modélisation analytique conforme au modèle du réseau routier, qui dans le cas applicatif retenu est constitué d’un segment en aval d’un péage routier. Une commande du flux de trafic reposant sur le choix d’une stratégie qui satisfait les besoins des usagers sur les autoroutes au niveau des péages a été étudiée. Mettre en place une gestion des axes routier est une nécessité due à la croissance des flux qui ont pour conséquence de provoquer une saturation des voies de circulation. Les congestions apparaissent généralement aux heures de pointe, lors de travaux ou d’incidents. Elles provoquent des retards dans les déplacements des usagers et ont donc des répercutions socio-économiques et sur l’environnement. Il est donc nécessaire de garantir la fluidité du trafic routier par la conception et l’implémentation de stratégies de commande efficaces permettant d’annuler, de réduire, ou de retarder l’apparition des congestions. Une boucle de correction robuste de type CRONE est introduite dans le système de flux de trafic afin de satisfaire les objectifs de qualité requises du réseau routier face aux aléas de circulation et en assurant une circulation fluide, par le contrôle des barrières de péage.La variable de commande proposée est la densité du tronçon en amont du péage. Le résultat obtenu représente un retard pur pour le modèle de trafic comme un système à paramètres distribués. La commande étudiée est une commande robuste d’ordre non-entier associée à un prédicteur de Smith et une compensation du retard. Toutes les études ont été menées en simulation sous Matlab/Simulink. L’étude des réponses temporelles et harmoniques du système de flux de trafic a été réalisée. La stabilité du système et de ses performances ont pu ainsi être abordées. De même l’étude harmonique permet d’assurer que le système présente une marge de stabilité suffisante dans le domaine de variation des paramètres. / This thesis presents research carried out to several elements of the macroscopic traffic flow as the model, the control and the simulation of his control system. The main aims of the realized studies consist to keep the circulation on the high-ways fluid. That means that we must to assure some quality of the process regarding the stability of this process. More over to offer best performances and quality of the traffic services for the users on the ways networks.In our study we use the analytical solution method of the dynamic equation presenting the LWR traffic flow model process, for which we look to obtain transfer function. Our objective is to obtain a conform result to a toll plaza. Furthermore we look to make a choice of appropriate control algorithm to satisfy the traffic network and users’ needs. The traffic flow management needs results from the increasingly of the flows. As consequence of this we can obtain saturation in some places in the road network wildly known as a traffic jam usually in the rush hours, by reason of accident or repairs works. All this provoke a delay of the transportation flow and important environmental after-effect. Therefore it’s very important to assure the fluidity of the traffic using control strategies which will cancel, reduce or delay the traffic jam appearances. Because of all the reasons above, we have proposed a system with non-integer order control algorithm for maintain the traffic fluid by the control of the pikes in the toll plaza. The control variable is the upstream density which will influence on the downstream one. After the analytical solution of the toll plaza model we obtain a delay function which presents the plant in our distributed parameter system. For this system we apply a Smith prediction non-integer control algorithm and moreover we ameliorate this system with a Dead time non-integer order compensator.
203

Classification of RNA Pseudoknots and Comparison of Structure Prediction Methods / Classification de Pseudo-nœuds d'ARN et Comparaison de Méthodes de Prédiction de Structure

Zeng, Cong 03 July 2015 (has links)
De nombreuses recherches ont constaté l'importance des molécules d'ARN, car ils jouent un rôle vital dans beaucoup de procédures moléculaires. Et il est accepté généralement que les structures des molécules d'ARN sont la clé de la découverte de leurs fonctions.Au cours de l'enquête de structures d'ARN, les chercheurs dépendent des méthodes bioinformatiques de plus en plus. Beaucoup de méthodes in silico de prédiction des structures secondaires d'ARN ont émergé dans cette grosse vague, y compris certains qui sont capables de prédire pseudonoeuds, un type particulier de structures secondaires d'ARN.Le but de ce travail est d'essayer de comparer les méthodes de l'état de l'art pour prédiction de pseudonoeud, et offrir aux collègues des idées sur le choix d’une méthode pratique pour la seule séquence donnée. En fait, beaucoup d'efforts ont été fait dans la prédiction des structures secondaires d'ARN parmi lesquelles le pseudonoeud les dernières décennies, contribuant à de nombreux programmes dans ce domaine. Certaines enjeux sont soulevées conséquemment. Comment est-elle la performance de chaque méthode, en particulier sur une classe de séquences d'ARN particulière? Quels sont leurs pour et contre? Que pout-on profiter des méthodes contemporaines si on veut développer de nouvelles? Cette thèse a la confiance dans l'enquête sur les réponses.Cette thèse porte sur très nombreuses comparaisons de la performance de prédire pseudonoeuds d'ARN par les méthodes disponibles. Une partie principale se concentre sur la prédiction de signaux de déphasage par deux méthodes principalement. La deuxième partie principale se concentre sur la prédiction de pseudonoeuds qui participent à des activités moléculaires beaucoup plus générale.Dans le détail, la deuxième partie du travail comprend 414 pseudonoeuds de Pseudobase et de la Protein Data Bank, ainsi que 15 méthodes dont 3 méthodes exactes et 12 heuristiques. Plus précisément, trois grandes catégories de mesures complexes sont introduites, qui divisent encore les 414 pseudonoeuds en une série de sous-classes respectivement.Les comparaisons se passent par comparer les prédictions de chaque méthode basée sur l'ensemble des 414 pseudonœuds, et les sous-ensembles qui sont classés par les deux mesures complexes et la longueur, le type de l'ARN et de l'organisme des pseudonœuds.Le résultat montre que les pseudo-noeuds portent une complexité relativement faible dans toutes les mesures. Et la performance des méthodes modernes varie de sous-classe à l’autre, mais diminue constamment lors que la complexité de pseudonoeuds augmente. Plus généralement, les méthodes heuristiques sont supérieurs globalement à celles exacts. Et les résultats de l'évaluation sensibles sont dépendants fortement de la qualité de structure de référence et le système d'évaluation. Enfin, cette partie du travail est fourni comme une référence en ligne pour la communauté bioinformatique. / Lots of researches convey the importance of the RNA molecules, as they play vital roles in many molecular procedures. And it is commonly believed that the structures of the RNA molecules hold the key to the discovery of their functions.During the investigation of RNA structures, the researchers are dependent on the bioinformatical methods increasingly. Many in silico methods of predicting RNA secondary structures have emerged in this big wave, including some ones which are capable of predicting pseudoknots, a particular type of RNA secondary structures.The purpose of this dissertation is to try to compare the state-of-the-art methods predicting pseudoknots, and offer the colleagues some insights into how to choose a practical method for the given single sequence. In fact, lots of efforts have been done into the prediction of RNA secondary structures including pseudoknots during the last decades, contributing to many programs in this field. Some challenging questions are raised consequently. How about the performance of each method, especially on a particular class of RNA sequences? What are their advantages and disadvantages? What can we benefit from the contemporary methods if we want to develop new ones? This dissertation holds the confidence in the investigation of the answers.This dissertation carries out quite many comparisons of the performance of predicting RNA pseudoknots by the available methods. One main part focuses on the prediction of frameshifting signals by two methods principally. The second main part focuses on the prediction of pseudoknots which participate in much more general molecular activities.In detail, the second part of work includes 414 pseudoknots, from both the Pseudobase and the Protein Data Bank, and 15 methods including 3 exact methods and 12 heuristic ones. Specifically, three main categories of complexity measurements are introduced, which further divide the 414 pseudoknots into a series of subclasses respectively. The comparisons are carried out by comparing the predictions of each method based on the entire 414 pseudoknots, and the subsets which are classified by both the complexity measurements and the length, RNA type and organism of the pseudoknots.The result shows that the pseudoknots in nature hold a relatively low complexity in all measurements. And the performance of contemporary methods varies from subclass to subclass, but decreases consistently as the complexity of pseudoknots increases. More generally, the heuristic methods globally outperform the exact ones. And the susceptible assessment results are dependent strongly on the quality of the reference structures and the evaluation system. Last but not least, this part of work is provided as an on-line benchmark for the bioinformatics community.
204

Élaboration et comparaison de deux modèles de durée de vie des fils d’interconnexion des modules de puissance, l’un basé sur les déformations et l’autre sur les dégradations / Establishment and comparison of two lifetime model dedicated to wire bonds damage in power modules, with an approach based on deformation and an approach based on degradation

Dornic, Nausicaa 31 October 2019 (has links)
Dans de nombreux domaines, tels que l’industrie des transports ou bien des infrastructures, la tendance est à l’introduction toujours plus importante d’équipements électriques. De ce fait, les industriels sont de plus en plus confrontés à la nécessité de fournir des dispositifs robustes et fiables avec un minimum de maintenance. Les composants électroniques, tels que les transistors IGBTs ou MOSFETs et les diodes rassemblés dans des modules de puissance, sont au cœur de la conversion d'énergie électrique. En conséquence, ils sont soumis en opération à de fortes contraintes environnementales et fonctionnelles (température, humidité…). L’ensemble de ces contraintes a un impact sur la durée de vie des composants, et donc sur la fiabilité des dispositifs. D’un point de vue économique, le remplacement d’un équipement défectueux est moins pénalisant qu’une défaillance brutale du système. Ainsi, l’utilisation d’outils de diagnostic est nécessaire pour prédire la durée de vie restante des dispositifs en opération, et mettre en place une maintenance adaptée et efficace.Pour déterminer la durée de vie restante des modules de puissance en opération, des modèles de durée de vie sont utilisés. La plupart de ces modèles sont établis soit de manière empirique, soit de manière physique, soit de manière statistique. Les modèles empiriques sont les plus courants, car leur réalisation et implémentation sont maintenant bien connues. Ils se basent sur des résultats issus de tests de cyclage accélérés qui reproduisent les contraintes endurées par le module de puissance sous des conditions "accélérées" de fonctionnement. Une extrapolation est ensuite nécessaire pour obtenir l’état de santé du dispositif dans des conditions normales de fonctionnement. Le principal inconvénient de ces modèles réside dans le manque de description des mécanismes physiques responsables de l’endommagement. Ce manque peut mener potentiellement à des erreurs, notamment lors de l’extrapolation. C’est pourquoi les modèles basés sur la physique connaissent un intérêt grandissant.Dans cette thèse, deux modèles de durée de vie basés sur la physique et appliqués aux modules de puissance IGBTs sont proposés et comparés. La première approche est basée sur les déformations induites à l’intérieur de l’assemblage du module lorsque soumis à des contraintes thermiques. Dans ce cas, la dégradation est décrite via la quantification des déformations pour un stress thermique donné. Dans la seconde approche, le modèle de durée de vie est basé directement sur l’endommagement via l’établissement d’un modèle de dégradation. La comparaison des deux modèles met en lumière les défauts et qualités de chacun. D’une manière plus générale, l’établissement et la comparaison de ces modèles s’inscrit dans une démarche de développement d’outils de diagnostic afin de prédire la durée de vie restante des modules de puissance en opération. / The domain of power electronics reliability has become an important center of interest with the recent massive system electrification. The manufacturers are more and more confronted to the necessity of producing reliable devices with optimized maintenance. Electronics components, such as IGBTs, diodes and MOSFETs assembled in power modules, are at the center of the systems conversion, and as a consequence, are subjected to high environmental and functional stresses (ambient temperature, vibrations…). All these factors have a strong impact on the components lifetime and thus on the devices reliability. Economically, scheduling a maintenance with a system replacement is less detrimental than a brutal failure of the system. As a consequence, the use of lifetime prognostic tools is necessary. The problematic consists in the health state prediction of power modules in functioning to be able to schedule a maintenance before the failure of the equipment.To be able to determine the remaining useful lifetime of power modules in functioning, lifetime models are used. These models can either be empirical, physical or statistical. The empirical models are the most common ones, because of their easy establishment and implementation. They are based on results from accelerated power cycling tests, which reproduce the stresses endured by the power modules in severe conditions. An extrapolation is then needed to obtain the power module health state in normal functioning conditions. The main drawback of these models is the lack of description of the physical mechanisms leading to damage, resulting potentially in errors in particular during extrapolation. That’s the reason why physical models start to draw more attention.In the thesis, two physical lifetime models of IGBT power modules are proposed. The first approach is based on deformation induced inside the device assembly in operation. The degradation is in this case described by the quantification of deformation related to thermal stresses. In the second approach, the lifetime model is based directly on damage through the establishment of a degradation model. These two lifetime models are finally compared to show the benefits and disadvantages of each. More generally, the establishment and comparison of these models is part of an approach to develop diagnostic tools so that the remaining useful lifetime of power modules can be predicted in operation.
205

Contributions to genomic selection and association mapping in structured and admixed populations : application to maize / Contributions à la sélection génomique et à la génétique d'association en populations structurées et admixées : application au maïs

Rio, Simon 26 April 2019 (has links)
L'essor des marqueurs moléculaires (SNPs) a révolutionné les méthodes de génétique quantitative en permettant l'identification de régions impliquées dans le déterminisme génétique des caractères (QTLs) via la génétique d'association (GWAS), ou encore la prédiction des performances d'individus sur la base de leur information génomique (GS). La stratification des populations en groupes génétiques est courante en sélection animale et végétale. Cette structure peut impacter les méthodes de GWAS et de GS via des différences de fréquence et d'effets des allèles des QTL, ainsi que par des différences de déséquilibre de liaison (LD) entre SNP et QTL selon les groupes.Pendant cette thèse, deux panels de diversité de maïs ont été utilisés, présentant des niveaux différents de structuration: le panel “Amaizing Dent” représentant les lignées dentées utilisées en Europe et le panel “Flint-Dent” incluant des lignées dentées, cornées européennes, ainsi que des lignées admixées entre ces deux groupes.En GS, l'impact de la structure génétique sur la qualité des prédictions a été évalué au sein du premier panel pour des caractères de productivité et de phénologie. Cette étude a mis en évidence l'intérêt d'une population d'entraînement (TS) dont la constitution en matière de groupes génétiques est similaire à celle de la population à prédire. Assembler les différents groupes au sein d'un TS multi-groupe apparaît comme une solution efficace pour prédire un large spectre de diversité génétique. Des indicateurs a priori de la précision des prédictions génomiques, basés sur le coefficient de détermination, ont également été évalués, mettant en évidence une efficacité variable selon le groupe et le caractère étudié.Une nouvelle méthodologie GWAS a ensuite été développée pour étudier l'hétérogénéité des effets capturés par les SNPs selon les groupes. L'intégration des individus admixés à l'analyse permet de séparer les effets des facteurs responsables de l'hétérogénéité des effets alléliques: différence génomique locale (liée au LD ou à une mutation spécifique d'un groupe) ou interactions épistatiques entre le QTL et le fonds génétique. Cette méthodologie a été appliquée au panel “Flint-Dent” pour la précocité de floraison. Des QTL ont été détéctés comme présentant des effets groupe-spécifiques interagissant ou non avec le fonds génétique. De nombreux QTL présentant un profil original ont pu être mis en évidence, incluant des locus connus tels que Vgt1, Vgt2 ou Vgt3. Une importante épistasie directionnelle a aussi été mise en évidence grâce aux individus admixés, confortant l'existence d'interactions épistatiques avec le fonds génétique pour ce caractère.Sachant l'existence de cette hétérogénéité d’effets alléliques, nous avons développé deux modèles de prédictions génomiques nommées Multi-group Admixed GBLUP (MAGBLUP). Ceux-ci modélisent des effets groupe-spécifiques aux QTLs et sont adaptés à la prédiction d'individus admixés. Le premier permet d'identifier la variance génétique additionnelle créée par l'admixture (variance de ségrégation), alors que le second permet d'évaluer le degré de conservation des effets alléliques entre groupes. Ces deux modèles ont montré un intérêt certain par rapport à des modèles standards pour prédire des caractères simulés, mais plus limité sur des caractères réels.Enfin, l'intérêt des individus admixés dans la constitution de TS multi-groupes a été évalué à l'aide du second panel. Si leur intérêt a clairement été mis en évidence pour des caractères simulés, des résultats plus variables ont été observés avec les caractères réels, pouvant s'expliquer par la présence d'interactions avec le fonds génétique.Les nouvelles méthodes et l'utilisation d'individus admixés ouvrent des pistes de recherches intéressantes pour les études de génétique quantitative en population structurée. / The advent of molecular markers (SNPs) has revolutionized quantitative genetics methods by enabling the identification of regions involved in the genetic determinism of traits (QTLs) thanks to association studies (GWAS), or the prediction of the performance of individuals using genomic information (GS). The stratification of populations into genetic groups is common in animal and plant breeding. This structure can impact GWAS and GS methods through group differences in QTL allele frequencies and effects, as well as in linkage disequilibrium (LD) between SNP and QTL.During this thesis, two maize diversity panels were used, presenting different levels of structuration: the "Amaizing Dent" panel representing the diversity of dent lines used in Europe and the "Flint-Dent" panel including dent, flint and admixed lines between these two groups.In GS, the impact of genetic structure on genomic prediction accuracy was evaluated in the first panel for productivity and phenology traits. This study highlighted the interest of a training population (TS) whose constitution in terms of genetic groups is similar to that of the population to be predicted. Assembling the different groups within a multi-group TS appears as an effective solution to predict a broad spectrum of genetic diversity. A priori indicators of genomic prediction accuracy, based on the coefficient of determination, were also evaluated and highlighted a variable efficiency depending on the group and the trait.A new GWAS methodology was then developed to study the heterogeneity of the allele effects captured by SNPs depending on the group. The integration of admixed individuals to such analyses allows to disentangle the factors causing the heterogeneity of allele effects across groups: local genomic difference (related to LD or group-specific mutation) or epistatic interactions between the QTL and the genetic background. This methodology was applied to the "Flint-Dent" panel for flowering time. QTLs have been detected as presenting group-specific effects interacting or not with the genetic background. QTLs with an original profile have been highlighted, including known loci such as Vgt1, Vgt2 or Vgt3. Significant directional epistasis has also been demonstrated using admixed individuals and supported the existence of epistatic interactions with the genetic background for this trait.Based on the existence of such heterogeneity of allele effects, we have developed two genomic prediction models named Multi-group Admixed GBLUP (MAGBLUP). Both model group-specific QTL effects and are suited to the prediction of admixed individuals. The first allows the identification the additional genetic variance created by the admixture (segregation variance), while the second allows the evaluations of the degree of conservation of SNP allele effects across groups. These two models showed a certain interest compared to standard models to predict simulated traits, but it was more limited on real traits.Finally, the interest of admixed individuals in multi-group TS was evaluated using the second panel. Although their interest has been clearly demonstrated for simulated traits, more variable results have been observed with the real traits, which can be explained by the presence of interactions with the genetic background.The new methods and the use of admixed individuals open interesting lines of research for quantitative genetics studies in structured population.
206

Identification of milk fatty acids as proxies of the enteric methane emissions in dairy cows / Identification des acides gras du lait comme proxies des émissions de méthane entérique chez la vache laitière

Bougouin, Adeline 26 September 2018 (has links)
Le méthane (CH4) est un puissant gaz à effet de serre produit lors de la fermentation microbienne anaérobie des aliments dans le rumen. L’un des enjeux majeurs pour le secteur de l’élevage est de trouver des stratégies (alimentaires, génétique) pour réduire les émissions de CH4 tout en maintenant les performances animales. Les techniques de mesure de ces émissions sont coûteuses et difficilement utilisables à grande échelle sur le terrain, d’où la nécessité de trouver des alternatives de mesure ou biomarqueurs pour prédire ces émissions. Les acides gras (AG) du lait ont déjà été identifiés comme indicateurs intéressants de la méthanogenèse chez la vache laitière, mais il convient d’améliorer la précision des équations de prédiction du CH4 existantes ainsi que d'élargir leur domaine d'application à tous types de rations. L'objectif de mon travail de thèse a été de confirmer la pertinence des AG du lait comme indicateurs périphériques de la méthanogénèse chez la vache laitière avec diverses conditions nutritionnelles. Deux bases de données regroupant des données individuelles (issues d’une collaboration scientifique internationale) et moyennes (issues de la littérature) de CH4, de composition en AG du lait et d’autres performances et caractéristiques de l’animal, ainsi que des données de composition chimique des rations, ont été créées. Parallèlement, l’acquisition in vivo de données en conditions expérimentales contrôlées pour des rations mal connues ont permis d’incrémenter la base de données individuelles. Des équations de prédiction des émissions de CH4 [en g/jour, g/kg de matière sèche ingérée (MSI), et g/kg de lait] ont été développées à partir de certains AG du lait, utilisés seuls ou combinés à d’autres variables d’ingestion et de performances laitières, représentant alors des modèles complexes. Des relations entre les émissions de CH4 et la teneur de différents AG du lait (C10:0, iso C17:0 + trans-9 C16:1, iso C16:0, cis-11 C18:1, cis-15 C18:1, cis-9,cis-12 C18:2, et trans-11,cis-15 C18 :2) ont été mises en évidence, confirmant des voies métaboliques communes dans le rumen entre méthanogenèse et métabolisme lipidique. Les équations sont également liées aux types de régimes à partir desquels elles ont été développées. Les équations simples (AG du lait uniquement) sont moins précises que les complexes (erreurs résiduelles de prédiction, respectivement, de 58.6 g/jour, 2.8 g/kg MSI et 3.7 g/kg lait vs. 42.8 g/jour, 2.5 g/kg MSI et 3.3 g/kg lait). Une différence minimum de 16% de CH4 entre stratégies de réduction pourra être mise en évidence par la meilleure équation de prédiction développée. Des équations basées sur des AG bien déterminés par les méthodes infrarouges devront être testées pour évaluer, en routine et à grande échelle, de nouvelles stratégies de réduction des émissions de CH4 entérique chez la vache laitière. / Methane (CH4) is a potent greenhouse gas coming from the anaerobic microbial fermentation of the diet in the rumen. One of the main current challenge for the dairy sector is to find CH4 mitigation strategies (diets or genetics) without altering animal performance. Enteric methane measurement methods are costly and very difficult to apply on a large scale on field. Thus, there is a need to develop alternative measurement methods, such as equations based on proxies to predict CH4 emissions. Milk fatty acids (FA) have been identified as potential predictors of the methanogenesis in dairy cattle, but the prediction ability of extant published CH4 equations must be improved, and their domain of applicability must be enlarged to a wide range of diets. The objective of this PhD thesis was to confirm the potential of milk FA as proxies to predict enteric CH4 emissions in dairy cows fed a wide range of diets. Two databases (based on individual and mean data, respectively) were built thanks to an international collaboration, and gathered data on CH4, milk FA composition, dairy performances, diet and animal characteristics. Two in vivo experiments were conducted with the aim to study the effect of dietary strategies poorly documented, on methanogenesis and milk FA. The data from these experiments were included in the created database. Firstly, simple CH4 prediction equations were developed [g/d, g/kg of DMI (DMI), and g/kg of milk] based only on milk FA, and secondly other variables related to cow intake or characteristics, and dairy performance were added and constituted complex equations. Relationships between CH4 and several milk FA (C10:0, iso C17:0 + trans-9 C16:1, iso C16:0, cis-11 C18:1, cis-15 C18:1, cis-9,cis-12 C18:2, and trans-11,cis-15 C18 :2) were found, confirming common rumen metabolic pathways between methanogenesis and lipid metabolism. Equations were also closely related to the diets included in the database used for their development. Simple equations were less accurate than complex ones (prediction error of 58.6 g/d, 2.8 g/kg DMI and 3.7 g/kg milk vs 42.8 g/d, 2.5 g/kg DMI and 3.3 g/kg milk, respectively). A minimum difference of 16% in CH4 emissions between mitigating strategies can be evidenced with the best prediction equation developed in this PhD. Methane prediction equations based on milk FA well determined by infrared spectrometry methods need to be developed in order to be used on a routine basis and on a large scale. These prediction equations would allow studying the effect of novel mitigation strategies of enteric CH4 emissions in dairy cows.
207

Inférence de liens signés dans les réseaux sociaux, par apprentissage à partir d'interactions utilisateur / Signed link prediction in social networks, by learning from user interactions

Gauthier, Luc-Aurélien 02 December 2015 (has links)
Dans cette thèse, nous étudions la sémantique des relations entre les utilisateurs et des forces antagonistes que nous observons naturellement dans diverses relations sociales, comme hostilité ou méfiance. L'étude de ces relations soulève de nombreux problèmes à la fois techniques, puisque l'arsenal mathématique n'est souvent pas adapté aux liens négatifs, mais aussi pratiques à cause de la difficulté rencontrée pour collecter de telles données (expliciter une relation négative est perçu comme malvenu pour de nombreux utilisateurs). Nous nous intéressons alors aux solutions alternatives de collecte afin d'inférer ces relations négatives à partir d'autres contenus. En particulier, nous allons utiliser les jugements communs que les utilisateurs partagent à propos d'items (données des systèmes de recommandation). Nous apportons trois contributions. Dans la première, nous allons aborder le cas des accords sur les items qui peuvent ne pas avoir la même sémantique selon qu'ils concernent des items appréciés ou non par les utilisateurs. Nous verrons que le fait de ne pas aimer un même produit n'est pas synonyme de similarité. Ensuite, nous allons prendre en compte dans notre seconde contribution les distributions de notes des utilisateurs et des items afin de mesurer si les accords ou les désaccords arrivent par hasard ou non, afin notamment d'éviter les conséquences des différents biais utilisateurs et items présents dans ce type de données. Enfin, notre troisième contribution consistera à exploiter ces différents résultats afin de prédire le signe des liens entre utilisateurs à partir des seuls jugements communs à propos des items et sans aucune information sociale négative. / In this thesis, we study the semantic of relations between users and, in particular, the antagonistic forces we naturally observe in various social relationships, such as hostility or suspicion. The study of these relationships raises many problems both techniques - because the mathematical arsenal is not really adapted to the negative ties - and practical, due to the difficulty of collecting such data (explaining a negative relationship is perceived as intrusive and inappropriate for many users). That’s why we focus on the alternative solutions consisting in inferring these negative relationships from more widespread content. We use the common judgments about items the users share, which are the data used in recommender systems. We provide three contributions, described in three distinct chapters. In the first one, we discuss the case of agreements about items that may not have the same semantics if they involve appreciated items or not by two users. We will see that disliking the same product does not mean similarity. Afterward, we consider in our second contribution the distributions of user ratings and items ratings in order to measure whether the agreements or disagreements may happen by chance or not, in particular to avoid the user and item biases observed in this type of data. Our third contribution consists in using these results to predict the sign of the links between users from the only positive ties and the common judgments about items, and then without any negative social information.
208

Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters / Predictive approach of power efficiency into Clouds Datacenters

Gbaguidi, Fréjus A. Roméo 22 December 2017 (has links)
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing. / With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
209

Towards an integrative view on sensory and outcome predictions / Vers une conception intégrative des prédictions sensorielles et de récompense

Vincent, Romain 21 October 2016 (has links)
Notre capacité à anticiper les événements futurs sur base de notre expérience nous permet d'interagir adéquatement avec notre environnement. Depuis presque deux siècles, cette observation a constitué une question centrale pour deux traditions de recherche différentes, à savoir la théorie idéomotrice de l'action et la théorie de l'apprentissage par renforcement. Alors que la première s'est concentrée sur les effets sensoriels associés avec une action donnée, la seconde tend à considérer que le comportement peut uniquement être influencé par les récompenses et punitions potentielles. Cette thèse de doctorat vise à lier ces deux approches, sur la base du modèle prédictif de la perception. À cette fin, nous avons conduit une série de six expériences explorant différents aspects de la relation entre les prédictions sensorielles et les prédictions de récompense au moyen de méthode de mesure comportementales, de techniques d'électroencéphalographie (EEG) et d'oculométrie. Nos résultats indiquent que (1) les contenus sensoriels et émotionnels appartenant à des stimuli complexes sont évalués ensembles, que (2) les différences inter-individuelles influencent la manière dont nous formons des prédictions et que (3) la mesure de la taille des pupilles est un outil prometteur pour l'étude des prédictions sensorielles. / Our ability to anticipate future events based on prior knowledge about our environment is shaping the way we engage with it. For almost two centuries, this observation has been a central topic for two different research traditions, namely the ideomotor theory and the reinforcement learning literature. Whereas the former focussed is inquiries on the sensory effects associated with a given action, the latter considered that behaviour was only influenced by potential rewards or punishments. This dissertation constitutes an attempt to bridge these two approaches, based on the predictive model theory. For this purpose, we conducted six experiments exploring various aspects of the relationship between reward and sensory prediction using classical behavioural and EEG methods, but also pupil size measurements. Our results suggest that (1) sensory and emotional features of complex stimuli are processed together, that (2) inter-individual differences influence prediction mechanisms and (3) pupil size measurement is a useful tool for sensory prediction.
210

Modélisation de la température du sol avec un bilan d’énergie, application à la prédiction de l’émergence du maïs (Zea mais) / Modelling soil temperature with an energy balance model, application to prediction of maize (Zea mais) emergence

Claverie, Etienne 18 May 2018 (has links)
La croissance en début de cycle des grandes cultures est principalement influencée par la température et la teneur en eau du sol. Nous avons développé un modèle capable de prédire ces variables grâce à l’utilisation de données climatiques largement disponibles. Des analyses de la sensibilité du modèle nous ont permis d’identifier les composants qui contribuent à son incertitude. Après calibration, une erreur moyenne relative de moins de 10 % est constatée pour la température et la teneur en eau à 30 cm de profondeur.Dans des conditions de semis standard en Suisse, l’émergence du maïs a été mieux prédite en utilisant notre température de sol simulée plutôt que la température de l’air, plus couramment utilisée. Ce travail est une application d’un modèle biophysique complexe à un problème agronomique. Les résultats participeront à l’optimisation de l’effort de sélection des variétés tolérantes au froid. Deux pistes de recherche peuvent être considérées pour des futurs travaux: une meilleure modélisation de l’évaporation et une décomposition de l’émergence. / The beginning of crop growth is influenced by soil temperature and water content near the surface. We have developed a model that predicts the local temperature and water content surrounding the seed using easily available meteorological data. Our global sensitivity analysis helped us identify the components of the model with the largest contribution to the output uncertainty. After calibration, the model showed less than 10 % relative error for temperature and water content at 30 cm. In standard sowing conditions in north-western Switzerland, the emergence was better predicted when using our simulated seed bed temperature than air temperature, the classical proxy variable. Combining the emergence model with soil temperature simulation, an accurate prediction of emergence was achieved. This work is an example of applying complex biophysics model for understanding an agronomic problem. The results of this work will participate in optimising breeding efforts for cold-tolerant crop varieties. Future investigations should consider a finer modelling of processes for evaporation and emergence.

Page generated in 0.0814 seconds