• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 197
  • 43
  • 1
  • Tagged with
  • 568
  • 308
  • 119
  • 70
  • 63
  • 62
  • 58
  • 57
  • 56
  • 54
  • 50
  • 48
  • 45
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

From coarse-grained to atomistic molecular modeling : how structure and dynamics shape intra-molecular communication and functional sites in proteins / Du gros-grains à la modélisation moléculaire tout-atome : comment la structure/dynamique façonnent la communication intramoléculaire et les sites fonctionnels dans les protéines

Aubailly, Simon 27 January 2017 (has links)
Dans cette thèse, nous nous sommes intéressés à la relation subtile qui existe entre lesstructures complexes des protéines et leurs fonctions encore plus raffinées que ces dernièreseffectuent. Basés sur deux descriptions différentes des protéines, à l’échelle de acide-aminé età l’echelle atomique, un de nos objectifs était de connecter des indicateurs structuraux calculésà partir de la topologie des protéines à des sites fonctionnels tels que les sites catalyiquesdans les enzymes. Un autre pan de la recherche de cette thèse était d’utiliser nos outils baséssur la structure et de mettre au point de nouvelles simulations numériques pour étudier lesdéterminants basiques structuraux et dynamiques de la communication intramoléculaire dansles protéines. Une première découverte fut de montrer comment l’analyse des modes normauxet la théorie des reseaux complexes conduisent à la prédiction des sites catalytiques dans lesenzymes. De plus, nous avons travaillé sur un groupe relativement peu connu de modes nor-maux qui ont la particularité d’être localisés à deux endroits très eloignés dans la structure desprotéines. Ces modes bilocalisés ont permis de réaliser des transferts d’énergie à des distancesconsidérables (plus de 70 Å). Finalement, des expériences de refroidissement effectuées sur unsystème protéine-eau décrit à l’échelle atomique ont dévoilé que le refroidissement induit unelocalisation spontanée d’énergie, indiquant certaines déformations des anneaux du benzenecomme possible centres de stockage de l’énergie dans les protéines. / In this thesis we have focused on the elusive relation that exists in proteins between theircomplex structures and the even more complex and sophisticated functions that they perform.Based on two different descriptions of proteins, at residue and atomistic scale, one of ouraims was to connect structural indicators computed from the topology of protein scaffoldsto hot spots in proteins such as catalytic sites in enzymes. Another goal of this thesis wasto employ our structure-based tools and set up original simulation scheme to investigate thebasic structural and dynamical determinants of intramolecular communication in proteins.As a first important finding, we have shown how normal mode analysis and specific graph-theoretical approaches lead to the prediction of catalytic sites in enzymes. Moreover, wehave concentrated our attention on an overlooked class of normal modes, that are stronglylocalized at two widely separated locations in protein scaffolds. These bilocalized modesturned out to efficiently mediate energy transfer even across considerable distances (morethan 70 Å). Finally, cooling experiments performed on a protein-water system described atatomic level have unveiled complex cooling-induced spontaneous energy localization patterns,pointing to specific deformation modes of benzene rings as potential energy-storage centers.
192

Effets des sensibilisants sur la synthèse de la prostaglandine E2 : Mécanismes et intérêt dans la prédiction de l’allergie de contact / Sensitizers'effects on prostaglandin E2 synthsis : mecanisms of action and potential to predict allergic contact dermatitis

Del Bufalo, Aurelia 20 January 2012 (has links)
Les sensibilisants de contact sont des molécules réactives électrophiles qui ont la capacité de modifier des protéines de la peau pour former un antigène. Au delà de ce mécanisme d'hapténisation, le signal de danger induit par les sensibilisants conduisant à l'activation des cellules dendritiques (DC) est un élément déterminant dans l'induction de cellules T spécifiques de l'haptène. Dans le contexte du 7ième amendement à la directive cosmétique européenne, la mise en place d'une batterie de tests in vitro permettant de prédire le potentiel sensibilisant de molécules est indispensable pour l'industrie cosmétique. Tandis que la plupart des études in vitro étudient les signaux de danger induits par les sensibilisants dans des modèles homéostasiques, nous nous sommes intéressés à l'effet des sensibilisants sur la mise en place d'une réponse inflammatoire. Lorsque la lignée U937 est différenciée avec du PMA et stimulée avec du LPS, les facteurs de transcription NF-κB et Nrf2 sont activés et l'acide arachidonique (AA) est métabolisé au travers de la cascade cPLA2 / COX-2. L'ensemble de ces voies activées conduit à la production par les U937 d'un grand nombre de médiateurs inflammatoires (IL-1β, TNF-α, IL-6, IL-10, IL-8, PGE2, PGD2, TxB2). Dans ce modèle, nous avons analysé l'effet de 6 sensibilisants de potentiels variés (DNCB, PPD, HQ, PG, CIN, EUG) et montré que de façon inattendue, tous les sensibilisants étudiés diminuent significativement et de façon spécifique la production de tous les prostanoïdes et en particulier de PGE2 induite par PMA/LPS. Nous avons de plus démontré que selon les sensibilisants, les cibles de cette inhibition au sein de la cascade métabolique de l'AA diffèrent, même si elles se focalisent la plupart du temps (sauf pour le DNCB) sur l'enzyme COX-2 (inhibition de son expression et/ou de son activité). Pour le DNCB, le mécanisme d'inhibition semble plutôt impliquer sa capacité à réagir fortement avec les groupements résidus thiols, ce qui se traduit en particulier par la déplétion du GSH intracellulaire et engendrerait l'inhibition des synthases dépendantes du GSH pour leurs activités. En parallèle de cette étude mécanistique, nous avons appréhendé la problématique du point de vue statistique et vérifié sur un set plus important et diversifié de molécules (160 molécules) que le paramètre « inhibition de PGE2 » pouvait être un bon test de prédiction de l'HSRC. L'étude statistique a permis de déterminer le modèle prédictif du test PGE2 et de mettre en évidence de bonnes performances (78%) par rapport aux prédictions du LLNA. Au-delà, une certaine complémentarité du test PGE2 avec d'autres tests in vitro (MUSST, Nrf2-HTS) a pu être mise en évidence. En conclusion, au travers de cette étude, nous avons pu mettre en évidence de nouvelles propriétés biochimiques des sensibilisants. Même si la signification biologique de la diminution de PGE2 par les sensibilisants de contact demeure complexe d'interprétation, ce paramètre a permis le développement d'un test qui prédit avec de bonnes performances le caractère sensibilisant de molécules et dont la position au sein d'une batterie prédictive d'évaluation de l'allergie de contact reste à être précisée. / Contact sensitizers are defined as reactive molecules (electrophilic) which have the ability to modify skin proteins to form an antigen (hapten). In addition to the haptenation mechanism, danger signals, leading to the activation of dendritic cells, are described to be crucial for the effective induction of an hapten-specific T cell immune response. In the context of the 7th amendment to the Cosmetic Directive, the cosmetic industry is concerned by the challenge of finding non-animal approaches to assess the sensitizing potential of chemicals. While danger signals induced by sensitizers in steady-state conditions have already been analyzed, we chose to investigate the impact of sensitizers on the course of an inflammatory response. For this purpose we used the U937 cell line differentiated with PMA and activated with LPS. In these conditions, cells produce a large amount of inflammatory mediators (IL-β, TNF-α, IL-6, IL-10, IL-8, PGE2, PGD2, TxB2) through the activation of pathways leading to the activation of the transcription factors NF-κB and Nrf2 and through AA metabolism by the cPLA2/COX-2 cascade. Interestingly, we showed that 6 contact sensitizers with various potential (DNCB, PPD, HQ, PG, CIN, EUG) significally and specifically decrease the production of prostanoïds and in particular of PGE2 induced by PMA/LPS. We further demonstrated that there is no unique inhibition profile of the sensitizers even if the majority (except for DNCB) of the effects applies on COX-2 (i.e. inhibition of the expression and/or activity). For DNCB, inhibition mechanism appears to be dependant of its capacity to react with thiols residues and in particular to deplete intracellular glutathione possibly leading to the inactivation of the PG-synthases. In parallel, we assess a statistical analysis on 160 molecules that allow us to define the test parameters (a molecule is a sensitizer if the PGE2 inhibition at 24h is more than 60%) and to calculate the test performance toward LLNA (78%). Moreover we demonstrated that the PGE2 test could be complementary to other already existing in vitro tests like MUSST or Nrf2-HTS. In summary, we add here a new insight into the multiple biochemical effects described so far for sensitizers. Even if the underlying biological relevance remains unclear, the parameter “PGE2 inhibition” is good test for skin sensitization evaluation. Further studies will precise how this parameter could be implemented into an alternative testing strategy for the evaluation of skin sensitization.
193

Pilotage conjoint, à partir des pratiques d'élevage, des caractéristiques de la carcasse et de la viande de bovins / From rearing practices, simultaneously management the cattle carcass and beef meat traits

Soulat, Julien 19 January 2017 (has links)
Les systèmes d’élevage allaitants peuvent être diversifiés par leurs pratiques d’élevage (type d’animaux, races, nature des rations, durées de pâturage, etc.) pour produire des carcasses et de la viande répondant à la demande des différents marchés et satisfaire les consommateurs. Les pratiques d’élevage sont définies comme étant la combinaison de plusieurs facteurs d’élevage ayant une variabilité propre. Cette diversité de pratiques d’élevage appliquées tout au long de la vie de l’animal est l’une des causes de la variabilité observée au niveau des caractéristiques de la carcasse et de la viande. L’objectif de ce travail a été d’étudier plus précisément l’influence des pratiques d’élevage sur les caractéristiques de la carcasse et de la viande, et d’envisager un pilotage conjoint de ces caractéristiques à partir des pratiques d’élevage. Pour réaliser cela, deux sources de données complémentaires ont été utilisées : les bases de données expérimentales et les enquêtes en élevage. Ce travail a montré qu’il était possible d’expliquer et de prédire les caractéristiques de la carcasse (poids, rendement, conformation et état d’engraissement) et les propriétés de la viande (descripteurs sensoriels et force de cisaillement) à partir de la combinaison de plusieurs facteurs d’élevage. Il a été également montré que différentes pratiques d’élevage permettaient d’atteindre des caractéristiques similaires de carcasse ou de viande mais que celles-ci devaient être adaptées selon le type de l’animal ou de la race. En effet, lors de la prédiction des caractéristiques de la carcasse ou de la viande, des facteurs d’élevage peuvent être spécifiques à un type de l’animal (jeunes bovins vs vaches de réforme) ou d’un type de race (viande vs rustique) et un même facteur d’élevage peut également avoir des effets différents selon le type de l’animal ou la race considéré. Les modèles établis à partir de la période de finition sont robustes mais ils sont plus précis pour prédire les paramètres individuels caractérisant la carcasse par rapport à ceux de la viande. La qualité de prédiction des propriétés de la viande a été améliorée en prédisant des classes de qualité. De plus, que ce soit pour les propriétés de la carcasse ou de la viande, la qualité de prédiction des classes de qualité a été améliorée en considérant la période de pré-sevrage en plus de la période de finition. En revanche, les facteurs d’élevage ne permettent pas une prédiction satisfaisante de l’abondance des biomarqueurs de la tendreté ou de l’adiposité. Enfin, l’ensemble des résultats de ce travail a montré que, bien que cela nécessite des compromis, il est possible de piloter conjointement les caractéristiques de la carcasse et de la viande. / The beef rearing system could be diversified by their rearing practices (animal categories, breeds, diet composition, grazing duration, etc.) to produce carcasses and beef meat reaching the different market expectations and to satisfy the consumers. The rearing practices were defined as the combinations of many rearing factors, each with its own variability. This diversity of applied rearing practices during the whole life of the animal was one of the causes of the carcass and beef variability observed. The aim of this work was to more precisely study the rearing practices impacts on the carcass and the beef characteristics, and to consider a joint management of these characteristics from the rearing practices. To achieve this, two complementary data sources were used: experimental data set and rearing surveys. This work displayed that it was possible to explain and to predict the carcass characteristics (weight, dressing, conformation and fat scores) and the meat properties (sensorial descriptors and shear force) from the combination of many rearing factors. It was also observed that different rearing practices allowed to reach similar carcass or meat characteristics but those must be adapted according to the animal category and the breed. Indeed, for the prediction of the carcass or meat characteristics, rearing factors can be specific to an animal category (young bulls vs cull cows) or a breed type (beef vs hardy), and a same rearing factor may also had different impacts according to the animal category or the breed considered. The established models from the fattening period were robust but prediction was more precise for individual parameters characterizing the carcass compared to those of the meat. The clustering of meat quality improved the prediction quality of the meat properties. Furthermore, for the carcass or the meat properties, by considering the pre-weaning period in addition to the fattening period the prediction quality of the quality clusters was improved. However, the rearing factors did not allowed a satisfactory prediction of the tenderness or adiposity biomarkers abundances. Finally, all results of this work displayed, although it requires trade-off, it was possible to jointly manage the carcass and meat characteristics.
194

Calcul de trajectoires pour la préconisation de manoeuvres automobiles sur la base d'une perception multi-capteur : application à l'évitement de collision / Trajectory computing based on multisensor perception for automotive driving maneuver recommendation : the collision avoidance case

Houenou, Adam 09 December 2013 (has links)
Les systèmes d’aide à la conduite, en général, et plus particulièrement les systèmes d’aide à l’évitement de collision sont de plus en plus en présents dans les véhicules car ils ont un très fort potentiel de réduction du nombre d’accidents de la circulation.En effet, ces systèmes ont pour rôle d’assister le conducteur, voire de se substituer à lui lorsque la situation de conduite indique un risque de collision important. Cette thèse traite du développement de ces systèmes en abordant quelques problématiques rencontrées.Afin de réagir convenablement, le système a d’abord besoin d’une représentation aussi fidèle que possible de l’environnement du véhicule. La perception est faite au moyen de capteurs extéroceptifs qui permettent de détecter les objets et d’en mesurer divers paramètres selon leur principe de mesure. La fusion des données individuelles des capteurs permet d’obtenir une information globale plus juste, plus certaine et plus variée. Ce travail traite en profondeur des méthodes de suivi d’objets par fusion de données multi-capteur, multimodale au niveau piste. Les approches proposées ont été évaluées puis approuvées grâce à des données de roulage réel et sur des données de conduite simulées.Il est ensuite nécessaire de faire une analyse de la scène perçue au cours du temps afin d’évaluer le risque de collision encouru par le véhicule porteur du système. Cette thèse propose des méthodes de prédiction de trajectoire et de calcul de probabilité de collision, à divers horizons temporels afin de quantifier le risque de collision et d’établir ainsi divers niveaux d’alerte au conducteur. Un simulateur de scénarios automobiles a été utilisé pour valider la cohérence des méthodes d’analyse de scène.Enfin, lorsque le risque de collision atteint un seuil jugé critique, le système doit calculer une trajectoire d’évitement de collision qui sera ensuite automatiquement exécutée. Les principales approches de planification de trajectoires ont été revues et un choix a été fait et motivé en accord avec le contexte de système d’aide à la conduite. / Driver assistant systems in general, and specially collision avoidance systems are more and more installed in recent vehicles because of their high potential in reducing the number road accidents. Indeed, those systems are designed to assist the driver or even to take its place when the risk of collision is very important. This thesis deals with the main challenges in the development of collision avoidance systems. In order to react in a convenient way, the system must, first, build a faithful representation of the environment of the ego-vehicle. Perception is made by means of exteroceptive sensors that detect objects and measure different parameters, depending on their measurement principle. The fusion of individual sensor data allows obtaining a global knowledge that is more accurate, more certain and more varied. This research work makes a deep exploration of high level multisensor, multimodal, multitarget tracking methods. The proposed approaches are evaluated and validated on real driving data and also on simulated scenarios. Then, the observed scene is continuously analyzed in order to evaluate the risk of collision on the ego-vehicle. The thesis proposes methods of vehicle trajectory prediction and methods to calculate the probability of collision at different prediction times. This allows defining different levels of alert to the driver. an automotive scenarion simulator is used to test and validate the proposed scene analysis approaches. Finally, when the risk of collision reaches a defined critical value, the system must compute a collision avoidance trajectory that will be automatically followed. The main approaches of trajectory planning have been revisited et one has chosen according to the context of driver assistant system.
195

Recherche d’alternatives thérapeutiques aux taxanes dans les cancers de la prostate de hauts grades : identification d’une signature prédictive de la réponse à l’oxaliplatine / Research of therapeutic alternatives to taxanes for high grade prostate cancers : identification of a gene expression signature predicting response to oxaliplatin

Puyo, Stéphane 16 December 2011 (has links)
Les cancers de la prostate sont classés en deux catégories. Les cancers de haut grade se distinguent des cancers de bas grade par une plus forte agressivité et un pronostic plus mauvais. Lorsqu’ils deviennent résistants à l’hormonothérapie, les cancers de haut grade sont traités par une chimiothérapie basée sur les taxanes. Néanmoins, les taux de réponse restent faibles. Il existe donc un réel besoin quant à l'identification d'alternatives thérapeutiques qui soient spécifiques de ce type de tumeur. Dans cette optique, notre travail a été de proposer une telle alternative par une approche qui prenne en compte la génétique spécifique des cancers de haut grade. Nous avons exploité une signature de 86 gènes dont le niveau d’expression permet de discriminer entre les tumeurs de haut et de bas grade. Par une approche in silico originale utilisant la banque de données du NCI, nous avons identifié 382 corrélations entre le niveau d’expression de 50 gènes et la sensibilité à 139 agents antiprolifératifs. Parmi ces corrélations, nous avons identifié une signature de 9 gènes qui est spécifique de la réponse à l’oxaliplatine. Cette signature a été confirmée sur le plan fonctionnel dans les lignées cancéreuses prostatiques DU145 et LNCaP. Nous avons donc fourni la preuve de concept que notre approche permet d’identifier de nouvelles molécules pouvant être utilisées en alternative aux taxanes pour traiter spécifiquement les cancers de haut grade. Cette stratégie permet aussi d’identifier de nouveaux marqueurs (gènes) régulant la sensibilité à certains médicaments. Nos résultats démontrent par exemple le rôle des gènes SHMT, impliqués dans la régulation du métabolisme monocarboné, dans la sensibilité spécifique à l’oxaliplatine par un mécanisme qui fait intervenir, du moins en partie, une dérégulation du niveau de méthylation global de l’ADN. / Prostate cancers are classified in two categories. High grade cancers are distinguished from low grade cancers by their higher agressivity and worse prognostic. When they become refractory to hormone therapy, high grade cancers are treated with a taxane-based chemotherapy. However, response rates remain low. Therefore, there is a real need for the discovery of new therapeutic alternatives which are specific for this type of tumors. For that purpose, our work aimed at proposing such an alternative with a strategy that took into account the high grade genetic background. We exploited a signature of 86 genes for which expression level could distinguish between low grade and high grade tumours. With an original in silico approach, we searched the NCI databases and identified 382 correlations between 50 genes and the sensitivity to 139 antiproliferative agents. Among these, a signature of 9 genes was able to specifically predict cell response to oxaliplatin. This signature was validated at the functional level in two prostate cancer cell lines, DU145 and LNCaP. We have thus provided the proof-of-concept that our approach allows the identification of new drugs that can be used alternatively to taxanes in order to specifically treat high grade prostate cancers. This strategy also allows the identification of new markers (genes) regulating the sensitivity to various drugs. Our results demonstrate for example the implication of SHMT genes, which are involved in the regulation of the one-carbon metabolism, in the specific sensitivity to oxaliplatin, by a mechanism which involves, at least in part, the deregulation of the global level of DNA methylation.
196

Prédiction de l'espace navigable par l'approche ensembliste pour un véhicule routier / Characterization of the vehicle stable state domain using interval analysis

Dandach, Hoda 01 July 2014 (has links)
Les travaux de cette thèse porte sur le calcul d’un espace d’état navigable d’un véhicule routier, ainsi que sur l’observation et l’estimation de son état, à l’aide des méthodes ensemblistes par intervalles. Dans la première partie de la thèse, nous nous intéressons aux problèmes d’estimation d’état relevant de la dynamique du véhicule. Classiquement, l’estimation se fait en utilisant le filtrage de Kalman pour des problèmes d’estimation linéaires ou le filtrage de Kalman étendu pour les cas non-linéaires. Ces filtres supposent que les erreurs sur le modèle et sur les mesures sont blanches et gaussiennes. D’autre part, les filtres particulaires (PF), aussi connus comme Méthodes de Monte-Carlo séquentielles, constituent souvent une alternative aux filtres de Kalman étendus. Par contre, les performances des filtres PF dépendent surtout du nombre de particules utilisées pour l’estimation, et sont souvent affectées par les bruits de mesures aberrants. Ainsi, l’objectif principal de cette partie de travail est d’utiliser une des méthodes à erreurs bornées, qui est le filtrage par boites particulaires (Box Particle Filter (BPF)), pour répondre à ces problèmes. Cette méthode généralise le filtrage particulaire à l’aide des boites remplaçant les particules. A l’aide de l’analyse par intervalles, l’estimation de certains variables fortement reliées à la dynamique du véhicule comme le transfert de charge latérale, le roulis et la vitesse de roulis est donnée, à chaque instant, sous forme d’un intervalle contenant la vraie valeur simulée. Dans la deuxième partie de la thèse, une nouvelle formalisation du problème de calcul de l’espace navigable de l’état d’un véhicule routier est présentée. Un algorithme de résolution est construit, basé sur le principe de l’inversion ensembliste par intervalles et sur la satisfaction des contraintes. Nous cherchons à caractériser l’ensemble des valeurs de la vitesse longitudinale et la dérive au centre de gravité qui correspondent à un comportement stable du véhicule : pas de renversement ni dérapage. Pour décrire le risque de renversement, nous avons utilisé l’indicateur de transfert de charge latéral (LTR). Pour décrire le risque de dérapage, nous avons utilisé les dérives des roues. Toutes les variables sont liées géométriquement avec le vecteur d’état choisi. En utilisant ces relations, l’inversion ensembliste par intervalles est appliquée afin de trouver l’espace navigable de l’état tel que ces deux risques sont évités. L’algorithme Sivia est implémenté, approximant ainsi cet espace. Une vitesse maximale autorisée au véhicule est déduite. Elle est associée à un angle de braquage donné sur une trajectoire connue. / In this thesis, we aim to characterize a vehicle stable state domain, as well as vehicle state estimation, using interval methods.In the first part of this thesis, we are interested in the intelligent vehicle state estimation.The Bayesian approach is one of the most popular and used approaches of estimation. It is based on the calculated probability of the density function which is neither evident nor simple all the time, conditioned on the available measurements.Among the Bayesian approaches, we know the Kalman filter (KF) in its three forms(linear, non linear and unscented). All the Kalman filters assume unimodal Gaussian state and measurement distributions. As an alternative, the Particle Filter(PF) is a sequential Monte Carlo Bayesian estimator. Contrary to Kalman filter,PF is supposed to give more information about the posterior even when it has a multimodal shape or when the noise follows non-Gaussian distribution. However,the PF is very sensitive to the imprecision due by bias or noise, and its efficiency and accuracy depend mainly on the number of propagated particles which can easily and significantly increase as a result of this imprecision. In this part, we introduce the interval framework to deal with the problems of the non-white biased measurements and bounded errors. We use the Box Particle Filter (BPF), an estimator based simultaneously on the interval analysis and on the particle approach. We aim to estimate some immeasurable state from the vehicle dynamics using the bounded error Box Particle algorithm, like the roll angle and the lateral load transfer, which are two dynamic states of the vehicle. BPF gives a guaranteed estimation of the state vector. The box encountering the estimation is guaranteed to encounter thereal value of the estimated variable as well.In the second part of this thesis, we aim to compute a vehicle stable state domain.An algorithm, based on the set inversion principle and the constraints satisfaction,is used. Considering the longitudinal velocity and the side slip angle at the vehicle centre of gravity, we characterize the set of these two state variables that corresponds to a stable behaviour : neither roll-over nor sliding. Concerning the roll-over risk,we use the lateral transfer ratio LTR as a risk indicator. Concerning the sliding risk, we use the wheels side slip angles. All these variables are related geometrically to the longitudinal velocity and the side slip angle at the centre of gravity. Using these constraints, the set inversion principle is applied in order to define the set ofthe state variables where the two mentioned risks are avoided. The algorithm of Sivia is implemented. Knowing the vehicle trajectory, a maximal allowed velocityon every part of this trajectory is deduced.
197

Techniques de codage d’images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches / Image coding techniques based on scene sparse representations and multi-patches spatial prediction

Chérigui, Safa 18 June 2014 (has links)
Au cours de ces dernières années, le domaine de la compression vidéo a connu un essor considérable avec le standard H.264/AVC et l'arrivée de son successeur HEVC. La prédiction spatiale de ces standards repose sur la propagation unidirectionnelle de pixels voisins. Bien que très efficace pour étendre des motifs répondants aux mêmes caractéristiques, cette prédiction présente des performances limitées lorsqu'il s'agit de propager des textures complexes. Cette thèse vise à explorer de nouveaux schémas de prédiction spatiale afin d'améliorer les techniques actuelles de prédiction intra, en étendant ces schémas locaux et monodimensionnels à des schémas globaux, multidimensionnels et multi-patches. Une première méthode de prédiction hybride intégrant correspondance de bloc et correspondance de gabarit (template) a été investiguée. Cette approche hybride a ensuite été étendue en prédiction multi-patches de type "neighbor embedding" (NE). L'autre partie de la thèse est dédiée à l'étude des épitomes dans un contexte de compression d'images. L'idée est d'exploiter la redondance spatiale de l'image d'origine afin d'extraire une image résumé contenant les patches de texture les plus représentatifs de l'image, puis ensuite utiliser cette représentation compacte pour reconstruire l'image de départ. Ce concept d'épitome a été intégré dans deux schémas de compression, l'un de ces algorithmes s'avère vraiment en rupture avec les techniques traditionnelles dans la mesure où les blocs de l'image sont traités, à l'encodeur et au décodeur, dans un ordre spatial qui dépend du contenu et cela dans un souci de propagation des structures de l'image. Dans ce dernier algorithme de compression, des modes de prédiction directionnelle intra H.264 étendus et des méthodes avancées de prédiction multi-patches y ont été également introduits. Ces différentes solutions ont été intégrées dans un encodeur de type H.264/AVC afin d'évaluer leurs performances de codage par rapport aux modes intra H.264 et à l'état de l'art relatif à ces différentes techniques. / In recent years, video compression field has increased significantly since the apparition of H.264/AVC standard and of its successor HEVC. Spatial prediction in these standards are based on the unidirectional propagation of neighboring pixels. Although very effective to extend pattern with the same characteristics, this prediction has limited performances to extrapolate complex textures. This thesis aims at exploring new spatial prediction schemes to improve the current intra prediction techniques, by extending these local schemes to global, multidimensional and multi-patches schemes. A hybrid prediction method based on template and block matching is first investigated. This hybrid approach is then extended to multi-patches prediction of type "Neighbor Embedding" (NE). The other part of this thesis is dedicated to the study of epitome image within the scope of image compression. The idea is to exploit spatial redundancies within the original image in order to first extract a summary image containing the texture patches the most representative of the image, and then use this compacted representation to rebuild the original image. The concept of epitome has been incorporated in two compression schemes, one of these algorithms is in rupture with the traditional techniques since the image blocks are processed, both at encoder and decoder sides, in a spatial order that depends on the image content and this in the interest of propagating image structures. In this last compression algorithm, extended H.264 Intra directional prediction modes and advanced multi-patches prediction methods have been also included. These different solutions have been integrated in an H.264/AVC encoder in order to assess their coding performances with respect to H.264 intra modes and the state of the art relative to these different techniques.
198

Commande non-entière des systèmes. : développement et application pour les modèles du flux de trafic routier / Non-integer control system-development and application for the traffic flow models

Uzunova, Milka 04 December 2009 (has links)
Le travail de thèse présenté dans le manuscrit s’articule autours de plusieurs éléments d’études concernant les modèles macroscopiques de flux de trafic routier à savoir la modélisation, la simulation et la commande. L’objectif de l’étude consiste à atteindre ou à maintenir une circulation automobile fluide sur des voies rapides. Il s’agit donc de s’assurer que le processus de flux de trafic routier reste dans des limites de stabilité et tout en offrant les meilleures performances et qualités de service aux usagers. L’étude repose sur l’analyse de la solution analytique d’une équation dynamique d’évolution du processus afin d’obtenir une fonction de transfert (TF). Le modèle retenu est un modèle macroscopique de flux de trafic du premier ordre du type LWR. L’objectif est d’obtenir une modélisation analytique conforme au modèle du réseau routier, qui dans le cas applicatif retenu est constitué d’un segment en aval d’un péage routier. Une commande du flux de trafic reposant sur le choix d’une stratégie qui satisfait les besoins des usagers sur les autoroutes au niveau des péages a été étudiée. Mettre en place une gestion des axes routier est une nécessité due à la croissance des flux qui ont pour conséquence de provoquer une saturation des voies de circulation. Les congestions apparaissent généralement aux heures de pointe, lors de travaux ou d’incidents. Elles provoquent des retards dans les déplacements des usagers et ont donc des répercutions socio-économiques et sur l’environnement. Il est donc nécessaire de garantir la fluidité du trafic routier par la conception et l’implémentation de stratégies de commande efficaces permettant d’annuler, de réduire, ou de retarder l’apparition des congestions. Une boucle de correction robuste de type CRONE est introduite dans le système de flux de trafic afin de satisfaire les objectifs de qualité requises du réseau routier face aux aléas de circulation et en assurant une circulation fluide, par le contrôle des barrières de péage.La variable de commande proposée est la densité du tronçon en amont du péage. Le résultat obtenu représente un retard pur pour le modèle de trafic comme un système à paramètres distribués. La commande étudiée est une commande robuste d’ordre non-entier associée à un prédicteur de Smith et une compensation du retard. Toutes les études ont été menées en simulation sous Matlab/Simulink. L’étude des réponses temporelles et harmoniques du système de flux de trafic a été réalisée. La stabilité du système et de ses performances ont pu ainsi être abordées. De même l’étude harmonique permet d’assurer que le système présente une marge de stabilité suffisante dans le domaine de variation des paramètres. / This thesis presents research carried out to several elements of the macroscopic traffic flow as the model, the control and the simulation of his control system. The main aims of the realized studies consist to keep the circulation on the high-ways fluid. That means that we must to assure some quality of the process regarding the stability of this process. More over to offer best performances and quality of the traffic services for the users on the ways networks.In our study we use the analytical solution method of the dynamic equation presenting the LWR traffic flow model process, for which we look to obtain transfer function. Our objective is to obtain a conform result to a toll plaza. Furthermore we look to make a choice of appropriate control algorithm to satisfy the traffic network and users’ needs. The traffic flow management needs results from the increasingly of the flows. As consequence of this we can obtain saturation in some places in the road network wildly known as a traffic jam usually in the rush hours, by reason of accident or repairs works. All this provoke a delay of the transportation flow and important environmental after-effect. Therefore it’s very important to assure the fluidity of the traffic using control strategies which will cancel, reduce or delay the traffic jam appearances. Because of all the reasons above, we have proposed a system with non-integer order control algorithm for maintain the traffic fluid by the control of the pikes in the toll plaza. The control variable is the upstream density which will influence on the downstream one. After the analytical solution of the toll plaza model we obtain a delay function which presents the plant in our distributed parameter system. For this system we apply a Smith prediction non-integer control algorithm and moreover we ameliorate this system with a Dead time non-integer order compensator.
199

Classification of RNA Pseudoknots and Comparison of Structure Prediction Methods / Classification de Pseudo-nœuds d'ARN et Comparaison de Méthodes de Prédiction de Structure

Zeng, Cong 03 July 2015 (has links)
De nombreuses recherches ont constaté l'importance des molécules d'ARN, car ils jouent un rôle vital dans beaucoup de procédures moléculaires. Et il est accepté généralement que les structures des molécules d'ARN sont la clé de la découverte de leurs fonctions.Au cours de l'enquête de structures d'ARN, les chercheurs dépendent des méthodes bioinformatiques de plus en plus. Beaucoup de méthodes in silico de prédiction des structures secondaires d'ARN ont émergé dans cette grosse vague, y compris certains qui sont capables de prédire pseudonoeuds, un type particulier de structures secondaires d'ARN.Le but de ce travail est d'essayer de comparer les méthodes de l'état de l'art pour prédiction de pseudonoeud, et offrir aux collègues des idées sur le choix d’une méthode pratique pour la seule séquence donnée. En fait, beaucoup d'efforts ont été fait dans la prédiction des structures secondaires d'ARN parmi lesquelles le pseudonoeud les dernières décennies, contribuant à de nombreux programmes dans ce domaine. Certaines enjeux sont soulevées conséquemment. Comment est-elle la performance de chaque méthode, en particulier sur une classe de séquences d'ARN particulière? Quels sont leurs pour et contre? Que pout-on profiter des méthodes contemporaines si on veut développer de nouvelles? Cette thèse a la confiance dans l'enquête sur les réponses.Cette thèse porte sur très nombreuses comparaisons de la performance de prédire pseudonoeuds d'ARN par les méthodes disponibles. Une partie principale se concentre sur la prédiction de signaux de déphasage par deux méthodes principalement. La deuxième partie principale se concentre sur la prédiction de pseudonoeuds qui participent à des activités moléculaires beaucoup plus générale.Dans le détail, la deuxième partie du travail comprend 414 pseudonoeuds de Pseudobase et de la Protein Data Bank, ainsi que 15 méthodes dont 3 méthodes exactes et 12 heuristiques. Plus précisément, trois grandes catégories de mesures complexes sont introduites, qui divisent encore les 414 pseudonoeuds en une série de sous-classes respectivement.Les comparaisons se passent par comparer les prédictions de chaque méthode basée sur l'ensemble des 414 pseudonœuds, et les sous-ensembles qui sont classés par les deux mesures complexes et la longueur, le type de l'ARN et de l'organisme des pseudonœuds.Le résultat montre que les pseudo-noeuds portent une complexité relativement faible dans toutes les mesures. Et la performance des méthodes modernes varie de sous-classe à l’autre, mais diminue constamment lors que la complexité de pseudonoeuds augmente. Plus généralement, les méthodes heuristiques sont supérieurs globalement à celles exacts. Et les résultats de l'évaluation sensibles sont dépendants fortement de la qualité de structure de référence et le système d'évaluation. Enfin, cette partie du travail est fourni comme une référence en ligne pour la communauté bioinformatique. / Lots of researches convey the importance of the RNA molecules, as they play vital roles in many molecular procedures. And it is commonly believed that the structures of the RNA molecules hold the key to the discovery of their functions.During the investigation of RNA structures, the researchers are dependent on the bioinformatical methods increasingly. Many in silico methods of predicting RNA secondary structures have emerged in this big wave, including some ones which are capable of predicting pseudoknots, a particular type of RNA secondary structures.The purpose of this dissertation is to try to compare the state-of-the-art methods predicting pseudoknots, and offer the colleagues some insights into how to choose a practical method for the given single sequence. In fact, lots of efforts have been done into the prediction of RNA secondary structures including pseudoknots during the last decades, contributing to many programs in this field. Some challenging questions are raised consequently. How about the performance of each method, especially on a particular class of RNA sequences? What are their advantages and disadvantages? What can we benefit from the contemporary methods if we want to develop new ones? This dissertation holds the confidence in the investigation of the answers.This dissertation carries out quite many comparisons of the performance of predicting RNA pseudoknots by the available methods. One main part focuses on the prediction of frameshifting signals by two methods principally. The second main part focuses on the prediction of pseudoknots which participate in much more general molecular activities.In detail, the second part of work includes 414 pseudoknots, from both the Pseudobase and the Protein Data Bank, and 15 methods including 3 exact methods and 12 heuristic ones. Specifically, three main categories of complexity measurements are introduced, which further divide the 414 pseudoknots into a series of subclasses respectively. The comparisons are carried out by comparing the predictions of each method based on the entire 414 pseudoknots, and the subsets which are classified by both the complexity measurements and the length, RNA type and organism of the pseudoknots.The result shows that the pseudoknots in nature hold a relatively low complexity in all measurements. And the performance of contemporary methods varies from subclass to subclass, but decreases consistently as the complexity of pseudoknots increases. More generally, the heuristic methods globally outperform the exact ones. And the susceptible assessment results are dependent strongly on the quality of the reference structures and the evaluation system. Last but not least, this part of work is provided as an on-line benchmark for the bioinformatics community.
200

Élaboration et comparaison de deux modèles de durée de vie des fils d’interconnexion des modules de puissance, l’un basé sur les déformations et l’autre sur les dégradations / Establishment and comparison of two lifetime model dedicated to wire bonds damage in power modules, with an approach based on deformation and an approach based on degradation

Dornic, Nausicaa 31 October 2019 (has links)
Dans de nombreux domaines, tels que l’industrie des transports ou bien des infrastructures, la tendance est à l’introduction toujours plus importante d’équipements électriques. De ce fait, les industriels sont de plus en plus confrontés à la nécessité de fournir des dispositifs robustes et fiables avec un minimum de maintenance. Les composants électroniques, tels que les transistors IGBTs ou MOSFETs et les diodes rassemblés dans des modules de puissance, sont au cœur de la conversion d'énergie électrique. En conséquence, ils sont soumis en opération à de fortes contraintes environnementales et fonctionnelles (température, humidité…). L’ensemble de ces contraintes a un impact sur la durée de vie des composants, et donc sur la fiabilité des dispositifs. D’un point de vue économique, le remplacement d’un équipement défectueux est moins pénalisant qu’une défaillance brutale du système. Ainsi, l’utilisation d’outils de diagnostic est nécessaire pour prédire la durée de vie restante des dispositifs en opération, et mettre en place une maintenance adaptée et efficace.Pour déterminer la durée de vie restante des modules de puissance en opération, des modèles de durée de vie sont utilisés. La plupart de ces modèles sont établis soit de manière empirique, soit de manière physique, soit de manière statistique. Les modèles empiriques sont les plus courants, car leur réalisation et implémentation sont maintenant bien connues. Ils se basent sur des résultats issus de tests de cyclage accélérés qui reproduisent les contraintes endurées par le module de puissance sous des conditions "accélérées" de fonctionnement. Une extrapolation est ensuite nécessaire pour obtenir l’état de santé du dispositif dans des conditions normales de fonctionnement. Le principal inconvénient de ces modèles réside dans le manque de description des mécanismes physiques responsables de l’endommagement. Ce manque peut mener potentiellement à des erreurs, notamment lors de l’extrapolation. C’est pourquoi les modèles basés sur la physique connaissent un intérêt grandissant.Dans cette thèse, deux modèles de durée de vie basés sur la physique et appliqués aux modules de puissance IGBTs sont proposés et comparés. La première approche est basée sur les déformations induites à l’intérieur de l’assemblage du module lorsque soumis à des contraintes thermiques. Dans ce cas, la dégradation est décrite via la quantification des déformations pour un stress thermique donné. Dans la seconde approche, le modèle de durée de vie est basé directement sur l’endommagement via l’établissement d’un modèle de dégradation. La comparaison des deux modèles met en lumière les défauts et qualités de chacun. D’une manière plus générale, l’établissement et la comparaison de ces modèles s’inscrit dans une démarche de développement d’outils de diagnostic afin de prédire la durée de vie restante des modules de puissance en opération. / The domain of power electronics reliability has become an important center of interest with the recent massive system electrification. The manufacturers are more and more confronted to the necessity of producing reliable devices with optimized maintenance. Electronics components, such as IGBTs, diodes and MOSFETs assembled in power modules, are at the center of the systems conversion, and as a consequence, are subjected to high environmental and functional stresses (ambient temperature, vibrations…). All these factors have a strong impact on the components lifetime and thus on the devices reliability. Economically, scheduling a maintenance with a system replacement is less detrimental than a brutal failure of the system. As a consequence, the use of lifetime prognostic tools is necessary. The problematic consists in the health state prediction of power modules in functioning to be able to schedule a maintenance before the failure of the equipment.To be able to determine the remaining useful lifetime of power modules in functioning, lifetime models are used. These models can either be empirical, physical or statistical. The empirical models are the most common ones, because of their easy establishment and implementation. They are based on results from accelerated power cycling tests, which reproduce the stresses endured by the power modules in severe conditions. An extrapolation is then needed to obtain the power module health state in normal functioning conditions. The main drawback of these models is the lack of description of the physical mechanisms leading to damage, resulting potentially in errors in particular during extrapolation. That’s the reason why physical models start to draw more attention.In the thesis, two physical lifetime models of IGBT power modules are proposed. The first approach is based on deformation induced inside the device assembly in operation. The degradation is in this case described by the quantification of deformation related to thermal stresses. In the second approach, the lifetime model is based directly on damage through the establishment of a degradation model. These two lifetime models are finally compared to show the benefits and disadvantages of each. More generally, the establishment and comparison of these models is part of an approach to develop diagnostic tools so that the remaining useful lifetime of power modules can be predicted in operation.

Page generated in 0.089 seconds