461 |
Caractérisation biochimique de muscles de porc riches en glycogène : relation avec les phénomènes d'oxydation / Biochemical characteristics of pig muscles rich in glycogen in relation to oxidative processTraore, Souleymane 16 December 2011 (has links)
L’objectif de notre étude est de comprendre les mécanismes impliqués dans la variation des qualités sensorielles et technologiques de la viande de porc. Les différentes expérimentations nous ont permis de mettre en évidence le rôle de l’oxydation des protéines dans la variation de qualités des viandes. Les modifications structurales qui ont en découlé participent également à l’élucidation des mécanismes à l’origine de la diminution du pouvoir en rétention d’eau. L’application des traitements thermiques sur la viande accentue les phénomènes oxydatifs dans lesquels la myosine et de l’actine sont des cibles privilégiées, impliquées dans la formation d’agrégats protéiques. Enfin, le rôle du glycogène comme potentialisateur de l’oxydation protéique a été démontré. / We aimed to better understand the mechanisms underlying sensorial and technological meat qualities. The experimental design put into relief the important role of protein oxidation in meat quality. As a consequence of oxidation, structural changes of proteins demonstrated also their implication in water holding capacity. Heating enhanced the oxidative process in which myosin and actin can be considered as favoured protein target. Moreover these proteins are implicated in aggregation /polymerization. Finally, glycogen as a catalyst of protein oxidation was demonstrated. Read more
|
462 |
Traitement logarithmique d’images couleur / Color Logarithmic Image ProcessingGouinaud, Hélène 05 April 2013 (has links)
Cette thèse de doctorat porte sur l'extension du modèle LIP (Logarithmic Image Processing) aux images en couleurs. Le modèle CoLIP (Color Logarithmic Image Processing) est défini, étudié et appliqué au traitement d'image dans ce manuscrit.Le modèle LIP est un cadre mathématique original complet, développé pour le traitement d'images à niveaux de gris, rigoureusement établi mathématiquement, compatible avec les lois physiques de formation d'image, et mieux adapté que l'approche classique pour modéliser la perception visuelle humaine de l'intensité de la lumière. Après une étude de la vision des couleurs et de la science des couleurs, le modèle CoLIP est construit en suivant les étapes de la perception humaine des couleurs, tout en intégrant le cadre mathématique du modèle LIP. Dans un premier temps, le CoLIP est construit en suivant les étapes de la photoréception, de la compression lumineuse et du codage antagoniste. Il est donc développé comme un espace couleur représentant une image couleur par un ensemble de trois fonctions de tons antagonistes, sur lesquelles sont définies les opérations CoLIP d'addition et de multiplication par un scalaire, qui confèrent à cet espace couleur la structure d'espace vectoriel couleur. Ensuite, l'espace couleur CoLIP étant un espace de type luminance-chrominance uniforme, les attributs relatifs et absolus de la perception humaine des couleurs (teinte, chroma, coloration, luminosité, clarté, et saturation) peuvent être définis. Cette construction fait du CoLIP à la fois un espace vectoriel couleur bien structuré mathématiquement, et un modèle d'apparence couleur. Dans un deuxième temps, un grand nombre de justifications physiques, mathématiques, et psychophysiques du modèle CoLIP sont proposées, notamment la comparaison des formes des ellipses de MacAdam dans l'espace de couleur uniforme CoLIP et dans d'autres modèles uniformes, sur des critères d'aire et d'excentricité des ellipses. Enfin, diverses applications utilisant la structure d'espace vectoriel couleur du modèle CoLIP sont proposées, telles que le rehaussement de contraste, le rehaussement d'image et la détection de contour. Des applications utilisant la structure de modèle d'apparence couleur, qui permet de travailler sur les notions de teinte, de luminosité et de saturation, sont également développées. Une application spécifique permettant de mesurer la viabilité des cellules sur des images de lames obtenues par cytocentrifugation et marquage couleur est également proposée. / This doctoral thesis introduces the extension of the LIP (Logarithmic Image Processing) model to color images. The CoLIP (Color Logarithmic Image Processing) model is defined, studied and applied to image processing in this manuscript. The Logarithmic Image Processing (LIP) approach is a mathematical framework developed for the representation and processing of images valued in a bounded intensity range. The LIP theory is physically and psychophysically well justified since it is consistent with several laws of human brightness perception and with the multiplicative image formation model. Following a study of color vision and color science, the CoLIP model is constructed according to the human color perception stages, while integrating the mathematical framework of the LIP.Initially, the CoLIP is constructed by following the photoreception, non-linear cone compression, and opponent processing human color perception steps. It is developed as a color space representing a color image by a set of three antagonists tones functions, that can be combined by means of specific CoLIP operations: addition, scalar multiplication, and subtraction, which provide to the CoLIP framework a vector space structure. Then, as the CoLIP color space is a luminance-chrominance uniform color space, relative and absolute perception attributes (hue, chroma, colorfulness, brightness, lightness, and saturation) can be defined. Thus, the CoLIP framework combines advantages of a mathematically well structured vector space, and advantages of a color appearance model. In a second step, physical, mathematical, physiological and psychophysical justifications are proposed including a comparison of MacAdam ellipses shapes in the CoLIP uniform model, and in other uniform models, based on ellipses area and eccentricity criterions. Finally, various applications using the CoLIP vector space structure are proposed, such as contrast enhancement, image enhancement and edge detection. Applications using the CoLIP color appearance model structure, defined on hue, brightness and saturation criterions are also proposed. A specific application dedicated to the quantification of viable cells from samples obtained after cytocentrifugation process and coloration is also presented. Read more
|
463 |
Traitement des congestions dans les réseaux de transport et dans un environnement déréguléManzo, Vincent 22 October 2004 (has links) (PDF)
La restructuration du secteur de l'électricité occasionne des transferts de puissance importants guidés par une logique essentiellement économique,engendrant à leur tour de nouvelles contraintes sur les réseaux de transport appelées congestions. Une congestion dénote l'incapacité du réseau de transport à conduire les programmes du marché de l'énergie, et le traitement des congestions est le procédé assurant que les réseaux sont exploités dans leurs limites de sécurité imposées. Le contexte actuel nécessite donc de définir une méthodologie de traitement des congestions fiable, optimale du point de vue économique, et qui donne de bonnes incitations sur le long terme en vue de réduire les contraintes et de favoriser le développement du réseau. A cet effet, nous proposons dans le cadre de cette Thèse un modèle de traitement des congestions qui définit celui-ci comme un service système séparé du marché de l'énergie. Le traitement repose sur l'usage d'offres d'ajustements venant des producteurs sur une base volontaire, et dont le coût total est minimisé via un algorithme d'optimisation. Ensuite, ce coût est redistribué aux usagers du réseau suivant de nouvelles stratégies d'allocation basées sur la traçabilité de l'énergie. Enfin, cette méthodologie a été adaptée en vue de répondre au problème de la coordination supranationale du traitement des congestions. Les résultats ont montré que cette coordination facilite le traitement de contraintes difficiles, et permet d'espérer des réductions appréciables de coût de congestion, tout en assurant la confidentialité de données économiques sensibles. Les essais ont notamment été effectués sur le réseau RTS 96 comportant 72 nœuds. Read more
|
464 |
CAPITALISATION ET TRAITEMENT DES MODELES POUR LA CONCEPTION EN GENIE ELECTRIQUEAllain, Loig 30 September 2003 (has links) (PDF)
Au cours de son activité de conception, l'ingénieur manipule de nombreux modèles mathématiques des dispositifs à concevoir, dimensionner et simuler. Aujourd'hui, le concepteur manipule souvent des modèles identiques pour des objectifs différents. Ceci implique une multiplication des modes de représentation et pose des problèmes de gestion de la ressource de modèle au sein de l'entreprise. Les travaux présentés dans cette thèse apportent une réponse possible pour la capitalisation de cette expertise sous un format a-contcxtucl. La capitalisation ne prend de sens que si la donnée capitalisée est exploitable. Ceci impose de définir une orientation au modèle par le choix de variables d'entrées ou sorties, de paramètres. Ces choix permettent ensuite de déterminer automatiquement un scénario de calcul numérique utilisé pour générer un code dédié à l'outil utilisé.
|
465 |
Etude de quelques problèmes liés à l'analyse d'images : Recherche de direction privilégiée et projection d'images - Application au dénombrement et à la mesure de structures en domaine ferroélectriqueRubat Du Mérac, Claire 13 May 1977 (has links) (PDF)
.
|
466 |
Modèles d'activités pédagogiques et support de l'interaction pour l'apprentissage d'une langue – le système SamprasMichel, Johan 26 June 2006 (has links) (PDF)
Nos recherches s'inscrivent dans le domaine des EIAH et plus particulièrement dans les recherches menées sur la conception d'environnements d'apprentissage des langues étrangères. Nous nous intéressons à la conception et au support d'activités interactives au sein d'un micromonde dédié à l'apprentissage du français langue étrangère. L'idée sur laquelle repose la thèse est que l'apprentissage de la langue peut prendre place dans l'interaction entre un apprenant et un agent conversationnel. L'usage de la langue étrangère est mis en jeu au travers de la simulation d'une tâche applicative à accomplir dans un monde virtuel, réalisation impliquant la communication entre un apprenant et son partenaire virtuel. Nous élaborons des modèles qui décrivent les activités pédagogiques mises en place et le support aux interactions qu'elles génèrent. Ces modèles se décrivent selon trois dimensions qui permettent de caractériser la conception : tâche, interaction et langue. La description de la dimension tâche recouvre la description des tâches pédagogiques proposées aux apprenants, des tâches interactives créées à partir des spécifications des tâches pédagogiques et de la tâche applicative dont la résolution sert de prétexte à l'interaction. La description de la dimension interaction présente les types d'interaction attendus entre l'apprenant et son partenaire au cours des activités pédagogiques et le modèle d'interaction qui articule ces types d'interaction. La présentation de la dimension langue décrit le modèle du lexique, les mécanismes d'analyse des énoncés de l'apprenant et de génération des réactions du partenaire. Ces modèles ont été mis en œuvre lors de l'implémentation d'un prototype. Ce prototype a été expérimenté auprès de débutants en français langue étrangère. Read more
|
467 |
Evaluation par PCR de l'activité antivirale des inhibiteurs de l'ADN polymérase du Virus d'Epstein-BarrBallout, Mirvat 15 December 2005 (has links) (PDF)
Un système d'évaluation in vitro de l'activité de médicaments anti-EBV a été mis au point en utilisant la PCR/RT-PCR quantitative en temps réel. Trois composés appartenant à différentes classes antivirales ont été testés : un analogue nucléosidique, le ganciclovir (GCV), un analogue nucléotidique, le cidofovir (HPMPC), et un analogue du pyrophosphate, le foscarnet (PFA). Après 7 jours de traitement des cellules P3HR-1 productrices de virions, les concentrations inhibant de 50 % la réplication de l'ADN viral sont respectivement de 0.28 µg/mL, 0.29 µg/mL et 13.6 µg/mL pour le GCV, le HPMPC et le PFA. L'expression de l'ARNm de la glycoprotéine tardive gp350/220 est réduite de 79 à 89 % après 4 jours. Nous avons aussi démontré la spécificité de l'effet antiviral en mesurant les taux d'ADN (b-globine) ou d'ARN (hPBGD) cellulaires. En conclusion, notre système permet l'évaluation de l'effet antiviral contre l'EBV de façon quantitative, simple et précise.
|
468 |
Adéquation algorithme - architecture pour le traitement multimédia embarquéRoux, S. 22 January 2002 (has links) (PDF)
Cette thèse traite de la faisabilité de l'intégration d'un service de visiophonie sur les terminaux mobiles de prochaine génération au travers d'une méthodologie de conception des<br />systèmes multimedia embarqués. <br />Nous commençons par situer le contexte de l'étude, les réseaux 3G, les terminaux mobiles, les processeurs pour le codage vidéo, ainsi que les normes de codage des groupes ISO/MPEG et UIT-T. Puis, nous proposons une méthodologie de conception au niveau système prenant en compte les contraintes de l'embarqué, en particulier, l'autonomie du terminal que nous appliquons au<br />codeur vidéo H.263 (recommandation UIT-T). Cette méthodologie s'articule autour de deux axes: algorithmique (spécification système et analyse de performance) et architectural (partitionnement matériel / logiciel et analyse de l'efficacité de l'implémentation). <br />Face aux contraintes de la visiophonie embarquée, nous proposons un nouveau schéma de compression vidéo exploitant l'information sémantique de l'image vidéo, dans l'esprit de la norme MPEG-4 (codage objet). Nous proposons ainsi, à la fois un algorithme adaptatif pour l'extraction du visage, et un nouveau schéma de codage pour la compression vidéo à très bas débit. Read more
|
469 |
Réseaux de neurones pour le traitement automatique du langage: conception et réalisatin de filtres d'informationsStricker, Mathieu 12 1900 (has links) (PDF)
En raison de l'augmentation constante du volume d'information accessible électroniquement, la conception et la mise en uvre d'outils efficaces, permettant notamment à l'utilisateur de n'avoir accès qu'à l'information qu'il juge pertinente, devient une nécessité absolue. Comme la plupart de ces outils sont destinés à être utilisés dans un cadre professionnel, les exigences de fiabilité et de convivialité sont très importantes; les problèmes à résoudre pour satisfaire ces exigences sont nombreux et difficiles. L'accès à cette information pertinente peut se faire en fournissant à un utilisateur des documents pertinents ou en lui proposant des passages de documents pertinents (ou des réponses à des questions). Le premier cas relève du domaine de la recherche de textes et le second du domaine de l'extraction d'informations. C'est dans le domaine très actif de la recherche de textes que s'est situé notre travail, réalisé dans le cadre d'une collaboration entre Informatique CDC, filiale de la Caisse des Dépôts et Consignations, et le Laboratoire d'Électronique de l'ESPCI. Le but de nos travaux a été de développer un modèle fondé sur l'apprentissage numérique pour la catégorisation de textes ou, plus précisément, pour ce qui correspond à la tâche de routing dans le découpage de la conférence TREC (Text REtrieval Conference). L'approche que nous avons conçue nous a permis d'obtenir un résultat très satisfaisant: nous avons remporté la tâche de "routing" de la compétition TREC 9, devançant notamment Microsoft. Le point essentiel de notre approche est l'utilisation d'un classifieur qui est un réseau de neurones dont l'architecture prend en considération le contexte local des mots. La mise en uvre d'une méthode de sélection des entrées nous a permis de réduire à une vingtaine le nombre de descripteurs de chaque texte; néanmoins, le nombre de paramètres reste élevé eu égard au nombre d'exemples disponibles (notamment lors de la compétition TREC 9). Il a donc été nécessaire de mettre en uvre une méthode de régularisation pour obtenir des résultats significatifs à l'issue des apprentissages. Nos résultats ont été validés d'une part grâce au corpus Reuters-21578 qui est souvent utilisé par la communauté de la catégorisation de textes, et d'autre part, par la participation aux sous-tâches de routing de TREC-8 et TREC-9, qui ont permis d'effectuer des comparaisons chiffrées avec d'autres approches. Nos travaux ont été intégrés dans l'application ExoWeb développée à la Caisse des Dépôts, pour y ajouter des fonctionnalités opérationnelles originales. Cette application offrait, sur l'intranet du groupe, un service de catégorisation de dépêches AFP en temps réel; cette catégorisation s'effectuait grâce à des modèles à bases de règles. La première fonctionnalité nouvelle résultant de nos travaux est un outil qui permet à l'administrateur du système de surveiller automatiquement le vieillissement de filtres construits sur des modèles à base de règles. L'idée de cette application est de fabriquer une "copie" d'un filtre à base de règles avec un filtre utilisant un réseau de neurones. Comme le réseau de neurones produit une probabilité de pertinence et non une réponse binaire, il est possible d'attirer l'attention de l'administrateur sur les documents pour lesquels les filtres et les réseaux de neurones fournissent des réponses divergentes: documents considérés comme pertinents par la méthode à base de règles, mais obtenant une probabilité proche de zéro avec le réseau de neurones, et documents considérés comme non pertinents avec le premier et obtenant une probabilité de pertinence proche de un avec le second. Nous avons également proposé les bases d'une deuxième application, qui permet à un utilisateur de fabriquer lui-même un filtre à sa convenance avec un travail minimum. Pour réaliser cette application, il est nécessaire que l'utilisateur fournisse une base de documents pertinents. Cela peut se faire grâce à l'utilisation d'un moteur de recherche conjointement avec un réseau de neurones ou uniquement grâce au moteur de recherche. Read more
|
470 |
Searching for gravitational waves associated with gamma-ray bursts int 2009-2010 ligo-virgo dataWas, Michal 27 June 2011 (has links) (PDF)
Cette thèse présente les résultats de la recherche de signaux impulsionnels d'ondes gravitationnelles associés aux sursauts gamma dans les données 2009-2010 des interféromètres LIGO-Virgo. L'étude approfondie des mécanismesd'émission d'ondes gravitationnelles par les progéniteurs de sursauts gamma, ainsi que des mécanismes d'émission de rayons gamma eux-mêmes, permet de déterminer les caractéristiques essentielles du signal à détecter : polarisation, délai temporel, etc ... Cette connaissance de l'émission conjointe permet alors de construire une méthode d'analyse qui inclut les a priori astrophysiques. Cette méthode est de plus robuste vis-à-vis des bruits transitoires présents dans les données. L'absence de détection nous permet de placer des limites observationnelles inédites sur la population des sursauts gamma.
|
Page generated in 0.0591 seconds