Spelling suggestions: "subject:"fonctionnelle""
21 |
Etude de l'extraction des protéines de coproduits d'abattage et de leur valorisation comme ingrédients fonctionnelsSelmane, Darine 28 June 2010 (has links) (PDF)
L'objectif de ce travail est de montrer que certains coproduits d'abattage (VSM de poulet et de poumon de boeuf) peuvent constituer une source de protéines qui peut être valorisée sous forme d'ingrédients fonctionnels. Nos résultats ont montré la possibilité d'extraction de ces protéines par solubilisation en milieu alcalin, puis concentration soit par une technique membranaire (microfiltration), soit par précipitation en milieu acide. Il a été démontré que le meilleur rendement de récupération de protéines et la pureté la plus élevée ne correspond pas nécessairement aux meilleures fonctionnalités. Les protéines de la VSM de poulet présentent un bon potentiel pour être utilisées dans les préparations à base de viande, notamment pour leur fortes propriétés gélifiantes. Les protéines concentrées de poumon de boeuf (PCPB) ont montré une grande affinité avec les lipides que traduisent leurs fortes hydrofobicité de surface et activité émulsifiante. Les PCPB ont également présenté une très bonne capacité émulsifiante en présence de xanthane lors de l'émulsification en continu par un système de rotor/stator. Il est donc possible de les utiliser comme agent émulsifiant en place des caséinates considérés comme l'agent émulsifiant référence. L'aptitude au foisonnement des PCPB dans des formulations complexes en batch et en continu n'est pas affectée par la présence des polysaccharides, mais elle est très sensible à la présence des lipides
|
22 |
Importance des interactions faibles dans l'adsorption de molécules organiques fonctionnelles sur des surfaces atomiquement planes : approche expérimentale et théoriquePopoff, Alexandre 05 October 2007 (has links) (PDF)
Le travail développé dans cette thèse porte sur l'étude du rôle joué par les interactions faibles dans l'auto-assemblage à l'échelle nanométrique de molécules organiques sur des surfaces conductrices atomiquement planes. Le terme 'interactions faibles' désigne par exemple les interactions de Van der Waals ou bien encore les liaisons hydrogène. Les nanostructures formées sont étudiées dans les conditions ambiantes par microscopie tunnel à balayage (Scanning Tunneling Microscopy, STM) à linterface liquide-solide sur des surfaces dor Au(111) ou de graphite HOPG. Des calculs théoriques sont également menés afin de quantifier les interactions mises en jeu, notamment les liaisons hydrogènes. Dans un premier temps, l'adsorption de deux séries de molécules, des cétones propargyliques et des acides propioliques, est observée sur Au(111). Les auto-assemblages obtenus sont expliqués par la nature des groupements chimiques présents et de leur interaction avec la surface d'or. La seconde partie étudie l'importance des liaisons hydrogènes inter-moléculaires dites "faibles" au travers de systèmes aromatiques modèles de type nitro-benzène ou pyridine. Les calculs ab-initio permettent de déterminer les géométries dinteraction et les énergies correspondantes et donc de rationnaliser les auto-assemblages observés. Dans un dernier temps, les résultats développés sont utilisés afin d'immobiliser des molécules organiques fonctionnelles sur l'or ou le graphite. Des monocouches de pro-drogues du paracétamol et de la benzocaïne sont ainsi réalisées. La formation de nanostructures à partir de dérivés de type nitro-amine est également étudiée, en vue d'applications pour l'électronique moléculaire.
|
23 |
SELECTION DE VARIABLES POUR LA DISCRIMINATION EN GRANDE DIMENSION ET CLASSIFICATION DE DONNEES FONCTIONNELLESTuleau, Christine 05 December 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la statistique non paramétrique et porte sur la classification et la discrimination en grande dimension, et plus particulièrement sur la sélection de variables. Une première partie traite de la sélection de variables à travers CART, dans un cadre de régression et de classification binaire. La procédure exhaustive développée s'appuie sur le principe de la sélection de modèle qui permet d'obtenir des inégalités ``oracle'' et de réaliser la sélection de variables par contraste pénalisé. Une seconde partie est motivée par un problème industriel. Il s'agit de déterminer parmi les signaux temporels, mesurés au cours d'essais, ceux capables d'expliquer le ressenti de confort du conducteur, puis d'identifier les pages temporelles responsables de cette pertinence. La démarche adoptée s'articule autour du prétraitement des signaux, de la réduction de la dimension par projection dans une base d'ondelettes commune, et de la sélection de variables en mêlant CART et une stratégie pas à pas. Une dernière partie aborde le thème de la classification de données fonctionnelles au moyen des k-plus proches voisins. La procédure consiste à appliquer les k-plus proches voisins sur les coordonnées de la projection des données dans un espace fini dimensionnel. Cette procédure implique de déterminer simultanément la dimension de l'espace de projection et le nombre de voisins. La version usuelle des k-plus proches voisins et une version légèrement pénalisée sont considérées théoriquement. Un travail sur données réelles et simulées semble montrer qu'un faible terme de pénalité stabilise la sélection en conservant de bonnes performances.
|
24 |
Méthodes exploratoires d'analyse de données temporellesSaporta, Gilbert 10 June 1981 (has links) (PDF)
L'analyse en composantes principales et l'analyse des correspondances sont généralisées pour étudier des ensembles de trajectoires de processus numériques ou qualitatifs. On étudie également certains problèmes de régression avec une infinité non dénombrable de variables: régression sur un processus, régression d'un processus sur un autre.
|
25 |
Prévision non paramétrique de processus à valeurs fonctionnelles : application à la consommation d'électricitéCugliari, Jairo 24 October 2011 (has links) (PDF)
Nous traitons dans cette thèse le problème de la prédiction d'un processus stochastique à valeurs fonctionnelles. Nous commençons par étudier le modèle proposé par Antoniadis et al. (2006) dans le cadre d'une application pratique -la demande d'énergie électrique en France- où l'hypothèse de stationnarité semble ne pas se vérifier. L'écart du cadre stationnaire est double: d'une part, le niveau moyen de la série semble changer dans le temps, d'autre part il existe groupes dans les données qui peuvent être vus comme des classes de stationnarité.Nous explorons corrections qui améliorent la performance de prédiction. Les corrections visent à prendre en compte la présence de ces caractéristiques non stationnaires. En particulier, pour traiter l'existence de groupes, nous avons contraint le modèle de prévision à n'utiliser que les données qui appartiennent au même groupe que celui de la dernière observation disponible. Si le regroupement est connu, un simple post-traitement suffit pour obtenir des meilleures performances de prédiction.Si le regroupement en blocs est inconnu, nous proposons de découvrir le regroupement en utilisant des algorithmes d'analyse de classification non supervisée. La dimension infinie des trajectoires, pas nécessairement stationnaires, doit être prise en compte par l'algorithme. Nous proposons deux stratégies pour ce faire, toutes les deux basées sur les transformées en ondelettes. La première se base dans l'extraction d'attributs associés à la transformée en ondelettes discrète. L'extraction est suivie par une sélection des caractéristiques le plus significatives pour l'algorithme de classification. La seconde stratégie classifie directement les trajectoires à l'aide d'une mesure de dissimilarité sur les spectres en ondelettes. La troisième partie de la thèse est consacrée à explorer un modèle de prédiction alternatif qui intègre de l'information exogène. A cet effet, nous utilisons le cadre des processus Autorégressifs Hilbertiens. Nous proposons une nouvelle classe de processus que nous appelons processus Conditionnels Autorégressifs Hilbertiens (CARH). Nous développons l'équivalent des estimateurs par projection et par résolvant pour prédire de tels processus.
|
26 |
Un processus de sélection de composants logiciels multi-niveauxGeorge, Bart 17 December 2007 (has links) (PDF)
Le paradigme composant propose de construire un système à partir d'éléments faiblement couplés et pour la plupart déjà existants. Le taux de réutilisation ainsi atteint entraîne une diminution des délais et des coûts de développement. Pour faire face à la complexité croissante des applications, les entreprises sont de plus en plus obligées d'avoir recours à des composants commerciaux "sur étagère", fournis par des tierces personnes, et dont la nature même impose de repenser profondément le cycle de développement d'un logiciel. Il n'est plus possible de spécifier un besoin ou une architecture sans se demander s'il existe sur le marché un composant capable de satisfaire le premier ou de s'intégrer dans la seconde. Dans ce contexte, une activité voit son importance renforcée : la sélection de composants. Cette activité est sensible : une mauvaise définition des besoins associée à une mauvaise sélection des composants peut conduire à des catastrophes financières, voire même humaines dans certains cas. Elle est de plus trés coûteuse car elle impose le parcours de marchés comportant des milliers de composants, décrits avec des formats potentiellement tres différents. La sélection devient au final trés consommatrice en temps, au point de menacer les gains que conférait à l'origine ce type d'approche. La seule solution pour espérer maintenir ces gains est de disposer d'un mécanisme de sélection qui soit autant que possible automatisé. Dans cette thèse je propose un mécanisme qui permet de sélectionner, parmi une vaste bibliothèque de composants, le candidat qui répond le mieux à un besoin spécifique, aussi bien sur le plan fonctionnel que non-fonctionnel. L'originalité de cette approche est de permettre une sélection itérative en s'appuyant sur des niveaux de description des besoins de plus en plus détaillés. À cette fin, ce mécanisme intègre des résultats de travaux provenant de domaines variés tels que la recherche de composants, le sous-typage et les métriques de qualité, au sein d'un unique concept : le composant recherché.
|
27 |
Processus de formation de complexes moléculaires et/ou d'activation de liaisons chimiques doubles ou triples dans les réactions M2 + L (M = Ti,Pd ; L = CO, N2), Co2O2 + O2 et des oxydes cationiques monométalliques hydratés : structure électronique et chemin réactionnel par la théorie de la fonctionnelle de la densité dans son formalisme << Unrestricted Broken Symmetry >>Ould Souvi, Sidi Mohamed 15 July 2010 (has links) (PDF)
Dans ce travail, nous nous sommes intéressés à l'amélioration de la description, par des méthodes théoriques de type DFT, des systèmes de type M2Ln (avec M = Ti, Co, Pd et L = CO, N2, O2) où les états de bas spin sont de caractère multiréférence et doivent être décrits de façon approchée mais satisfaisante. Ceci n'a été possible qu'avec une utilisation intensive et systématisée (quoique difficilement automatisable !) de la méthode " Unrestricted DFT Broken Symmetry " et en s'appuyant sur les informations fournies par les études expérimentales menées en parallèle au sein du laboratoire, concernant les structures et les propriétés spectroscopiques. On peut dire que la description de la structure moléculaire de ces systèmes complexes se trouve proche de la limite actuelle des capacités de la chimie quantique, mais représente un défi motivant. En effet, si nous avons souvent été confrontés à des cas de surfaces de potentiel complexes, présentant des minima multiples, séparés par des barrières énergétiques faibles, au point d'être qualifiables de protéiformes, ces systèmes possèdent une photophysique et/ou une photochimie intéressante car parfois très sélectives sous les " effets de matrices " qui peuvent laisser prévoir des réactivités spécifiques en fonction de la nature du support
|
28 |
Essais sur les méthodes d'analyse des variations de la pauvretéBresson, Florent 11 December 2007 (has links) (PDF)
Alors que la lutte contre la pauvreté est devenue l'objectif prioritaire des politiques de développement, les outils dont nous disposons pour analyser ce phénomène et proposer des recommandations de politiques économique semblent encore incomplets ou sujets à caution. La présente thèse constitue une analyse technique et normative desméthodes employées pour décomposer les variations de la pauvreté en composantes respectivement associées à la croissance du revenumoyen et aux évolutions du degré d'inégalités. Les chapitres 1 à 3 s'intéressent aux problèmes de méthode que l'on peut rencontrer pour l'estimation d'élasticités croissance et inégalités de la pauvreté. Le chapitre 1 est une revue critique des différentes approches développées dans la littérature pour estimer ces élasticités, à savoir les approches « comptable », « analytique » et économétrique. Le chapitre 2montre l'importance des formes fonctionnelles utilisées pour le calcul des élasticités de la pauvreté lorsque l'intégralité de l'information relative à la distribution des revenus n'est pas disponible. Nous proposons ensuite dans le chapitre 3 une famille de transformations de la courbe de Lorenz permettant une formulation analytique, pour différentesmesures de pauvreté et d'inégalités, des élasticités inégalités de la pauvreté. Enfin, le chapitre 4 aborde sous l'angle normatif le cadre analytique sur lequel repose cette distinction stricte des effets de la croissance et de la redistribution, etmet en lumière l'importance des a priori éthiques individuels dans la décomposition des variations observées de la pauvreté.
|
29 |
Modélisation supervisée de données fonctionnelles par perceptron multi-couchesConan-Guez, Brieuc 18 December 2002 (has links) (PDF)
L'Analyse de Données Fonctionnelles est une extension de l'analyse de données traditionnelles à des individus décrits par des fonctions. Le travail présenté ici s'inscrit pleinement dans ce courant, et tente de faire la jonction entre le domaine de la statistique fonctionnelle, et celui des techniques "neuronales" classiques. L'extension du perceptron multi-couches (PMC) à des espaces fonctionnels, proposé dans ce travail, apporte une réponse naturelle au traitement d'individus de type fonctions. Deux approches distinctes sont ici présentées : une approche par traitement direct des fonctions d'entrée et une approche par projection sur une base topologique de l'espace fonctionnel considéré (méthode classique en Analyse de Données Fonctionnelles). Pour chacune de ces deux méthodes, on montre dans un premier temps que le modèle est un approximateur universel, i.e. que toute fonction continue définie sur un compact d'un espace fonctionnel peut être approchée arbitrairement bien par un PMC fonctionnel. Dans un deuxième temps, on s'intéresse aux propriétés de consistance de l'estimateur fonctionnel. L'originalité de ce résultat vient du fait que non seulement l'estimation s'effectue sur un nombre fini d'individus (les fonctions observées), mais que de plus chacune de ces fonctions n'est connue qu'en un nombre fini de points d'observation (discrétisation). Un point important à noter est que ce résultat s'appuie sur une modélisation aléatoire du design des fonctions d'entrée. Enfin, on montre que le modèle peut encore être adapté afin d'obtenir une réponse fonctionnelle, ce qui autorise le traitement de processus fonctionnels à temps discret. L'approximation universelle et la consistance de l'estimateur (dans le cas i.i.d) sont encore vérifiées.
|
30 |
Variational problems in<br />transportation theory with mass concentrationSantambrogio, Filippo 12 December 2006 (has links) (PDF)
Plusieurs problèmes d'optimisation liés à la théorie du transport optimal, concernant aussi des critères de concentration, sont étudiés. Il s'agit, pour ce qui est des primiers chapitres, de la minimization de fonctionnelles definies sur les mesures marginales du porblème de transport, en demandant que l'une soit concentrée et l'autre diffusée, alors que les deux doivent être proche au sense du transport de masse. D'autres chapitres portent sur des modèles différentes qui considèrent la concentration des parcours suivis par les particules lors du mouvement, en donnant des effets de congestion ou branchement. Plusieurs problèmes font apparaître des structures de dimension 1 (reseaux, supports rectifiables de mesures vectorielles, ensemble sous contraintes de longueur...) et leur régularité (blow-up) est étudiée dans les deux derniers chapitres. Les modèles viennent dans la majorité des cas de possibles applications à la planification urbaine, la biologie (arbres, feuilles et système sanguin), la géophysique (bassins fluviaux) et la mécanique des fluides. La thèse a été écrite sous la direction du Prof. Buttazzo et soutenue à l'Ecole Normale Supérieure de Pise.
|
Page generated in 0.075 seconds