Spelling suggestions: "subject:"méthodes dde"" "subject:"méthodes dee""
241 |
Inférence rétrospective de réseaux de gènes à partir de données génomiques temporellesRau, Andrea 01 June 2010 (has links) (PDF)
Les réseaux de gènes régulateurs représentent un ensemble de gènes qui interagissent, directement ou indirectement, les uns avec les autres ainsi qu'avec d'autres produits cellulaires. Comme ces interactions réglementent le taux de transcription des gènes et la production subséquente de protéines fonctionnelles, l'identification de ces réseaux peut conduire à une meilleure compréhension des systèmes biologiques complexes. Les technologies telles que les puces à ADN (microarrays) et le séquençage à ultra-haut débit (RNA sequencing) permettent une étude simultanée de l'expression des milliers de gènes chez un organisme, soit le transcriptome. En mesurant l'expression des gènes au cours du temps, il est possible d'inférer (soit "reverse-engineer") la structure des réseaux biologiques qui s'impliquent pendant un processus cellulaire particulier. Cependant, ces réseaux sont en général très compliqués et difficilement élucidés, surtout vu le grand nombre de gènes considérés et le peu de répliques biologiques disponibles dans la plupart des données expérimentales.<br /> <br /> Dans ce travail, nous proposons deux méthodes pour l'identification des réseaux de gènes régulateurs qui se servent des réseaux Bayésiens dynamiques et des modèles linéaires. Dans la première méthode, nous développons un algorithme dans un cadre bayésien pour les modèles linéaires espace-état (state-space model). Les hyperparamètres sont estimés avec une procédure bayésienne empirique et une adaptation de l'algorithme espérance-maximisation. Dans la deuxième approche, nous développons une extension d'une méthode de Approximate Bayesian Computation basé sur une procédure de Monte Carlo par chaînes de Markov pour l'inférence des réseaux biologiques. Cette méthode échantillonne des lois approximatives a posteriori des interactions gène-à-gène et fournit des informations sur l'identifiabilité et le robustesse des structures sous-réseaux. La performance des deux approches est étudié via un ensemble de simulations, et les deux sont appliqués aux données transcriptomiques.
|
242 |
Méthodes et outils de génération de code pour les plateformes multi-cœurs fondés sur la représentation de haut niveau des applications et des architecturesElmrabti, A. 08 December 2010 (has links) (PDF)
La complexité des systèmes sur puce s'accentue pour supporter les nouvelles applications dans le domaine des télécommunications et du multimédia. La tendance actuelle des nouvelles architectures matérielles converge vers des plateformes multi-cœurs à plusieurs unités de calcul (processeurs, DSP, IP) interconnectées par un réseau sur puce qui peut être configurable au niveau de ses interfaces réseau. Pour ce genre d'architectures, les environnements de génération de code classiques ne sont plus adaptés. Cette thèse propose un flot de génération de code de configuration pour le déploiement des applications de type flots de données sur les architectures à base d'IPs interconnectés à travers un réseau sur puce configurable. Le flot commence par un modèle de haut niveau de l'application et de l'architecture et propose une méthodologie de partitionnement des ressources. Le processus de génération de code passe par plusieurs étapes modélisées par diverses représentations intermédiaires du système. Le flot a été développé par la suite dans un environnement basé sur le standard IEEE 1685 (IP-XACT). Le flot proposé a été appliqué pour la génération et la validation du code de configuration en vue de déployer une application 3GPP-LTE de télécommunication sur la plateforme Magali. Le flot a ensuite été généralisé pour supporter, en plus de la génération du code de configuration, la génération du code logiciel exécutable par les processeurs.
|
243 |
Construction et analyse de modèles d'endommagement à gradientPham, Kim 12 November 2010 (has links) (PDF)
L'objectif de cette thèse est d'étudier les matériaux adoucissants à l'aide de modèles d'endommagement à gradient. On construit dans un premier temps le modèle local sous-jacent en montrant sa forme nécessairement standard, ce qui fournit automatiquement un cadre variationnel à l'écriture du problème d'évolution quasi-statique. Celui-ci est constitué des trois principes physiques d'irréversibilité, de stabilité et de bilan d'énergie. Cependant, la modélisation des matériaux adoucissants requiert un enrichissement du modèle local. La régularisation se fait par l'introduction de termes `a gradient d'endommagement dans le travail de déformation. Les mérites de l'approche variationnelles ainsi que les apports de la régularisation sont mis en évidence via l'étude des états homogènes. Dans une deuxième partie, on mène une étude de bifurcations et de stabilité d'une barre adoucissante en traction simple. On construit explicitement des états localisés bifurquant depuis la branche fondamentale homogène. On peut alors mettre en lumière différents phénomènes tels que la localisation conduisant `a la ruine de la structure ou les snap-back dans la réponse globale. Cette étude permet aussi mieux de comprendre le phénomène de localisation en termes de critères de sélection tels que ceux de non-bifurcation ou de stabilité. Par ailleurs, on illustre sur cet exemple l'utilisation du principe de conservation d'énergie pour gérer dans le cadre quasi-statique les évolutions non-régulières en temps. Finalement on propose dans une dernière partie des méthodes pour l'identification des paramètres du modèle dans le cas du béton. Par une analogie avec la mécanique de la rupture, on identifie tout d'abord la longueur interne au modèle `a l'aide de la densité d'énergie de surface du matériau. Les lois de rigidité et de dissipation sont quant à elles identifiées par le biais des états homogènes en se servant des diagrammes contrainte-déformation et de stabilité de la réponse homogène. On reprend alors l'essai PIED qui vise à stabiliser ces états dans un essai de traction simple en l'analysant dans le détail et en soulignant par une étude théorique et numérique l'utilité et le potentiel de cet essai.
|
244 |
Modélisation numérique des matériaux hétérogènes : Applications aux matériaux à matrice cimentaireColliat, Jean-Baptiste 25 October 2010 (has links) (PDF)
Ce document constitue la synthèse des travaux de recherches effectués pendant les six années suivant mon doctorat --- de 2004 à 2009 --- et de quelques thématiques ayant pris naissance pendant la première moitié de l'année 2010. Ces travaux ont été principalement effectués au sein du secteur Génie Civil et Environnement du LMT--Cachan et impliquent de nombreux doctorants, stagiaires et partenaires industriels, ainsi que d'autres enseignants--chercheurs du laboratoire. Afin de mettre en avant la démarche générale qui sous-tend ce travail et la cohérence des différents développements menés au cours de ces années, j'ai choisi de les mettre en forme au travers d'un manuscrit original. Celui-ci permet également de présenter au lecteur des notations uniformisées et d'avoir ainsi une vision plus synthétique.
|
245 |
Evaluation ultrasonore de l'os cortical en transmission transverse : étude numérique et expérimentale de la propagation d'ondes circonférentielles pour la caractérisation de la résistance mécanique du col fémoralGrondin, Julien 06 December 2010 (has links) (PDF)
Les mesures ultrasonores en transmission transverse permettent d'évaluer un site osseux. Notre objectif est de mettre en évidence et d'exploiter les ondes qui se propagent circonférentiellement dans la coque corticale du col fémoral pour caractériser la résistance de la hanche à la fracture. Des simulations numériques de la propagation d'ondes dans des sections transverses de col du fémur ont été réalisées pour étudier les phénomènes mis en jeu. Nous avons montré que le premier signal (« first arriving signal », FAS) en transmission transverse est toujours associé aux ondes circonférentielles. Une forte corrélation entre le temps de vol du FAS (TOFFAS) et des paramètres géométriques liés à la résistance osseuse (R² = 0.87 pour le moment d'inertie minimum) a été observée. Les ondes circonférentielles se sont révélées être sensibles à la porosité et à l'élasticité de la coque corticale. Un montage ultrasonore expérimental a été conçu afin d'étudier la relation entre TOFFAS et la résistance à la fracture obtenue par test mécanique. Une première série de mesures sur neuf échantillons a montré que TOFFAS peut prédire la résistance mécanique de l'extrémité supérieure du fémur (R² = 0.79) au moins aussi bien que la technique de référence (R² = 0.78) utilisant les rayons-X. Ce montage expérimental peut être optimisé et combiné au scanner ultrasonore du col du fémur existant pour augmenter le niveau de prédiction du risque de fracture. Nous proposons comme perspective l'utilisation de la méthode DORT pour déterminer les vitesses de phase des ondes circonférentielles dans le col du fémur à partir desquelles la géométrie et les propriétés matérielles de l'os pourraient être déduites.
|
246 |
Méthodes de contrôle de la qualité de solutions éléments finis (application à l'acoustique)Bouillard, Philippe 05 December 1997 (has links)
This work is dedicated to the control of the accuracy of computational simulations of sound propagation and scattering. Assuming time-harmonic behaviour, the mathematical models are given as boundary value problems for the Helmholtz equation <i>Delta u+k2u=0 </i> in <i>Oméga</i>. A distinction is made between interior, exterior and coupled problems and this work focuses mainly on interior uncoupled problems for which the Helmholtz equation becomes singular at eigenfrequencies.
As in other application fields, error control is an important issue in acoustic computations. It is clear that the numerical parameters (mesh size h and degree of approximation p) must be adapted to the physical parameter k. The well known ‘rule of the thumb’ for the h version with linear elements is to resolve the wavelength <i>lambda=2 pi k-1</i> by six elements characterising the approximability of the finite element mesh. If the numerical model is stable, the quality of the numerical solution is entirely controlled by the approximability of the finite element mesh. The situation is quite different in the presence of singularities. In that case, <i>stability</i> (or the lack thereof) is equally (sometimes more) important. In our application, the solutions are ‘rough’, i.e., highly oscillatory if the wavenumber is large. This is a singularity inherent to the differential operator rather than to the domain or the boundary conditions. This effect is called the <i>k-singularity</i>. Similarly, the discrete operator (“stiffness” matrix) becomes singular at eigenvalues of the discretised interior problem (or nearly singular at damped eigenvalues in solid-fluid interaction). This type of singularities is called the <i>lambda-singularities</i>. Both singularities are of global character. Without adaptive correction, their destabilizing effect generally leads to large error of the finite element results, even if the finite element mesh satisfies the ‘rule of the thumb’.
The k- and lambda-singularities are first extensively demonstrated by numerical examples. Then, two <i>a posteriori</i> error estimators are developed and the numerical tests show that, due to these specific phenomena of dynamo-acoustic computations, <i>error control cannot, in general, be accomplished by just ‘transplanting’ methods that worked well in static computations</i>. However, for low wavenumbers, it is necessary to also control the influence of the geometric (reentrants corners) or physical (discontinuities of the boundary conditions) singularities. An <i>h</i>-adaptive version with refinements has been implemented. These tools have been applied to two industrial examples : the GLT, a bi-mode bus from Bombardier Eurorail, and the Vertigo, a sport car from Gillet Automobiles.
As a conclusion, it is recommanded to replace the rule of the thumb by a criterion based on the control of the influence of the specific singularities of the Helmholtz operator. As this aim cannot be achieved by the <i>a posteriori</i> error estimators, it is suggested to minimize the influence of the singularities by modifying the formulation of the finite element method or by formulating a “meshless” method.
|
247 |
Synthèse totale de la (-)-MénisdaurineWalther, Alexandre 10 December 2010 (has links) (PDF)
Les cyanoglucosides non-cyanogènes se trouvent dans de nombreuses plantes en particulier médicinales, mais n'ont été qu'assez peu étudiés. En particulier la Ménisdaurine, dont la synthèse n'a jamais été réalisée, nous a paru un objectif intéressant. Le produit de départ, choisi en fonction de travaux antérieurs, est un dérivé de la 7-oxanorbornanone. La première voie étudiée avait comme étape-clé l'addition électrophile sur une double liaison mais n'a pas abouti. Nous avons ensuite envisagé l'ouverture d'un époxyde suivie de réduction. Ayant observé que le cycle époxy peut être ouvert par migration intramoléculaire d'un groupement méthoxy en présence d'iode, nous avons réalisé la même réaction avec un groupement phenylthio. L'ouverture de l'époxyde a ainsi été effectuée de façon totalement régio- et stéréo-sélective dans des conditions pratiquement neutres, ce qui n'avait jusque là pas été rapporté dans la littérature. Une étude mécanistique a confirmé que cette réaction se déroulait bien en deux étapes : formation d'un hémimercaptal sur la fonction cétone suivie d'une ouverture de l'époxyde par attaque exclusivement intramoléculaire. Le remplacement de l'iode par l'iodure de zinc conduit à des rendements encore supérieurs. Le groupement phenylthio étant facilement enlevé par réduction, cette voie est très efficace pour réduire sélectivement un époxyde en alcool. La suite de la synthèse conduit à l'aglycone protégée souhaitée puis la glycosidation a été réalisée avec un rendement de 80%. La(-)-Ménisdaurine naturelle a été obtenue (et caractérisée sous forme de son pentaacétate) en 10 étapes et 3% de rendement global.
|
248 |
Suivi de fronts par des méthodes de raffinement de maillage adaptatif et application à la simulation du procédé de récupération Steam Assited Gravity DrainageMamaghani, Magnolia 02 February 2010 (has links) (PDF)
Le Steam Assisted Gravity Drainage (SAGD) est le procédé de récupération thermique sur lequel plusieurs compagnies pétrolières fondent de grande espoirs. Il consiste en deux horizontaux forés l'un au-dessus de l'autre à quelques mètres d'écart. De la vapeur est injectée dans le réservoir par le puits supérieur ce qui provoque la formation d'une chambre. L'huile au voisinage des parois de la chambre se réchauffe et descend ensuite par gravité vers le puits producteur avec l'eau liquide issue de la condensation de la vapeur. La simulation numérique de ce procédé est un outil qui permet de comprendre les mécanismes physiques, d'estimer la production et d'évaluer les investissement ainsi que les risques associés. Cependant, les simulations numériques de SAGD présentent des inconvénients : la zone d'écoulement est peu épaisse comparée aux dimensions du réservoir. La discrétisation en espace doit être assez fine si l'on souhaite prédire de façon précise la production, ce qui peut amener à des simulations à plusieurs millions de mailles dans des cas réels et donc à des temps de simulation extrêments longs. A l'IFP, un générateur de maillages adaptatifs permet de mettre à jour le maillage au cours de la simulation en raffinant localement les mailles situées dans la zone d'écoulement. Basés sur des estimations d'erreur a posteriori pour des schémas volumes finis pour des équations hyperboliques non linéaires, les nouveaux critères de raffinement que nous proposons ont la particularité de dépendre des données initiales du problème
|
249 |
Méthodes et modèles pour un processus sûr d'automatisationPétin, Jean-François 19 December 2007 (has links) (PDF)
Les travaux développés dans ce mémoire concernent la formalisation d'un processus sûr d'automatisation en vue de maîtriser la complexité induite par l'intégration de plus en plus importante de technologies de l'information et de la communication au cœur même des processus de production et des produits. Plus précisément, notre travail porte sur l'intégration d'approches méthodologiques, issues du Génie Automatique, et de modèles formels, issus du Génie Informatique et de l'Automatique des Systèmes à Evénements Discrets afin de garantir, a priori, le respect des exigences formulées par les utilisateurs. Notre contribution porte sur deux axes. Le premier concerne l'intégration de techniques de synthèse de la commande dans un processus d'automatisation, incluant les phases de modélisation et de génération d'un code implantable, et leur application à la reconfiguration de systèmes manufacturiers contrôlés par le produit. Le second est basé sur le raffinement formel ou semi-formel de modèles pour identifier et structurer les exigences exprimées à un niveau " système " puis les allouer et les projeter sur une architecture de fonctions, de composants ou d'équipements. Ces travaux ont été initiés dans le cadre de notre thèse en réponse aux besoins de R&D industriels de la Direction des Etudes & Recherche d'EDF, puis ont été poursuivis avec une cible relative aux systèmes manufacturiers et validés dans le cadre de collaborations industrielles variées.
|
250 |
Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulationMouelhi-Chibani, Wiem 12 October 2009 (has links) (PDF)
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
|
Page generated in 0.0445 seconds