• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6910
  • 2203
  • 1504
  • 11
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 10836
  • 10836
  • 3622
  • 2988
  • 2916
  • 1945
  • 1927
  • 1786
  • 1463
  • 1359
  • 1147
  • 1091
  • 1089
  • 1079
  • 1078
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Suivi automatique de la main à partir de séquences vidéo monoculaires

De La Gorce, Martin 14 December 2009 (has links) (PDF)
Dans cette thèse sont présentées deux méthodes visant à obtenir automatiquement une description tridimensionnelle des mouvements d'une main étant donnée une séquence vidéo monoculaire de cette main. En utilisant l'information fournie par la vidéo, l'objectif est de déterminer l'ensemble des paramètres cinématiques nécessaires à la description de la configuration spatiale des différentes parties de la main. Cet ensemble de paramètres est composé des angles de chaque articulation ainsi que de la position et de l'orientation globale du poignet. Ce problème est un problème difficile. La main a de nombreux degrés de liberté et les auto-occultations sont omniprésentes, ce qui rend difficile l'estimation de la configuration des parties partiellement ou totalement cachées. Dans cette thèse sont proposées deux nouvelles méthodes qui améliorent par certains aspects l'état de l'art pour ce problème. Ces deux méthodes sont basées sur un modèle de la main dont la configuration spatiale est ajustée pour que sa projection dans l'image corresponde au mieux à l'image de main observée. Ce processus est guidé par une fonction de coût qui définit une mesure quantitative de la qualité de l'alignement de la projection du modèle avec l'image observée. La procédure d'ajustement du modèle est réalisée grâce à un raffinement itératif de type descente de gradient quasi-newton qui vise à minimiser cette fonction de coût.Les deux méthodes proposées diffèrent principalement par le choix du modèle et de la fonction du coût. La première méthode repose sur un modèle de la main composé d'ellipsoïdes et d'une fonction coût utilisant un modèle de la distribution statistique de la couleur la main et du fond de l'image.La seconde méthode repose sur un modèle triangulé de la surface de la main qui est texturé est ombragé. La fonction de coût mesure directement, pixel par pixel, la différence entre l'image observée et l'image synthétique obtenue par projection du modèle de la main dans l'image. Lors du calcul du gradient de la fonction de coût, une attention particulière a été portée aux termes dûs aux changements de visibilité de la surface au voisinage des auto-occultations, termes qui ont été négligés dans les méthodes préexistantes.Ces deux méthodes ne fonctionnement malheureusement pas en temps réel, ce qui rend leur utilisation pour l'instant impossible dans un contexte d'interaction homme-machine. L'amélioration de la performance des ordinateur combinée avec une amélioration de ces méthodes pourrait éventuellement permettre d'obtenir un résultat en temps réel.
552

Contribution à l'étude de l'anisotropie induite par l'effet Mullins dans les élastomères silicones chargés

Machado, Guilherme 12 May 2011 (has links) (PDF)
The present work studies the experimental characterization and modeling of the anisotropy induced by Mullins effect, i.e., the loss of stiffness in the first loading cycles, often observed in rubber-like materials. After a description of the mechanical characteristics of the particular silicone material used in our study, experimental tests are developed to create original and complex loading histories. First, successions of conventional uniaxial tensile tests are performed with changing directions of loading. Second, the state of heterogeneous stress and strain obtained in circular membrane swelling tests was completely characterized by means of kinematic field measurements made by the 3D image correlation method, and the loadings are then biaxial tension followed by uniaxial traction. The key parameters for modeling the Mullins effect were able to be identified, including its isotropic and anisotropic parts. A model was thus developed based on the double-network theory taking into account the experimentally motivated criteria. A suitable version with simple implementation in a finite element computer code was finally developed to allow the calculation of a structural part.
553

Numerical simulation of morphogenetic movements in Drosophila embryo

Allena, Rachele 16 September 2009 (has links) (PDF)
The present thesis is developed through four principal chapters. The first one provides a brief but rather exhaustive description of the context, with a global overview on the complex process of the embryogenesis in Drosophila Melanogaster. We amply focus on the three morphogenetic movements that will be numerically simulated, with particular emphasis on both the mechanical and the biological aspects that constitute the main peculiarity of each event. Also we propose a short review on the related previous works. The second chapter supplies the abstract tools for the analysis of the whole problem and points out the hypotheses that, for sake of simplicity, have been made. The gradient decomposition method is presented together with some interesting interpretations that better clarify the approach and put forward novel issues that have to be considered. By the Principle of the Virtual Power, we are able to write the mechanical equilibrium of the system which consists of the forces internal to the embryo domain and of the boundary conditions, such as the yolk pressure and contact with the vitelline membrane, that are essential for consistent results. A special concern is attributed to the choice of the constitutive law of the mesoderm that, from a biological point of view, may appear too simplistic. Here a Saint- Venant material is used in contrast with the Hyperelastic models found in literature; therefore a comparison between the two is proposed together with the advantages and the limitations of our study. Finally, we provide some simple examples that validate our model and support the exploited method. The third chapter can be divided into two parts. In the first one, by the parametrical description of the embryo geometry, we obtain the analytical formulations of the active deformation gradients for each morphogenetic movement according to the elementary forces introduced. Such expressions will be combined with the passive gradients in order to get the final deformation of the tissues. In the second part we interpret the results for each simulation. In particular, we provide a parametrical analysis for the simulation of the ventral furrow invagination, while for the germ band extension a comparison with experimental data is done. Furthermore we have been able to estimate the effects induced by the local deformations within the tissues; specifically, we have evaluated the magnitude of the pressure forces and the shear stress that may develop at long distance in the embryo when the active forces are applied in restraint regions. To conclude, we propose a collateral study on the influence of the global geometry of the embryo on the final results. Given the consistence of the results for the individual simulations, we have decided to test the concurrent simulation of the events, by two or three of them. In the last chapter, we show the results for a first essay for which we use the most intuitive method; it does not require in fact further manipulations of the analytical formulations previously obtained, but we simply couple together the active deformation gradients, following the chronological order of the movements. Although the method works well for the simulation of the two furrows, some drawbacks are detected when we introduce the germ band extension. Therefore we propose a new approach, more rigorous and appropriate, which allows to take into account some aspects so far put aside, but still significant for a realistic and complete reproduction of the different phases of the Drosophila gastrulation.
554

Transferts radiatifs dans les écoulements hypersoniques de rentrée atmosphérique terrestre

Lamet, Jean-Michel 21 September 2009 (has links) (PDF)
Le dimensionnement des protections thermiques des véhicules spatiaux nécessite la connaissance des flux de chaleur à la surface de l'engin. Pour le type de rentrée atmosphérique étudié dans ces travaux (rentrée terrestre à 10-12 km/s ou plus), le rayonnement contribue de manière significative à l'échauffement pariétal. Nous présentons dans cette étude, le développement et la mise en œuvre de modèles et d'outils numériques permettant de prédire les transferts radiatifs dans les couches de choc de rentrée terrestre hors d'équilibre en géométrie multi-dimensionnelle. Nous avons d'abord formulé dans une approche raie par raie l'expression des propriétés radiatives relatives à des plasmas de N2-O2 hors d'équilibre. Cette formulation est adaptée à une modélisation multi-température et/ou une modélisation par niveau électronique du déséquilibre thermique. Les expressions obtenues ont été mises en œuvre sur le cas d'épreuve FIRE II afin de déterminer les luminances au point d'arrêt pour quatre points de trajectoire. Les résultats montrent un bon accord global avec les données en vol dans les différents intervalles de mesure allant de l'IR à l'UV, hormis pour le point de rentrée le plus hors d'équilibre. Les calculs montrent également que la partie VUV du spectre contribue de manière très importante à la luminance à la paroi et que la prise en compte du déséquilibre chimique est primordiale. Un modèle approché de propriétés radiatives a ensuite été développé sur la base d'un modèle statistique à bandes étroites (MSBE) pour les systèmes électroniques moléculaires optiquement non minces (dans notre application), d'un modèle à coefficients d'émission et d'absorption moyennés par bande étroite pour les systèmes électroniques optiquement minces et les continua, et d'une approche raie par raie pour les transitions lié-lié atomiques. La mise en œuvre de cette modélisation hybride a nécessité une formulation adaptée de l'ETR pour tenir compte du déséquilibre et des corrélations spectrales. Des validations systématiques du MSBE, contribution par contribution, ont été réalisées. Le modèle hybride a ensuite été validé sur le cas d'épreuve FIRE II par rapport à des calculs raie par raie. Le modèle hybride a été implémenté dans le solveur radiatif ASTRE, code basé sur une approche de Monte Carlo. L'implémentation a été validée par rapport à une méthode de lancer de rayons sur une con_figuration plans tangents. Des calculs 3D de rayonnement ont ensuite été réalisés sur le cas d'épreuve FIRE II. Les résultats montrent des écarts de l'ordre de 10-15 % sur les flux au point d'arrêt par rapport aux résultats obtenus dans l'approximation des plans tangents habituellement utilisée dans la littérature. Les outils développés permettent d'obtenir des résultats relativement bien convergés (5 %) en géométrie tri-dimensionnelle (100000 cellules) en un temps CPU raisonnable permettant d'envisager des calculs couplés à terme.
555

Noise sources in robust uncompressed video watermarking

Dumitru, Corneliu Octavian 11 January 2010 (has links) (PDF)
Cette thèse traite de ce verrou théorique pour des vidéos naturelles. Les contributions scientifiques développées ont permis : 1. De réfuter mathématiquement le modèle gaussien en général adopté dans la littérature pour représenter le bruit de canal ; 2. D'établir pour la première fois, le caractère stationnaire des processus aléatoires représentant le bruit de canal, la méthode développée étant indépendante du type de données, de leur traitement et de la procédure d'estimation ; 3. De proposer une méthodologie de modélisation du bruit de canal à partir d'un mélange de gaussiennes pour une transformée aussi bien en cosinus discrète qu'en ondelette discrète et pour un large ensemble d'attaques (filtrage, rotation, compression, StirMark, ...). L'intérêt de cette approche est entre autres de permettre le calcul exact de la capacité du canal alors que la littérature ne fournissait que des bornes supérieure et inférieure. 4. Les contributions technologique concernent l'intégration et l'implémentions de ces modèles dans la méthode du tatouage IProtect brevetée Institut Télécom/ARTEMIS et SFR avec un gain en temps d'exécution d'un facteur 100 par rapport à l'état de l'art.
556

Modélisation et exécution des applications d'analyse de données multi-dimentionnelles sur architectures distribuées.

Pan, Jie 13 December 2010 (has links) (PDF)
Des quantités de données colossalles sont générées quotidiennement. Traiter de grands volumes de données devient alors un véritable challenge pour les logiciels d'analyse des données multidimensionnelles. De plus, le temps de réponse exigé par les utilisateurs de ces logiciels devient de plus en plus court, voire intéractif. Pour répondre à cette demande, une approche basée sur le calcul parallèle est une solution. Les approches traditionnelles reposent sur des architectures performantes, mais coûteuses, comme les super-calculateurs. D'autres architectures à faible coût sont également disponibles, mais les méthodes développées sur ces architectures sont souvent bien moins efficaces. Dans cette thèse, nous utilisons un modèle de programmation parallèle issu du Cloud Computing, dénommé MapReduce, pour paralléliser le traitement des requêtes d'analyse de données multidimensionnelles afin de bénéficier de mécanismes de bonne scalabilité et de tolérance aux pannes. Dans ce travail, nous repensons les techniques existantes pour optimiser le traitement de requête d'analyse de données multidimensionnelles, y compris les étapes de pré-calcul, d'indexation, et de partitionnement de données. Nous avons aussi résumé le parallélisme de traitement de requêtes. Ensuite, nous avons étudié le modèle MapReduce en détail. Nous commençons par présenter le principe de MapReduce et celles du modèle étendu, MapCombineReduce. En particulier, nous analysons le coût de communication pour la procédure de MapReduce. Après avoir présenté le stockage de données qui fonctionne avec MapReduce, nous présentons les caractéristiques des applications de gestion de données appropriées pour le Cloud Computing et l'utilisation de MapReduce pour les applications d'analyse de données dans les travaux existants. Ensuite, nous nous concentrons sur la parallélisation des Multiple Group-by query, une requête typique utilisée dans l'exploration de données multidimensionnelles. Nous présentons la mise en oeuvre de l'implémentation initiale basée sur MapReduce et une optimisation basée sur MapCombineReduce. Selon les résultats expérimentaux, notre version optimisée montre un meilleur speed-up et une meilleure scalabilité que la version initiale. Nous donnons également une estimation formelle du temps d'exécution pour les deux implémentations. Afin d'optimiser davantage le traitement du Multiple Group-by query, une phase de restructuration de données est proposée pour optimiser les jobs individuels. Nous re-definissons l'organisation du stockage des données, et nous appliquons les techniques suivantes, le partitionnement des données, l'indexation inversée et la compression des données, au cours de la phase de restructuration des données. Nous redéfinissons les calculs effectués dans MapReduce et dans l'ordonnancement des tâches en utilisant cette nouvelle structure de données. En nous basant sur la mesure du temps d'exécution, nous pouvons donner une estimation formelle et ainsi déterminer les facteurs qui impactent les performances, telles que la sélectivité de requête, le nombre de mappers lancés sur un noeud, la distribution des données " hitting ", la taille des résultats intermédiaires, les algorithmes de sérialisation adoptée, l'état du réseau, le fait d'utiliser ou non le combiner, ainsi que les méthodes adoptées pour le partitionnement de données. Nous donnons un modèle d'estimation des temps d'exécution et en particulier l'estimation des valeurs des paramètres différents pour les exécutions utilisant le partitionnement horizontal. Afin de soutenir la valeur-unique-wise-ordonnancement, qui est plus flexible, nous concevons une nouvelle structure de données compressées, qui fonctionne avec un partitionnement vertical. Cette approche permet l'agrégation sur une certaine valeur dans un processus continu.
557

Fluid-structure interaction in human vocal folds

Sidlof, Petr 26 February 2007 (has links) (PDF)
Le champ de vitesse et de pression le long des cordes vibrantes était étudié à l'aide d'un modèle numérique et par observation expérimentale. Le modèle mathématique, basé sur les équations de Navier-Stokes 2D incompressibles discrétisées avec la méthode des éléments finis en formulation d'Euler-Lagrange arbitraire, était programmé dans le langage Fortran, à l'aide de la librairie numérique Mélina. Dans les résultats des simulations numériques on peut observer le développement du jet derrière la glotte et l'évolution des tourbillons de recirculation lors du cycle d'oscillation des cordes vocales. Le modèle physique en échelle 4: 1 fournit les signaux d'accélération, pression supraglottale et le signal acoustique émis par un corps élastique, qui vibre dans le paroi du canal aérodynamique grâce au couplage avec l'écoulement. Sur le même modèle, le champ de vitesse dans le domaine supraglottale était mesuré par la PIV synchronisé avec les oscillations.
558

Optimisation multi-objectifs à base de métamodèle pour les procédés de mise en forme

Ejday, Moshen 17 March 2011 (has links) (PDF)
Dans le domaine de mise en forme, la réduction des coûts et l'amélioration des produits sont des défis permanents à relever. Pour ce faire, le procédé de mise en forme doit être optimisé. Optimiser le procédé revient alors à résoudre un problème d'optimisation. Généralement ce problème est un problème d'optimisation multi-objectifs très coûteux en terme de temps de calcul, où on cherche à minimiser plusieurs fonctions coût en présence d'un certain nombre de contraintes. Pour résoudre ce type de problème, on a développé un algorithme robuste, efficace et fiable. Cet algorithme, consiste à coupler un algorithme évolutionnaire avec un métamodèle, c'est-à-dire des approximations des résultats des simulations coûteuses. Dans ce mémoire, on a commencé par la présentation du problème d'optimisation multiobjectifs, des algorithmes d'optimisation (algorithmes évolutionnaires) et des métamodèles les plus utilisés (Chapitre I), où on a choisi l'algorithme génétique élitiste de tri non dominé (NSGA-II) qui sera couplé avec le métamodèle basé sur la méthode de différence finies sans maillage. Ce métamodèle, qui est développé au cours de cette thèse, constitue le continue de Chapitre II. Dans le Chapitre III, on étudie différentes manières de couplage de notre métamodèle avec NSGA-II. Ces couplages, C-Constant, C-Actualisé C-Évolutif-H1 et C-Évolutif-MC, diffèrent par le choix des points maîtres au cours des itérations, le type d'erreur utilisée et l'évolution du métamodèle. Ils sont validés sur plusieurs problèmes tests d'optimisation tels que des problèmes mono-objectif, multi-objectifs, sans contraintes et sous contraintes. Le meilleur couplage, C-Évolutif-MC, est utilisé pour la résolution des problèmes de mise en forme mono et multi-objectifs (Chapitre IV). Les résultats obtenus montrent l'efficacité de notre méthode.
559

Evaluation des paramètres physiques et physico-chimiques qui influencent l'accessibilité de la cellulose

Spinu, Monica 21 December 2010 (has links) (PDF)
La cellulose, bio-polymère de la famille des polysaccharides, fait depuis des années l'objet de nombreuses études de recherches visant une meilleure maîtrise de sa modification et de sa mise en forme. N'étant pas fusible en dessous de sa température de dégradation, la cellulose nécessite une mise en forme par dissolution. Pourtant, les procédés utilisés aujourd'hui pour sa mise en forme ne sont pas toujours bien optimisés entraînant une perte de matière ou des qualités du produit final qui ne sont pas toujours celles visées par l'industrie. Cette limitation est en partie due à sa structure complexe qui rend les chaînes de la cellulose difficilement accessibles. L'objectif scientifique de notre travail était d'analyser et essayer de comprendre certains des paramètres qui peuvent avoir une influence sur l'accessibilité de la cellulose: état humide, application d'une tension mécanique uniaxiale, irradiation. Nous avons montré que la structure poreuse de la cellulose est un facteur important à prendre en compte dans son accessibilité. Ainsi, en présence d'un mauvais solvant comme le NaOHeau les fibres de cellulose montrent une meilleure accessibilité dans l'état jamais séché en comparaison avec les fibres à l'état séché, en raison d'une structure plus ouverte des fibres. La porosité a également été mise en évidence lors du séchage et re-humidification des surfaces modèles où nous avons mis en évidence le rôle des microporosités dans la reprise en eau. Ceci nous a permis de déduire que la faible hornification observée sur les produits régénérés à partir du procédé viscose est due à l'existence de microporosités à la surface de macroporosités qui ne permettent pas le contact entre les parois des pores lors de leur fermeture pendant le séchage, limitant fortement la capacité à créer des liaisons hydrogène irréversibles. Nous avons également montré qu'un facteur à prendre en compte lorsque l'on veut effectuer une modification chimique de la cellulose est le besoin que les chaînes soient suffisamment mobiles pour accéder à un éventail de conformations spécifiques.
560

Tuyère Diphasique à Jet de Brouillard

Bourrilhon, Thibaut 07 July 2009 (has links) (PDF)
Les brouillards d'eau ont démontré leur excellente efficacité dans la lutte contre l'incendie. Le concept de tuyère à jet de brouillard permet de produire en continu un écoulement diphasique très finement dispersé (très grande aire interfaciale). Pour cela on réalise un mélange effervescent d'eau et de gaz sous pression (3 à 10 bars). Le mélange est détendu dans une tuyère de géométrie (profil) adaptée. Au cours de cette détente le gaz fournit un travail qui assure d'une part la propulsion du liquide et d'autre part son fractionnement en fines gouttelettes. L'écoulement sortant se présente alors sous forme d'un jet de brouillard rapide (50 à 150 m/s). L'objectif de ces travaux est le développement de modèles pour décrire la détente de l'écoulement en tuyère et le jet libre formé au-delà de la section de sortie. Différents instruments de mesure (granulométre, vélocimétre) sont mis en oeuvre pour permettre une confrontation avec les simulations numériques.

Page generated in 0.1063 seconds