• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Contribution à l'étude de la durabilité des structures collées soumises à des efforts mécaniques après vieillissement humide.

Léger, Romain 05 July 2010 (has links) (PDF)
Une étude sur la durabilité d'assemblages collés en milieu chaud et humide est proposée dans ce manuscrit. L'objectif a été de construire un outil numérique capable de prédire le comportement mécanique après vieillissement des assemblages collés en vue de leurs dimensionnements. A cette fin, une importante étude expérimentale a été menée sur un adhésif structural de type époxy chargé élastomère et des assemblages collés simple recouvrement acier/époxy/acier, destinés à des applications du secteur automobile. Les résultats de ces essais ont permis le développement d'un modèle de diffusion non linéaire physiquement motivé, capable de prédire la pénétration de l'eau dans l'adhésif pour une température donnée et les contraintes qui en résultent. Ces dernières ont été obtenues grâce à une loi de comportement thermohydromécanique couplée, développée spécialement pour l'adhésif structural. Toutes ces lois ont été intégrées dans un modèle éléments finis capable de simuler l'essai de traction/cisaillement sur l'assemblage avec ou sans vieillissement. L'impact du vieillissement sur la tenue de l'adhésif et/ou de l'interface dans l'assemblage a été discuté pour améliorer la compréhension des observations expérimentales.
272

Un cadre statistique en traitement d'images et vidéos par approche variationnelle avec modélisation haute dimension

Boltz, Sylvain 09 July 2008 (has links) (PDF)
Cette thèse aborde le traitement d'images et de vidéos sous l'angle variationnel, c'est-à-dire sous forme d'une énergie dont le minimum est atteint pour la solution. La modélisation adoptée pour formaliser le problème et obtenir ces énergies peut être déterministe ou stochastique. Il est connu que la première approche est équivalente à la classe paramétrique de la seconde. Ce constat nous a amené à faire le choix de la seconde approche a priori plus générale si l'on se débarrasse de l'hypothèse paramétrique. En contrepartie, il s'agit d'être capable d'exprimer et d'estimer une énergie en fonction des données alors interprétées comme des échantillons d'une variable aléatoire. Ce premier obstacle est classiquement surmonté par l'emploi de méthodes à noyau fixe sur des lois marginales, autrement dit, en supposant les canaux de données indépendants entre eux. Or cet obstacle en cache deux autres : l'inhomogénéité de la répartition des échantillons dans leur espace d'appartenance et leur faible densité dans cet espace. Ces difficultés, ainsi que l'hypothèse d'indépendance mentionnée plus haut, sont d'autant plus pénalisantes que le modèle proposé pour les données est de grande dimension (canaux couleur, mais aussi ajouts d'autres canaux pour prendre en compte les structures locales des images). Au fondement d'estimateurs de mesures statistiques telle que l'entropie, l'idée du kième plus proche voisin permet de résoudre les difficultés évoquées en s'adaptant à la densité locale des données, en considérant les canaux conjointement, et ce quelle que soit leur nombre. Dans ce contexte, nous proposons une approche statistique générale inspirée de la théorie de l'information, dédiée aux approches variationnelles car estimant efficacement des énergies en haute dimension, permettant le calcul de leur dérivée et pouvant estimer localement des probabilités. Ce cadre est appliqué aux trois problèmes de traitement d'images ou de vidéos que sont l'estimation de flot optique, le suivi d'objets vidéos et la segmentation. Ce point de vue, en permettant de limiter sinon de s'affranchir du problème de la dimension des données, autorise la définition de nouvelles mesures et lois de probabilités plus adaptées aux images naturelles. Certains travaux en suivi d'objets et en segmentation ont conduit à des implémentations industrielles.
273

Modélisation algébrique explicite à pondération elliptique pour les écoulements turbulents en présence de paroi

Oceni, Abdou Gafari 01 July 2009 (has links) (PDF)
L'une des difficultés rencontrées dans les écoulements turbulents provient du fait que les statistiques dépendent très fortement de ce qui se passe à proximité des parois. La présence de ces derniers est pour la plupart du temps prise en compte par l'introduction de fonctions d'amortissement dans les équations des modèles. Cette approche particularise d'avantage les modèles et aussi ne favorise pas leur universalité. Le but de cette thèse est de développer des modèles Algébriques Explicites prenant en compte les effets de paroi par l'approche de la pondération elliptique développée par Manceau et Hanjalic, puis de procéder à la validation de ces modèles dans différentes configurations d'écoulements. La méthodologie de la modélisation algébrique explicite consiste à projeter l'équation du tenseur d'anisotropie sur une base convenablement choisie. La théorie des bases d'intégrité permet de déterminer le nombre de tenseurs devant constituer cette base afin d'éviter toute singularité dans les modèles. Dans cette circonstance de nombreux de modèles peuvent alors être développés. La prise en compte de la pondération elliptique à fait apparaître un tenseur supplémentaire M dans les équations en dehors des tenseurs S et W classiquement utilisés. Ce qui d'un côté rend plus complexe le cadre théorique, mais d'un autre côté offre de nombreuses possibilités de modèles approchés utilisables en pratique. Les modèles linéaire et non linéaire développés et testés pour une large gamme de Reynolds en canal, en écoulement de Couette-Poiseuille et en écoulement de couche limite sans cisaillement ont montrés leur capacité à reproduire convenablement l'anisotropie en proche paroi. La limite à deux composantes de la turbulence est préservée. L'extension de ces modèles en 3D a permis de montrer qu'il est possible de représenter correctement l'anisotropie dans un cas 3D en utilisant une base tronquée à trois tenseurs, à condition toutefois de prendre en compte l'intégralité des invariants apparaissant en 3D.
274

Proposition d'un modèle d'agents hybrides basé sur la motivation naturelle

Andriamasinoro, Fenintsoa 28 August 2003 (has links) (PDF)
La thématique principale des recherches présentées dans le présent travail concerne la modélisation de comportement d'agents informatiques hybrides au sein de Systèmes multi-agents (SMA). Un agent hybride est un agent qui dispose à la fois de comportements réactifs et de comportements cognitifs. S'inspirant à la base d'une réflexion principalement psychophysiologique du vivant, ce travail s'insère dans la problématique plus vaste de l'Intelligence artificielle distribuée et de la Vie artificielle. Partant du principe qu'un être humain, même s'il est cognitif, est aussi une espèce issue de la nature, le présent travail a pour objectif de mettre en place une architecture hybride générique d'agents artificiels dont la base du comportement est la motivation naturelle existant dans ces agents. La particularité de cette étude est que nous intégrons les concepts d'instinct, pulsion, faim, soif, etc. dans les agents cognitifs ou hybrides alors que dans la plupart des cas, ces notions ont toujours été l'apanage des modèles d'agents réactifs, particulièrement ceux basés sur les animâts. A terme, le raisonnement et les attitudes mentales ne seront donc plus les seuls facteurs à prendre en compte pour comprendre le comportement de ces agents cognitifs ou hybrides. Au niveau de l'architecture, nous obtenons ainsi à la base un modèle générique basé uniformément sur le concept de motivation naturelle et ce, quel que soit le type de l'agent étudié (réactif, cognitif, hybride). Au niveau du comportement, nous proposons de fournir un cadre hybride permettant de gérer, à un niveau générique, la sélection d'actions et plus précisément pour le présent contexte, la sélection de motivations. Le terme "générique" signifie que l'ensemble des critères fournis dans le mécanisme de sélection ne dépend pas de l'application mais permettra à l'utilisateur du système de se préoccuper au minimum des stratégies de sélection. Pour ce faire, il appartient au modèle de fournir les règles de positionnement pour chaque motivation. Sur le plan de la conception, nous adoptons un modèle issu d'un travail déjà existant dans le monde de la psychologie. Il s'agit de la pyramide du psychologue américain Abraham Maslow, portant sur les cinq besoins abstraits des humains. Le choix d'un modèle issu de l'étude du monde réel est important. Nous évitons en effet de devoir fournir des hypothèses théoriques de conception. Notre cadre d'application concerne en premier lieu une application cas d'école axée sur des agents fourrageurs qui se déplacent pour transporter des objets. Puis, dans un cadre plus réel, l'étude porte sur la simulation du comportement des paysans dans une région à Madagascar.
275

Contribution à l'Etude des Parois Complexes en Physique du Bâtiment : Modélisation, Expérimentation et Validation Expérimentale de Complexes de Toitures incluant des Produits Minces Réfléchissants en climat tropical humide

Miranville, Frédéric 13 December 2002 (has links) (PDF)
La conception bioclimatique des enveloppes des bâtiments s'intègre dans une démarche de maîtrise de l'énergie et constitue de ce fait un enjeu primordial. Elle nécessite la connaissance des performances énergétiques des composants d'enveloppe et des systèmes associés et doit permettre d'éviter le recours à des dispositifs de chauffage ou de refroidissement, forts consommateurs d'énergie. Dans ce cadre, les technologies passives sont tout à fait indiquées, dans la mesure où elles permettent de réguler les conditions d'ambiance en utilisant des moyens naturels, sans apport énergétique supplémentaire. Les parois complexes en sont un exemple, et se présentent sous la forme d'une juxtaposition de matériaux,séparés par une ou des lames d'air. Nous nous intéressons dans ces travaux à un type particulier de paroi complexe,incluant un produit mince réfléchissant (PMR). Ces derniers sont utilisés en solation thermique des bâtiments et se présentent sous la forme de minces membranes dont les faces sont recouvertes d'aluminium. Compte-tenu de leurs propriétés thermophysiques et de leur épaisseur, ces produits n'entrent pas tous dans la définition des isolants thermiques, selon la norme NF-P-75-101. Le principale conséquence qui en découle est que leurs performances thermiques ne sont pas certifiées par les organismes de référence. En outre, leur mise en oeuvre dans une paroi nécessite la présence d'une ou plusieurs lames d'air, contiguës aux faces réfléchissantes. La paroi ainsi constituée est une paroi complexe, siège de transferts énergétiques couplés. Afin de cerner le comportement thermique d'une telle paroi, il est nécessaire de proposer une modélisation adaptée. Les remarques précédentes illustrent la double problématique des PMR, l'une à caractère réglementaire, l'autre à caractère scientifique. Afin d'apporter des éléments de réponse, une méthodologie en deux volets est proposée. Le premier est expérimental et consiste en la détermination des caractéristiques thermiques de toitures complexes intégrant des PMR, au départ d'une plate-forme expérimentale en environnement naturel ; le second traite de la modélisation d'une toiture complexe au départ d'un prototype de code de calcul dédié, s'apparentant à un code de simulation du comportement énergétique des bâtiments. Les deux volets sont conciliés dans une démarche de validation expérimentale, menant à l'évaluation des prédictions du code de calcul relativement à des données issues d'expérimentations.
276

Modèles de connaissance de la cristallisation de troisième jet en sucrerie de cannes Expérimentations et simulations

Libelle, Teddy Jeannick 28 September 2007 (has links) (PDF)
Cette étude concerne la modélisation d'un procédé de cristallisation de troisième jet, dite cristallisation C, en sucrerie de cannes. De par la complexité des phénomènes physico-chimiques mis en jeu lors d'une cristallisation industrielle, il est nécessaire de développer plusieurs approches de modélisation. Cette multiplicité de modèles permet de comparer ainsi les diverses approches proposées. Nous avons pour cela axé notre étude sur la modélisation des diverses cinétiques des phénomènes physiques qui interviennent lors d'une cristallisation C, par le biais de plusieurs modèles mathématiques. En effet, nous avons considéré trois types de cinétiques pouvant exister au sein de la solution : les cinétiques de nucléation, de croissance et d'agglomération. Nous avons aussi mis en place plusieurs stratégies de modélisation dites hybrides, qui sont en fait les combinaisons de réseaux de neurones et de modèles de connaissances. Les phases d'apprentissage des réseaux de neurones sont basées sur des mesures, et la modélisation globale du procédé de cristallisation combine cette approche systémique aux différents modèles de connaissance choisis. Ces diverses approches utilisées n occultent pas les démarches classiques de modélisation en génie de la cristallisation. De ce fait, si nous souhaitons contrôler le procédé, plusieurs modèles mathématiques s'articulant autour de différents bilans de population sont proposés. Ce travail est original, d'une part, car il décrit la cristallisation de troisième jet, et d'autre part, du fait que les divers modèles de cinétiques soient identifiés avec des données industrielles. En effet, il faut souligner qu'il n'existe quasiment pas de travaux relatifs à la cristallisation C, donc peu de références bibliographiques sur cette cristallisation de bas produit en milieu industriel sucrier.
277

Modélisation et caractérisation spectrale de métamatériaux

Belyamoun, Hicham 01 December 2010 (has links) (PDF)
Nous étudions dans cette thèse divers matériaux périodiques, en particulier des métamatériaux, auxquels nous appliquons des méthodes d'homogénéisation. Un état de l'art des formules de mélange des paramètres électromagnétiques est d'abord brossé. Nous présentons ensuite une technique d'homogénéisation asymptotique, dite de l'éclatement périodique, qui s'applique aux matériaux bianisotropes dispersifs. Les simulations par éléments finis sont effectuées aussi bien dans le domaine temporel que fréquentiel. Cette méthode ne prenant pas en compte les résonances intrinsèques de l'inclusion, nous introduisons une deuxième méthode d'homogénéisation, reposant sur la décomposition de Floquet-Bloch. Nous l'appliquons au cas particulier des résonateurs à anneaux fendus. Les simulations par éléments finis requièreraient un nombre très important de mailles dans la région de la fente, raison pour laquelle nous fermons l'anneau, et modélisons mathématiquement son comportement résonnant. Nous abordons enfin dans la dernière partie le calcul des paramètres électromagnétiques effectifs à partir de paramètres S mesurés. La caractérisation est menée en espace libre entre deux cornets focalisés dans la gamme 6-18~GHz. Pour pallier l'absence de chambre anéchoïque, nous filtrons les données mesurées dans le domaine temporel, avant de les utiliser dans le domaine fréquentiel. Différents métamatériaux sont caractérisés. En particulier, la mesure des résonateurs à anneaux fendus permet de valider notre méthode d'homogénéisation dynamique.
278

Analyse et modèlisation de l'activité électrique du coeur dans le cas de pathologies ventriculaires

Khaddoumi, Balkine 10 June 2005 (has links) (PDF)
Le travail s'inscrit dans l'analyse des troubles du rythme cardiaque, et plus particulièrement ceux issus de disfonctionnements des ventricules. Deux problèmes ont été abordés qui demandent des méthodes spécifiques en traitement du signal. Le premier concerne l'étude d'épisodes de Fibrillation Ventriculaire (VF) obtenus chez l'homme par des enregistrements endocavitaires indiqués par l'implantation de défibrillateurs (au Service de Cardiologie du CHU de Nice). Le processus générant la FV n'étant pas encore clairement identifié, deux hypothèses ont été proposées : signal modélisé par un fondamental et des harmoniques stables ou dépendant du temps. On montre que l'on peut mettre en évidence sur des épisodes courts (5 à 15 secondes) des fluctuations significatives du fondamental grâce à des algorithmes adaptatifs ou évolutifs. Un résultat pratique, établi pour la première fois chez l'homme, est la corrélation entre le fondamental de l'épisode de FV et la période réfractaire que mesure le médecin pour différentes fréquences de stimulation. Le second problème concerne des enregistrements de l'ECG haute résolution à l'aide d'un système à 64 électrodes, en collaboration avec l'Institut de Biocybernétique de Varsovie. L'idée originale est de proposer une mesure de la dispersion spatiale des formes des ondes ECG. On montre la pertinence de l'information apportée par cette mesure en comparant un groupe de sujets ayant eu un infarctus du myocarde avec un groupe témoin sain. La mesure de la dispersion est calculée, pour chaque colonne d'électrodes, à partir des différences de forme entre chaque signal et un signal de référence. Pour cette référence, nous proposons un signal de forme moyenne obtenu par une technique de moyennage invariante par translation et changement d'échelle : Integral Shape Averaging, (ISA). On peut attribuer à cette référence une position moyenne sur le thorax permettant de définir « un chemin moyen ». Un résultat intéressant observé sur les signaux réels utilisés est que ce chemin est un invariant, indépendant du type d'onde ECG ainsi que du sujet sain ou pathologique. Les retombées pratiques de ce travail se trouvent dans l'aide au diagnostic et la modélisation de l'électrophysiologie cardiaque. On peut citer comme perspectives immédiates : (i) Concernant le premier problème, on prévoit une amélioration de la technique de défibrillation (instant du choc et intensité) ainsi qu'une analyse plus fine de l'évolution des fréquences dans le cas où des épisodes de FV plus longs peuvent être enregistrés (chez l'animal). Les mêmes algorithmes pourraient être appliqués à des épisodes de fibrillation auriculaire et comparés aux résultats de la littérature.(ii) Pour le deuxième problème, l'étude de la dispersion spatiale des formes d'onde devrait être étendue à des populations ayant eu des fibrillations auriculaires. On peut aussi envisager une étude simultanée de la dispersion des formes (QRS ou T) et de la corrélation de la fréquence fondamentale observée dans un épisode de FV avec la période réfractaire.
279

Contribution à la modélisation, l'identification et la conduite numérique d'une unité pilote de fermentation continue type cascade

Rauzy, Gérard 27 May 1981 (has links) (PDF)
Indisponible
280

Modélisation comportementale du métabolisme interrégional de l'azote alimentaire et des cinétiques de l'urée à l'état nourri non stationnaire chez l'homme

Juillet, Barbara 21 December 2006 (has links) (PDF)
L'assimilation des protéines du repas met en jeu une cascade d'événements métaboliques, dynamiques et transitoires, contrôlant la distribution des acides aminés alimentaires dans les zones splanchnique et périphérique de l'organisme. Le recours à la modélisation compartimentale permet d'analyser les données cliniques obtenues sur ce système physiologique complexe afin de comprendre son fonctionnement par le biais d'une approche intégrée. Les travaux pionniers récemment opérés à ce sujet se sont heurtés à une difficulté majeure : la difficulté de mener à bien l'identification numérique de modèles multi-compartimentaux, qui consiste à trouver les valeurs de leurs paramètres permettant d'ajuster leurs prédictions aux observations disponibles sur le système, en particulier lorsque ces données sont rares ou parcellaires. Dans la continuité de cette démarche, nos travaux de thèse ont consisté à améliorer les techniques et à rationaliser les méthodes de modélisation disponibles au laboratoire, puis à utiliser ces développements méthodologiques afin d'étudier les phénomènes métaboliques impliqués dans la valorisation postprandiale spécifique de différentes sources protéiques sous différentes conditions nutritionnelles chez l'homme. Nous nous sommes d'abord intéressés aux différentes étapes du processus de développement d'un modèle multi-compartimental complexe décrivant la distribution inter-régionale de l'azote alimentaire en phase postprandiale chez l'homme, depuis l'obtention de données expérimentales sur le système étudié jusqu'à l'identification structurelle et numérique du modèle et sa validation. En particulier, nous avons cherché à simplifier l'étape critique de l'identification numérique des modèles compartimentaux, et nous avons développé une nouvelle méthode qui permet, grâce à une analyse de sensibilité préalable du modèle, de diviser le problème d'optimisation de grande taille en plusieurs sous-problèmes emboîtés de taille réduite, plus faciles à résoudre par les algorithmes classiques de recherche. Ces développement méthodologiques nous ont permis de construire un nouveau modèle global du métabolisme de l'azote alimentaire chez l'homme, décrivant les processus majeurs de son utilisation postprandiale depuis son absorption jusqu'à son assimilation régionale et son élimination par l'organisme. Ce modèle a été développé à partir de données expérimentales concernant l'apparition de l'azote alimentaire dans certains pools métaboliques de l'intestin, du sang et des urines obtenues chez des sujets sains au cours des 8 heures suivant l'ingestion d'un repas mixte solide contenant des protéines de blé marquées au 15N. Puis, ce modèle a été utilisé et/ou adapté afin de rendre compte de données supplémentaires, obtenues après l'ingestion de repas mixtes à base de protéines de lait ou de soja (repas liquides) ou de protéines de blé (repas solide) selon un protocole similaire, mais mené en deux occasions successives chez des sujets sains préalablement adaptés à un régime normoprotéique puis hyperprotéique. Les modèles ainsi développés ont permis de prédire les cinétiques gastro-intestinales de l'azote alimentaire dans le cadre physiologique de l'ingestion de repas mixtes (bolus), et d'étudier leur impact sur le métabolisme ultérieur de l'azote alimentaire, en particulier sur son utilisation anabolique et catabolique splanchniques. Ces modèles ont aussi permis d'étudier l'influence de facteurs qualitatifs (nature de la source protéique) ou quantitatifs (niveau habituel d'apport protéique) de l'apport protéique sur la valorisation postprandiale spécifique des protéines du repas. En particulier, ces travaux ont montré l'importance du phénomène de recyclage entéro-hépatique de l'azote alimentaire après l'ingestion d'une protéine de qualité nutritionnelle moyenne comme le blé. Ces résultats nous ont amenés à nous intéresser plus particulièrement aux cinétiques postprandiales de l'urée, ainsi qu'à leur modulation par différents facteurs alimentaires. Pour cela, nous avons développé un modèle régional spécifique des phénomènes métaboliques splanchniques de désamination et de recyclage entéro-hépatique, qui est en réalité un sous-système des modèles globaux précédents. Ce modèle a permis, à partir de données obtenues uniquement aux niveaux sanguin et urinaire, d'étudier l'influence de facteurs qualitatifs et quantitatifs de l'apport protéique sur les cinétiques postprandiales de production, d'excrétion et d'hydrolyse de l'urée d'origine alimentaire et endogène. Nos travaux de modélisation ont permis d'apporter des informations originales et nouvelles concernant l'influence de différents facteurs alimentaires sur le devenir métabolique postprandial de l'azote alimentaire chez l'homme. Ces travaux pourraient être renouvelés et poursuivis par l'analyse de nouvelles données obtenues sous différentes conditions physiopathologiques afin de définir des stratégies nutritionnelles adaptées à ces situations.

Page generated in 0.1091 seconds