• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 35
  • 14
  • Tagged with
  • 148
  • 44
  • 25
  • 22
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Prise en compte de la dimension finie des faisceaux d'éclairage en granulométrie optique: anémométrie phase Doppler

Onofri, Fabrice 09 November 1995 (has links) (PDF)
Le diagnostic par une méthode optique telle que l'anémométrie phase Doppler, des particules présentes dans les milieux diphasiques, nécessite l'emploi de faisceaux laser focalisés. La compréhension et l'élimination des effets engendrés sur les mesures de taille, par les gradients d'éclairage ou les « effets de trajectoire », est au centre de la première partie de cette thèse. Différentes solutions, testées numériquement et expérimentalement, sont proposées pour éliminer les biais constatés. L'extension de l'anémométrie phase Doppler à la mesure de la partie réelle et complexe (absorption) de l'indice de réfraction des particules est ensuite considérée. Les méthodes originales proposées autorisent, en plus des mesures de taille et de vitesse, la reconnaissance des particules par leur indice, l'étude de la coalescence de gouttes (liquides transparents ou absorbants) ou la détection des fortes variations de température de particules. La dernière partie de ce travail propose diverses solutions pour étendre l'anémomètrie phase Doppler à la mesure de particules cylindriques (fibres, jets liquides), ovoïdes (oblates/problates), sphériques non­homogènes (multicouches, à coeur, hétérogènes: diphasiques ou non) et irrégulières. Le cas des particules multicouches est particulièrement détaillé, à partir de simulations basées sur le travail théorique effectué pour étendre la théorie de Lorenz-­Mie généralisée à ce type de particules.
72

(In-)validation de modèles de systèmes incertains

Mouhib, Omar 01 October 2004 (has links) (PDF)
Le travail de recherche présenté dans ce mémoire porte sur l'analyse théorique de l'approche fréquentielle d'(in-)validation de modèle de systèmes incertains qui consiste à caractériser les écarts objet/modèle par l'introduction non seulement de bruits perturbateurs, mais aussi d'opérateurs d'incertitude dans la relation fonctionnelle associée au modèle choisi. En supposant que les incertitudes et le bruit sont de norme bornée nous avons défini la notion de l'ensemble de modèles. Ceux que nous avons considérés sont formés à partir d'une représentation linéaire fractionnaire. La question générique du problème de validation de modèle de systèmes incertains ainsi étudiée dans cette thèse est la suivante : Etant données des mesures expérimentales et un ensemble de modèles, existe t il un modèle dans l'ensemble de modèles qui pourrait produire les données entrées/sorties observées? Ceci a demandé simplement de trouver un élément de l'ensemble de modèles et un élément de l'ensemble signal d'entrée inconnu tels que les informations observées sont produites exactement. <br />Le problème de trouver un tel membre de l'ensemble de modèles a été formulé selon deux stratégies. La première est de déterminer un signal de bruit de norme minimale tel que les données observées soient générées par le modèle entaché d'une incertitude de norme inférieure à 1. L'inconvénient de cette méthode est que le problème d'optimisation posé ne peut être résolu par le formalisme LMI que pour des cas spéciaux de l'ensemble de modèles. La deuxième stratégie étudiée est de déterminer simultanément la plus petite norme d'incertitude et la plus petite norme du signal de bruit telles que le modèle obtenu génère les données observées. Nous avons mené une étude comparative de ces deux problématiques et nous avons montré que la solution apportée par la valeur singulière structurée généralisée permet non seulement de répondre à la question générique pour une classe plus générale des ensembles de modèles mais aussi de prendre en compte la nature structurée du bloc d'incertitude.<br />Le procédé expérimental de trois cuves ainsi qu'un exemple académique de simulation ont fourni une excellente validation des méthodologies étudiées.
73

Contributions à l'analyse de sensibilité et à l'analyse discriminante généralisée

Jacques, Julien 05 December 2005 (has links) (PDF)
Deux thèmes sont abordés dans cette thèse : l'analyse de sensibilité et l'analyse discriminante généralisée.<br /><br />L'analyse de sensibilité globale d'un modèle mathématique étudie comment les variables de sortie de ce dernier réagissent à des perturbations de ses entrées. Les méthodes basées sur l'étude de la variance quantifient les parts de variance de la réponse du modèle dues à chaque variable d'entrée et chaque sous-ensemble de variables d'entrée. Le premier problème abordé est l'impact d'une incertitude de modèle sur les résultats d'une analyse de sensibilité. Deux formes particulières d'incertitude sont étudiées : celle due à une mutation du modèle de référence, et celle due à l'utilisation d'un modèle simplifié à la place du modèle de référence. Un second problème relatif à l'analyse de sensibilité a été étudié au cours de cette thèse, celui des modèles à entrées corrélées. En effet, les indices de sensibilité classiques n'ayant pas de signification (d'un point de vue interprétation) en présence de corrélation des entrées, nous proposons une approche multidimensionnelle consistant à exprimer la sensibilité de la sortie du modèle à des groupes de variables corrélées. Des applications dans le domaine de l'ingénierie nucléaire illustrent ces travaux.<br /><br />L'analyse discriminante généralisée consiste à classer les individus d'un échantillon test en groupes, en utilisant l'information contenue dans un échantillon d'apprentissage, lorsque ces deux échantillons ne sont pas issus d'une même population. Ce travail étend les méthodes existantes dans un cadre gaussien au cas des données binaires. Une application en santé publique illustre l'utilité des modèles de discrimination généralisée ainsi définis.
74

Sur quelques problèmes de lubrification par des fluides newtoniens non isothermes avec des conditions aux bords non linéaires. Etude mathématique et numérique

Saidi, Fouad 26 November 2004 (has links) (PDF)
Dans le premier chapitre de cette thèse, on rappelle les principes de base de la mécanique des milieux continus à partir desquels on déduit les équations modélisant l'écoulement non isotherme d'un fluide newtonien incompressible. Au deuxième chapitre, on considère le cas stationnaire dans un domaine mince et on rajoute les conditions aux limites dont une est de type Tresca sur une partie du bord du domaine. On déduit le problème variationnel correspondant qui est fortement couplé, composé d'une inéquation et une équation variationnelles, dont les inconnues sont le champ de vitesse du fluide, sa pression et sa température. La difficulté principale est la présence dans l'équation variationnelle d'un terme comportant le carré du tenseur des taux de déformation, qui ne permet pas de donner un sens au problème variationnel, si on cherche la vitesse dans un convexe de $H^1$. Pour lever cette difficulté, on cherche la régularité $H^2$ de la vitesse, qui nécessite la régularité $\mathcal(C)^(0,1)$ de la température, qui est dans les coefficients de l'inéquation variationnelle. En utilisant le théorème du point fixe de Banach, on montre l'existence, l'unicité et la régularité de la solution faible. Le troisième chapitre est consacré à l'analyse asymptotique de ce problème variationnel couplé dans $\Om^\eps$. On établit des estimations indépendantes de $\eps$ en norme $H^1$ pour les dérivées partielles de la vitesse et de la température, et en norme $L^2$ pour les dérivées partielles de la pression. Ce qui nous permet d'obtenir des limites fortes. On obtient alors le problème limite, l'équation de Reynolds généralisée et on montre l'unicité des solutions de ce problème limite. Au quatrième chapitre, on présente une approximation du problème limite par une méthode d'éléments finis, on étudie la convergence des solutions approchées et on donne les estimations d'erreur d'approximation. Au dernier chapitre, on remplace la condition aux limites de Tresca par celle de Coulomb dans l'étude précédent et on obtient des résultats similaires.
75

Contributions théoriques et pratiques aux familles exponentielles

Kokonendji, Célestin 02 December 2004 (has links) (PDF)
Les familles exponentielles de lois de probabilité offrent une panoplie de modèles très utiles en statistique ainsi qu'en probabilités. Les travaux résumés dans ce mémoire s'intéressent à leurs caractérisations et interprétations probabilistes, ainsi que leurs applications en statistique. Dans la première partie, une nouvelle classe de familles exponentielles naturelles (FEN) est introduite puis décrite complétement. Elle s'appuie sur une transformation dite de Lindsay des FEN de fonctions variance cubiques. Des interprétations probabilistes par les lois de temps de frappe des processus stochastiques sont données. Enfin, à travers une notion de d-pseudo-orthogonalité des polynômes associés à une densité de FEN, plusieurs caractérisations des FEN de fonctions variance polynomiales de degré 2d-1 sont données pour d=2,3,... . La deuxième partie est consacrée au déterminant des matrices de moments des lois multidimensionnelles. Deux aspects sont principalement explorés : le premier a trait à une caractérisation du déterminant de la hessienne d'une transformée de Laplace et ses conséquences ; le second concerne de meilleurs estimateurs de la variance généralisée ou du déterminant de la matrice de variance-covariance. Une nouvelle caractérisation des FEN Poisson-gaussiennes moyennant la variance généralisée est alors donnée. La troisième partie étudie des modèles exponentiels, de plus en plus appropriés et complémentaires, pour l'analyse statistique des données de comptage qui révèle une variabilité plus grande que la moyenne prédite. Ce phénomène dit de surdispersion par rapport à la loi de Poisson est examiné à travers des FEN binomiale négative généralisée et arcsinus stricte ainsi que d'une grande classe des FEN dite de Hinde-Demétrio, laquelle englobe la binomiale négative et l'arcsinus stricte. Des estimations et test d'hypothèses sur certains paramètres des modèles surdispersés sont proposés et appliquées sur des données réelles. Dans la dernière partie, deux techniques d'estimation sont présentées. La première est relative à une loi implicite ou conditionnelle d'un paramètre connaissant les observations. La seconde est une approche pour montrer l'unimodalité de la vraisemblance dans un modèle de capture séquentielle. Cette dernière est appliquée à l'estimation de la biomasse des saumons dans le bassin de l'Adour.
76

Modélisation stochastique du vieillissement en temps discret

Bracquemond, Cyril 26 October 2001 (has links) (PDF)
Dans les études de fiabilité, il est possible que les durées de vie s'expriment par des valeurs entières. C'est le cas par exemple pour des appareils fonctionnant à la sollicitation. Le but de cette thèse est de revisiter les concepts classiques de la fiabilité des systèmes non réparables, quand on suppose que le temps est discret. Les grandeurs usuelles de la fiabilité en temps discret sont définies, ainsi que les principales notions de vieillissement. Nous passons ensuite en revue les principaux modèles de fiabilité que nous avons classés en trois familles à la suite de notre étude bibliographique. Après avoir mis en évidence qu'un certain nombre de différences entre les notions de fiabilité usuelles en temps continu et leurs équivalents en temps discret sont dues à la définition du taux de défaillance en temps discret, nous proposons une nouvelle définition qui résout les problèmes rencontrés. L'estimation non paramétrique des fonctions pouvant caractériser le vieillissement est traitée et nous donnons des résultats d'estimation ponctuelle, par intervalle et bande de confiance pour le taux de défaillance (usuel). L'estimation paramétrique des modèles de fiabilité est également abordée, avec une section importante consacrée à la loi géométrique dont les estimateurs sont explicites, contrairement à la plupart des autres lois discrètes. Un état de l'art des tests d'adéquation statistiques aux lois discrètes est présenté. Nous proposons un test basé sur la transformation de Smirnov généralisée dont la puissance est étudiée pour tester l'adéquation aux lois géométrique et Weibull de type I.
77

Analyse convexe et quasi-convexe ; applications en optimisation

DANIILIDIS, Aris 26 March 2002 (has links) (PDF)
Ce document de synthèse s'articule autour de l'analyse convexe, de l'analyse quasi-convexe et des applications en optimisation. Dans le premier domaine on aborde les thèmes de la continuité, de la différentiabilité et des critères de coïncidence pour les fonctions convexes, puis la convexification des fonctions semi-continues inférieurement. Pour l'étude des fonctions quasi-convexes deux approches sont adoptées : une approche analytique, via un sous-différentiel généralisé, et une approche géométrique, basée sur les normales aux tranches. La dernière partie est consacrée à des applications à l'intégration d'opérateurs multivoques, aux inéquations variationnelles et à des problèmes d'optimisation multicritères en dimension finie et infinie. Parmi les nouveautés de ce travail, on trouve la notion de monotonie fortement cyclique, qui caractérise le sous-différentiel d'une fonction convexe dont la restriction à son domaine est continue, la quasi-monotonie cyclique, qui est une propriété intrinsèque du sous-différentiel d'une fonction quasi-convexe avec des applications importantes en économie mathématique, et la notion de quasi-monotonie propre, qui caractérise les opérateurs pour lesquels l'inéquation variationnelle associée a toujours des solutions sur toute sous-partie convexe et faiblement compacte de leur domaine. Notons encore une nouvelle caractérisation de la propriété de Radon-Nikodym, et une extension à la dimension infinie d'un résultat de Janin concernant l'intégration d'un opérateur maximal cycliquement sous-monotone, résultat qui généralise le théorème classique de Rockafellar pour les opérateurs maximaux cycliquement monotones.
78

Extension de l'anémometrie phase Doppler à la mesure d'indice de réfraction et développement de la Vélocimétrie Laser par Corrélation

Hespel, Camille 16 March 2007 (has links) (PDF)
Les simulations et l'étude expérimentale présentée dans ce mémoire ont pour but d'améliorer les diagnostics optiques afin de comprendre la physique de la pulvérisation et l'évaporation des gouttes. L'anémométrie Phase Doppler permet déjà de connaître la corrélation taille-vitesse dans un milieu relativement dilué. L'objectif des simulations numériques expliquées dans ce mémoire est de présenter la faisabilité d'étendre les mesures PDA à la mesure de d'indice de réfraction des gouttes. L'extension proposée, appelée l'anémométrie Phase Doppler à point sde gloire est basée sur l'analyse de la lumière diffusée par les points de gloires de la réflexion et de la réfraction d'une goutte se séplaçant dans un volume de mesure type PDA. Une des autres difficulté concernant l'étude de l'atomisation est la forte densité des sprys à la sortie des injecteurs de types automobile. la vélocimétrie laser par corrélation permet de connaître la vitesse des structures par l amesure d'un temps de vol. Dans le cadre de ce travail de thèse, cette technique a été validée et implantée au laboratoire.
79

Solutions avec flux de la théorie des cordes sur tores twistés, et Géométrie Complexe Généralisée

Andriot, David 01 July 2010 (has links) (PDF)
Nous étudions des solutions avec flux de la théorie des cordes, sur un espace-temps dix-dimensionnel séparé en un espace-temps quatre-dimensionnel maximalement symétrique, et une variété interne six-dimensionnelle M, étant ici une variété résoluble (un tore twisté). Ces solutions sont intéressantes pour relier la théorie des cordes à une extension supersymétrique (SUSY) du modèle standard des particules, ou à des modèles cosmologiques. Pour des solutions SUSY des supergravités de type II, la présence de flux sur M aide à résoudre le problème des moduli. Une classe plus large de variétés que le simple Calabi-Yau peut alors être considérée pour M, et une caractérisation générale est donnée en terme de Géométrie Complexe Généralisée: M doit être un Calabi-Yau Généralisé (GCY). Il a été montré qu'une sous-classe de variétés résolubles sont des GCY, donc nous allons chercher des solutions sur de telles M. Pour y parvenir, nous utilisons une méthode de résolution algorithmique. Nous étudions ensuite un certain type de solutions: celles qui admettent une structure SU(2) intermédiaire. Par la suite, nous considérons le twist, une transformation qui relie des solutions sur le tore à d'autres sur variétés résolubles. En déterminant des contraintes sur le twist pour générer des solutions, nous parvenons à relier des solutions connues, et nous en trouvons une nouvelle. Nous l'utilisons également pour relier des solutions avec flux de la corde hétérotique. Nous considérons finalement des solutions de de Sitter dix-dimensionnelles. Plusieurs problèmes, dont la brisure de la SUSY, rendent la recherche de telles solutions difficile. Nous proposons un ansatz pour des sources brisant la SUSY qui aide à surmonter ces difficultés. Nous donnons alors une solution explicite sur variété résoluble, et discutons partiellement sa stabilité quatre-dimensionnelle.
80

Fouille de représentations concises des motifs fréquents à travers les espaces de recherche conjonctif et disjonctif

Hamrouni, Tarek 04 August 2009 (has links) (PDF)
Durant ces dernières années, les quantités de données collectées, dans divers domaines d'application de l'informatique, deviennent de plus en plus importantes. Cela suscite le besoin d'analyser et d'interpréter ces données afin d'en extraire des connaissances utiles. Dans cette situation, le processus d'Extraction de Connaissances à partir des Données est un processus complet visant à extraire des connaissances cachées, nouvelles et potentiellement utiles à partir de grands volumes de données. Parmi ces étapes, la fouille de données offre les outils et techniques permettant une telle extraction. Plusieurs travaux de recherche en fouille de données concernent la découverte des règles d'association, permettant d'identifier des liens entre ensembles de descripteurs (ou attributs ou items) décrivant un ensemble d'objets (ou individus ou transactions). Les règles d'association ont montré leur utilité dans plusieurs domaines d'application tels que la gestion de la relation client en grande distribution (analyse du panier de la ménagère pour déterminer les produits souvent achetés simultanément, et agencer les rayons et organiser les promotions en conséquence), la biologie moléculaire (analyse des associations entre gènes), etc. De manière générale, la construction des règles d'association s'effectue en deux étapes : l'extraction des ensembles d'items (ou itemsets) fréquents, puis la génération des règles d'association à partir de des itemsets fréquents. Dans la pratique, le nombre de motifs (itemsets fréquents ou règles d'associations) extraits ou générés, peut être très élevé, ce qui rend difficile leur exploitation pertinente par les utilisateurs. Pour pallier ce problème, certains travaux de recherche proposent l'usage d'un noyau de motifs, appelés représentations concises, à partir desquels les motifs redondants peuvent être régénérés. Le but de telles représentations est de condenser les motifs extraits tout en préservant autant que possible les informations cachées et intéressantes sur des données. Dans la littérature, beaucoup de représentations concises des motifs fréquents ont été proposées, explorant principalement l'espace de recherche conjonctif. Dans cet espace, les itemsets sont caractérisés par la fréquence de leur co-occurrence. Ceci fait l'objet de la première partie de ce travail. Une étude détaillée proposée dans cette thèse prouve que les itemsets fermés et les générateurs minimaux sont un moyen de représenter avec concision les itemsets fréquents et les règles d'association. Les itemsets fermés structurent l'espace de recherche dans des classes d'équivalence tels que chaque classe regroupe les itemsets apparaissant dans le même sous-ensemble (appelé aussi objets ou transactions) des données. Un itemset fermé inclut l'expression la plus spécifique décrivant les transactions associées, alors qu'un générateur minimal inclut une des expressions les plus générales. Cependant, une redondance combinatoire intra-classe résulte logiquement de l'absence inhérente d'un seul générateur minimal associé à un itemset fermé donné. Ceci nous amotivé à effectuer une étude approfondie visant à maintenir seulement les générateurs minimaux irréductibles dans chaque classe d'équivalence, et d'élaguer les autres. À cet égard, il est proposé une réduction sans perte d'information de l'ensemble des générateurs minimaux grâce à un nouveau processus basé sur la substitution. Une étude complète des propriétés associées aux familles obtenues est présentée. Les résultats théoriques sont ensuite étendus au cadre de règles d'association afin de réduire autant que possible le nombre de règles maintenues sans perte d'information. Puis, est présentée une étude formelle complète du mécanisme d'inférence permettant de dériver toutes les règles d'association redondantes, à partir de celles maintenues. Afin de valider l'approche proposée, les algorithmes de construction de ces représentations concises de motifs sont présentés ainsi que les résultats des expérimentations réalisées en terme de concision et de temps de calcul. La seconde partie de ce travail est consacrée à une exploration complète de l'espace de recherche disjonctif des itemsets, où ceux-ci sont caractérisés par leurs supports disjonctifs. Ainsi dans l'espace disjonctif, un itemset vérifie une transaction si au moins un de ses items y est présent. Les itemsets disjonctifs véhiculent ainsi une connaissance au sujet des occurrences complémentaires d'items dans un ensemble de données. Cette exploration est motivée par le fait que, dans certaines applications, une telle information peut être utile aux utilisateurs. Lors de l'analyse d'une séquence génétique par exemple, le fait d'engendrer une information telle que " présence d'un gène X ou la présence d'un gène Y ou ... " présente un intérêt pour le biologiste. Afin d'obtenir une représentation concise de l'espace de recherche disjonctif, une solution intéressante consiste à choisir un seul élément pour représenter les itemsets couvrant le même ensemble de données. Deux itemsets sont équivalents si leurs items respectifs couvrent le même ensemble de données. À cet égard, un nouvel opérateur consacré à cette tâche, a été introduit. Dans chaque classe d'équivalence induite, les éléments minimaux sont appelés itemsets essentiels, alors que le plus grand élément est appelé itemset fermé disjonctif. L'opérateur présenté est alors à la base de nouvelles représentations concises des itemsets fréquents. L'espace de recherche disjonctif est ensuite exploité pour dériver des règles d'association généralisées. Ces dernières règles généralisent les règles classiques pour offrir également des connecteurs de disjonction et de négation d'items, en plus de celui conjonctif. Des outils (algorithme et programme) dédiés ont été alors conçus et mis en application pour extraire les itemsets disjonctifs et les règles d'association généralisées. Les résultats des expérimentations effectuées ont montré l'utilité de notre exploration et ont mis en valeur la concision des représentations concises proposées.

Page generated in 0.0449 seconds