• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Durabilité des ouvrages en béton soumis à la corrosion : optimisation par une approche probabiliste / Durability of concrete structures subjected to corrosion : optimization by a probabilistic approach

Schmitt, Lucie 25 April 2019 (has links)
La maîtrise de la durabilité des ouvrages neufs et la nécessité de prolonger la durée de vie des structures existantes correspondent à des enjeux sociétaux de tout premier ordre et s’inscrivent dans les principes d’une économie circulaire. La durabilité des ouvrages en béton occupe ainsi une position centrale dans le contexte normatif. Ces travaux de thèse font suite à ceux de J. Mai-Nhu* et ont pour objectif d’étendre le domaine d’application du modèle SDReaM-crete en intégrant les bétons à base d’additions et en définissant un critère d’état limite basé sur une quantité de produits corrodés. Une approche basée sur une optimisation numérique des calculs prédictifs est mise en place pour réaliser des calculs d’indices de fiabilité en considérant les principaux mécanismes liés à la corrosion des armatures, carbonatation et chlorures. Ce modèle permet d’optimiser le dimensionnement des enrobages et les performances du béton en intégrant davantage les conditions environnementales telles qu’elles sont définies dans les normes. / Mastering the durability of new structures and the need to extand the lifespan of existing constructions correspond to social issues of the highest order and are part of the principles of a circular economy. The durability of concrete structures thus occupies a central position in the normative context. This thesis works follow those of J. Mai-Nhu* and aims at extending the field of application the SDReaM-crete model by integrating mineral additions based concretes and by defining a limit state criterion based on a quantity of corroded products. An approach based on a numerical optimization of predictive computations is set up to perform reliability analyses by considering the main mechanisms related to the corrosion of reinforcement, carbonation and chlorides. This model enables the optimization of the sizing of the concrete covers and performances by further integrating the environmental conditions as defined by the standards.
22

Indexation de documents audio : Cas des grands volumes de données

Rougui, Jamal 16 July 2008 (has links) (PDF)
Cette thèse est consacrée à l’'élaboration et l’'évaluation des techniques visant à renforcer la robustesse des systèmes d’'indexation de documents audio au sens du locuteur. L’'indexation audio au sens du locuteur consiste à reconnaître l’'identité des locuteurs ainsi que leurs interventions dans un ux continu audio ou dans une base de données d’'archives audio, ne contenant que la parole. Dans ce cadre nous avons choisi de structurer les documents audio (restreints à des journaux radiodiffusés) selon une classication en locuteurs. La technique utilisée repose sur l’'extraction des coefficients mel-cepstrales, suivi par l’'apprentissage statistique de modèles de mélange de gaussiennes (MMG) et sur la détection des changements de locuteur au moyen de test d’'hypothèse Bayésien. Le processus est incrémental : au fur et à mesure que de nouveaux locuteurs sont détectés, ils sont identifiés à ceux de la base de données ou bien, le cas échéant, de nouvelles entrées sont créées dans la base. Comme toute structure de données adaptée au problème incrémental, notre système d’'indexation permet d’'effectuer la mise à jour des modèles MMG de locuteur à l’'aide de l’'algorithme fusion des MMG. Cet algorithme à été conçu à la fois pour créer une structure ascendante en regroupant deux à deux les modèles GMM jugés similaires. Enn, à travers de deux études utilisant des structures arborescentes binaire ou n’'aire, une réexion est conduite an de trouver une structure ordonnée et adaptée au problème incrémental. Quelques pistes de réexions sur l’'apport de l’'analyse vidéo sont discutées et les besoins futurs sont explorés.
23

Estimation précise des trajectoires de véhicule par un système optique

Goyat, Yann 15 December 2008 (has links) (PDF)
La métrologie du trafic et des trajectoires des véhicules évolue fortement depuis dix ans. Cette croissance est principalement Liée aux demandes de services de plus en plus nombreuses des usagers et à un bilan d'accidents corporels toujours très insatisfaisant ( 4 838 tués, 106 709 blessés dont 39 754 blessés hospitalisés en 2007). L'objectif des travaux de cette thèse était de proposer un système de mesure pour mieux comprendre les relations entre l'accidentologie et les caractéristiques de l'infrastructure. Un système de cette nature permettrait d'apporter des réponses pertinentes à de nombreuses questions encore en suspend, telles que : - la route est-elle bien utilisée par les conducteurs, - les informations proposées par la signalisation et le tracé sont-elles bien comprises, - le site induit-il des comportements dangereux : si oui, pourquoi, - quels sont les mécanismes d'accidents ou de presqu'accidents . . . Un cahier des charges a donc été établi, en accord avec des experts en sécurité routière, pour répondre à ce besoin. Après un état de l'art des systèmes "bord de voie" et des méthodes existantes, il s'est avéré que de nombreux systèmes sont commercialisés pour la mesure de trafic. Quelques systèmes optiques permettent aussi la mesure de trajectoires, avec l'objectif d'une part de détecter les incidents et d'autre part d'améliorer la fiabilité de mesure par l'étude d'une zone (moyenne) plutôt que d'un seul point. Toutefois, aucun de ces dispositifs ne répond au cahier des charges, notamment en terme de précision de mesure. Il a donc été décidé de réaliser intégralement (matériel et logiciel) un nouvel outil de mesure, appelé Observatoire De Trajectoire (ODT), combinant les deux capteurs du marché qui permettent une mesure en "champ large" : la caméra et le laser. Le domaine scientifique le plus exploré étant le suivi d'objets, une bibliographie a donc été effectuée pour identifier les méthodes les plus appropriées pour notre problématique. Le choix s'est positionné sur les méthodes probabilistes et particulièrement sur deux techniques bien connues que sont le filtre à particules et le "Markov Chain Monte Carlo" (MCMC). La contribution principale de la thèse porte sur le développement de deux méthodes opérationnelles pour l'estimation précise des trajectoires de véhicules à partir d'une combinaison d'images vidéo et de mesures télémétriques. Ces méthodes de suivi s'appuient sur une nouvelle méthode de soustraction fond/forme, sur la combinaison d'un modèle cinématique et d'un modèle d'observations et enfin sur une technique originale de fusion de capteurs, utilisant un processus de ré-échantillonnage de filtre à particules. L'avantage de la première méthode, dite "séquentielle", est de pouvoir estimer toutes les trajectoires des véhicules légers. Elle permet donc de récupérer une grande quantité d'informations (5 paramètres par point mesuré), proportionnelle au temps passé pour son analyse. La seconde méthode, dite "globale", permet une plus grande réactivité et une analyse plus fine, grâce à une réduction considérablement des paramètres de suivi. Néanmoins, elle a l'inconvénient de ne pas pouvoir suivre les trajectoires "atypiques". Cette caractéristique peut, en revanche, être utilisée comme critère de classification de trajectoires. Enfin, les différentes étapes de ces méthodes ont été validées à l'aide de nombreuses trajectoires étalons. Ces trajectoires étalons étant suivies et mesurées par un véhicule équipé d'un GPS précis au cm près, à différentes vitesses. Les deux méthodes ont ensuite été comparées entre elles et avec ces mêmes vérités terrains.
24

Navigation autonome en environnement dynamique utilisant des modèles probabilistes de perception et de prédiction du risque de collision.

Fulgenzi, Chiara 08 June 2009 (has links) (PDF)
La navigation autonome en environnement dynamique représente encore un défi important pour la robotique moderne. Dans cette thèse nous abordons le problème de la prise en compte explicite des incertitudes liées à la perception et à la prédiction de l'état d'un environnement dynamique inconnu pour la decision sur les mouvements futures du robot. Nous proposons d'abord un algorithme réactif basé sur l'intégration de l'extension probabiliste de la méthode Velocity Obstacle et d'une grille d'occupation dynamique. Nous presentons ensuite une nouvelle extension probabiliste de l'algorithme RRT et nous l'utilisons pour une approche de navigation ”anytime” : les décisions du robot sont mises a jour avec les observations les plus récentes. Nous considérons d'abord le cas de prédiction à court terme et ensuite le cas de prédiction a moyen terme, basée sur les trajectoires typiques des obstacles, apprises a priori.
25

Approche stochastique de la segmentation des images‎ : un modèle de coopération entre les primitives de régions et de frontières

Buakaz, Saïda 20 March 1987 (has links) (PDF)
Dans le domaine de l'étiquetage, les méthodes stochastiques s'inscrivent dans un cadre ou l'affectation d'un objet est perçue comme une connaissance dynamique. Cette affectation peut être modifiée selon l'évolution des connaissances contextuelles, en retour elle est susceptible d'influer sur l'état instantané des connaissances. De telles méthodes présentent l'avantage d'introduire un caractère de contrôle local à l'évolution de l'étiquetage. C'est en s'appuyant sur cette notion d'étiquetage, sous son aspect local, que nous avons abordé le problème de la segmentation des images ayant remarque que les décisions au niveau de chaque point influent et sont influencées par celles des voisins. En outre, on remarque que jusqu'à présent, les méthodes de segmentation se fondaient, essentiellement, sur un choix entre 2 types de modèles : le modèle région et le modèle frontière. Les méthodes stochastiques, itératives abordées dans ce mémoire permettent de faire intervenir simultanément les 2 entités et de les traiter au sein d'un processus unique. Le procédé consiste à introduire pour chaque point, au niveau de son vecteur d'étiquetage des informations de type région et des informations de type frontière. Les relations contextuelles interviennent sous forme d'interactions inter-classes et d'interactions inter-entités
26

Algorithmes de factorisation de polynômes

Lugiez, Denis 28 January 1984 (has links) (PDF)
Description de la factorisation sur Z[×] et de ses problèmes, et des différentes formes de remontées série ou parallèle, linéaire ou quadratique. On donne un algorithme nouveau basé sur la décomposition d'une fraction rationnelle
27

Optimisation combinée des coûts de transport et de stockage dans un réseau logistique dyadique, multi-produits avec demande probabiliste

Bahloul, Khaled 08 April 2011 (has links) (PDF)
Le but de cette thèse est de proposer des méthodes de gestion des approvisionnements adaptées à des contextes particuliers afin de minimiser les coûts logistiques engendrés dans un réseau logistique multi produits, multi niveaux confronté à une demande probabiliste. Au cours de cette thèse, nous nous sommes attachés à : - Proposer des méthodes de gestion des stocks et du transport pour des familles de produits dans différents contextes : o Une première politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande aléatoire et répétitive. Cette politique est définie par un niveau de commande et par un niveau de ré-complètement de stock pour chaque produit et une période de réapprovisionnement. Dès qu'un produit atteint le niveau de commande, un réapprovisionnement de tous les produits de la famille est déclenché. o Une deuxième politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande très aléatoire et ponctuelle. Cette politique est basée sur les ruptures de stock. A chaque rupture d'un produit présent dans le stock il y a déclenchement d'un réapprovisionnement de tous les produits de la famille. - Proposer une méthode de classification multicritères afin de constituer des groupes de produits relevant d'une politique donnée, chaque classe ou famille regroupant des produits réagissant identiquement. Cette classification des produits en familles homogènes permet d'identifier les caractéristiques déterminantes dans le choix des méthodes de gestion de stock et de transport. - Analyser et comparer les performances de ces deux politiques d'approvisionnement par rapport à des politiques de référence, ainsi que leur sensibilité au regard de quelques paramètres discriminants : variabilité de la demande ; coût des produits ; coût des commandes urgentes...
28

Modélisation de la fragmentation dynamique par la méthode des éléments discrets

Michaut, Vincent 31 January 2011 (has links) (PDF)
L'objectif de ce travail de thèse a été de modéliser avec une méthode aux éléments discrets la fracturation en tension, et plus particulièrement la fragmentation dynamique, sur des matériaux fragiles pour de hautes vitesses de déformation. La fragmentation est un phénomène irréversible, non linéaire et aléatoire. Elle intervient dans de nombreux domaines de la vie courante, quelque soit l'échelle considérée. La modélisation numérique de ce phénomène permettrait une prédiction de certains paramètres statistiques de la fragmentation, comme le nombre de fragments, la taille des fragments, la distribution de la taille des fragments, etc. Pour cette thèse, la Méthode des Éléments Discrets (DEM) s'est révélée être un excellent moyen pour simuler la fracturation en raison de sa nature discrète. Toutefois, une bonne méthode de simulation numérique ne suffit pas à elle seule pour modéliser la fragmentation dynamique. Un critère de rupture doit également être inséré, afin d'introduire un endommagement. Ce critère de rupture s'écrit au niveau d'un lien entre deux particules et il engendre un dommage, en faisant décroître la contrainte locale jusqu'à l'obtention d'une fissuration discrète. Dans un premier temps, un critère de rupture de Camacho-Ortiz |24| a été introduit dans une méthode aux éléments discrets. Ce critère se traduit par un endommagement en fonction d'une ouverture de fissure. Ce premier critère a donné de bons résultats comparé à ceux de |69, 88, 97, 143-147| sur la convergence des paramètres de la fragmentation sur des cas simples, mais nécessite un grand nombre de particules. Dans un second temps, afin d'envisager la modélisation de la fragmentation sur des cas plus complexes en trois dimensions à de hautes vitesses de déformation, un second critère de rupture a été introduit. Ce critère de rupture s'appuie sur une approche physique différente, qui prend en compte l'hétérogénéité des matériaux fragiles avec leurs défauts susceptibles d'évoluer et de provoquer une rupture locale. Pour cela, il fait intervenir une loi probabiliste de Weibull afin d'introduire des défauts par élément de volume. Ce critère a été développé par C. Denoual, P. Forquin et F. Hild |29, 33, 42-44|. Tout d'abord, ce second critère de rupture a été testé sur des cas simples en obtenant une convergence des paramètres statistiques de la fragmentation avec un nombre environ $10$ fois moins important de particules que pour la première méthode. Un cas plus complexe en trois dimensions de modélisation de barre d'Hopkinson en trois dimensions a permis de tester de manière " qualitative " la méthode.
29

Conception sûre des systèmes mécatroniques intelligents pour des applications critiques

Belhadaoui, Hicham 13 January 2011 (has links) (PDF)
La criticité des systèmes complexes programmables nécessite de garantir un niveau de fiabilité et de sécurité convenable. Des études de sûreté de fonctionnement doivent être menées tout au long du cycle de développement du système. Ces études permettent une meilleure maîtrise des risques et de la fiabilité. Les points faibles sont mis en évidence et permettent aux concepteurs de spécifier des stratégies de reconfiguration avant la phase de prototype réel et les tests réels. Les études de sûreté de fonctionnement doivent être menées au plus tôt dans la phase de conception, afin de réduire les coûts et le nombre de prototypes nécessaires à la validation du système. Le travail présenté dans ce mémoire de thèse a pour objectif de définir une méthodologie de conception des systèmes complexes programmables dédiés à une application mécatronique [Belhadaoui et al., 2008-a], intégrant dès les premières phases du cycle de développement [Aït-Kadi et al., 2000], les aspects sûreté de fonctionnement. L'apport d'une telle méthodologie doit permettre de faire face à un certain nombre de contraintes propres au domaine des capteurs intelligents (les exigences de cahier des charges, le respect des normes législatives en vigueur). La méthodologie développée doit permettre de :  Modéliser et simuler les comportements fonctionnels et dysfonctionnels des systèmes  Estimer la fiabilité par modélisation  Réaliser des mesures de sensibilité afin de connaître la contribution de chaque composant à la fiabilité du système  Capitaliser la connaissance sur le système au cours des différentes phases d'évaluation (prévisionnelle, expérimentale et opérationnelle) pour affiner les estimations de fiabilité Ce Travail introduit le concept d'information en sûreté de fonctionnement. Nous interprétons la défaillance de celle-ci comme étant le résultat de l'initiation et de la propagation d'informations erronées à travers l'architecture d'un capteur intelligent dédié à une application mécatronique. Cette propagation s'est accompagnée de contraintes (partage de ressources matérielles et informationnelles, modes dégradés d'information...) qui tendent à influencer fortement la crédibilité de cette information. Nous débutons sur un état de l'art pour montrer l'intérêt de l'approche flux informationnel sur un cas d'étude complexe. Ceci est lié à la présence d'une partie programmable (interaction matériel-logiciel) et évidement du système hybride (signaux mixtes analogique-numérique). Cette nouvelle approche distingue, les phénomènes d'apparition et de disparition d'erreurs (matérielles, logicielles et environnementales), ainsi que les séquences de propagation aboutissant à un mode de dysfonctionnement du système. Grâce à cette distinction nous expliquons les concepts mal traités par les méthodes conventionnelles, tels que la défaillance simultanée, la défaillance de cause commune et abordons d'une manière réaliste les problématiques des interactions matériel-logiciel et celle des signaux mixtes. Les séquences de propagation d'erreurs générées permettent à l'aide d'un modèle markovien non homogène, de quantifier d'une manière analytique les paramètres de la sûreté de fonctionnement du système (fiabilité, disponibilité, sécurité) et de positionner le capteur dans un mode de fonctionnement parmi les six que nous avons définis suivant les spécifications du cahier des charges.
30

Méthode SCHADEX de prédétermination des crues extrêmes

Garavaglia, Federico 23 February 2011 (has links) (PDF)
La méthode SCHADEX (Simulation Climato-Hydrologique pour l'Appréciation des Débits EXtrêmes) est, depuis 2007, la méthode de référence pour le calcul de la crue de projet servant au dimensionnement des évacuateurs des barrages d'EDF (Électricité De France). Cette méthode vise à estimer les quantiles extrêmes de débits par un procédé de simulation stochastique qui combine un modèle probabiliste de pluie et un modèle hydrologique pluie-débit. L'objectif principal de cette thèse est la " validation " de la méthode SCHADEX, la compréhension de ses possibilités et de ses limites, notamment par des études de sensibilité aux hypothèses sous-jacentes et par sa confrontation à la plus large gamme possible d'observations (régions et climats contrastés, taille variable de bassins versants). La première étape de ce travail a porté sur la description probabiliste des événements pluvieux générateurs de crues, avec notamment l'introduction d'une distribution des pluies observées conditionnée par type de temps (distribution MEWP, Multi-Exponential Weather Patterns). Pour valider ce modèle probabiliste, nous avons comparé ses résultats à ceux de modèles classiques de la théorie des valeurs extrêmes. En nous appuyant sur une large base de données de stations pluviométriques (478 postes localisés en France, Suisse et Espagne) et sur une technique de comparaison orientée vers les valeurs extrêmes, nous avons évalué les performances du modèle MEWP en soulignant la justesse et la robustesse de ses estimations. Le procédé de simulation hydrologique des volumes écoulés suite à des événements pluvieux intenses (processus de simulation semi-continue) a été décrit en soulignant son caractère original et parcimonieux du point de vue des hypothèses d'extrapolation nécessaires, et sa capacité à extraire le maximum d'information des séries chronologiques traitées. En nous appuyant sur une base de données de 32 bassins versants, nous avons analysé la sensibilité de cette méthode (i) à ses paramètres de simulation (i.e. nombre de tirages, etc.), (ii) au modèle probabiliste de pluie et (iii) au modèle hydrologique pluie-débit. Cette étude nous a permis de figer certains paramètres de simulation et surtout de hiérarchiser les étapes et les options de simulation du point de vue de leurs impacts sur le résultat final. Le passage des quantiles extrêmes de volumes à ceux des débits de pointe est réalisé par un facteur multiplicatif (coefficient de forme), identifié sur une collection d'hydrogrammes. Une sélection de ces hydrogrammes par une approche semi-automatique, basée sur une technique d'échantillonnage sup-seuil, a été développée. Globalement, ce travail a permis de reformuler, justifier et vérifier les hypothèses de base de la méthode, notamment celles liées à l'aléa pluviométrique ainsi qu'à l'aléa " état hydrique " du bassin versant, et celles liées au procédé de simulation hydrologique semi-continue des écoulements. Des améliorations et des simplifications de certains points de la méthode ont aussi été proposées pour des estimations de débit extrêmes plus fiables et robustes. Une adaptation de la classification des journées par type de temps a été proposée pour étendre le calendrier de référence, de 1953-2005 à 1850-2003, en exploitant des informations simplifiées sur les champs de pression. La procédure de simulation hydrologique a été améliorée, notamment en conditionnant le tirage des épisodes pluvieux au type de temps, ce qui permet de mieux prendre en compte la dépendance pluie- température. Ces travaux ne mettent certainement pas un point final au développement de la méthode SCHADEX mais la fondent sur des bases méthodologiques saines et documentées. Ils proposent des perspectives de recherche sur des thématiques variées (e.g. prise en compte de variabilité de la forme des hydrogrammes de crue pour le passage au débit de pointe, modélisation hydrologique, estimation de crues extrêmes en bassins non jaugés ou en contexte non-stationnaire).

Page generated in 0.1071 seconds