• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 7
  • 3
  • Tagged with
  • 35
  • 35
  • 19
  • 17
  • 10
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Évaluation de la qualité des applications web : approche probabiliste

Malak, Ghazwa January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
2

Modélisation et validation expérimentale des complexes insonorisants pour la prévision vibroacoustique numérique basse et moyenne fréquences des automobiles

Fernandez, Charles 11 December 2008 (has links) (PDF)
Dans cette recherche, on construit un modèle simplifié en basses et moyennes fréquences de complexes insonorisants (habillages) de l'industrie automobile à partir d'un élément élastoacoustique stochastique. Le modèle simplifié moyen est issu d'une extension de la théorie des structures floues et dépend de trois paramètres physiques : densité modale, amortissement et masse participante. Le modèle simplifié stochastique qui prend en compte les incertitudes de modèle et de données est construit en utilisant une approche probabiliste non paramétrique et dépend de trois paramètres de dispersion. Le modèle simplifié de l'habillage est implémenté dans un modèle vibroacoustique stochastique industriel d'automobile. Deux problèmes inverses sont résolus à l'aide d'une base de données expérimentales sur véhicules construite en parallèle et permettent d'identifier les paramètres du modèle complet. L'analyse des résultats permet de valider les développements théoriques et la méthodologie proposée
3

Sur le rôle de la déduction dans le raisonnement à partir de prémisses incertaines / On the role of deduction in reasoning from uncertain premises

Cruz de Echeverria Loebell, Nicole 14 June 2018 (has links)
L’approche probabiliste du raisonnement émet l’hypothèse que la plupart des raisonnements, aussi bien dans la vie quotidienne qu’en science, se réalisent dans des contextes d’incertitude. Les concepts déductifs centraux de la logique classique, consistance et validité, peuvent être généralisés afin d’englober des degrés de croyance incertains. La consistance binaire peut être généralisée à travers la dénomination de cohérence, lorsque les jugements de probabilité à deux affirmations sont cohérents seulement s’ils respectent les axiomes de la théorie de la probabilité. La validité binaire peut se généraliser comme validité probabiliste (validité-p), lorsqu’une interférence est valide-p seulement si l’incertitude de sa conclusion ne peut être de façon cohérente plus grande que la somme des incertitudes de ses prémisses. Cependant le fait que cette généralisation soit possible dans une logique formelle n’implique pas le fait que les gens utilisent la déduction de manière probabiliste. Le rôle de la déduction dans le raisonnement à partir de prémisses incertaines a été étudié à travers dix expériences et 23 inférences de complexités différentes. Les résultats mettent en évidence le fait que la cohérence et la validité-p ne sont pas juste des formalismes abstraits, mais que les gens vont suivre les contraintes normatives établies par eux dans leur raisonnement. Que les prémisses soient certaines ou incertaines n’a pas créé de différence qualitative, mais la certitude pourrait être interprétée comme l’aboutissement d’une échelle commune de degrés de croyance. Les observations sont la preuve de la pertinence descriptive de la cohérence et de la validité-p comme principes de niveau de calcul pour le raisonnement. Ils ont des implications pour l’interprétation d’observations antérieures sur les rôles de la déduction et des degrés de croyance. Enfin, ils offrent une perspective pour générer de nouvelles hypothèses de recherche quant à l’interface entre raisonnement déductif et inductif. / The probabilistic approach to reasoning hypothesizes that most reasoning, both in everyday life and in science, takes place in contexts of uncertainty. The central deductive concepts of classical logic, consistency and validity, can be generalised to cover uncertain degrees of belief. Binary consistency can be generalised to coherence, where the probability judgments for two statements are coherent if and only if they respect the axioms of probability theory. Binary validity can be generalised to probabilistic validity (p-validity), where an inference is p-valid if and only if the uncertainty of its conclusion cannot be coherently greater than the sum of the uncertainties of its premises. But the fact that this generalisation is possible in formal logic does not imply that people will use deduction in a probabilistic way. The role of deduction in reasoning from uncertain premises was investigated across ten experiments and 23 inferences of differing complexity. The results provide evidence that coherence and p-validity are not just abstract formalisms, but that people follow the normative constraints set by them in their reasoning. It made no qualitative difference whether the premises were certain or uncertain, but certainty could be interpreted as the endpoint of a common scale for degrees of belief. The findings are evidence for the descriptive adequacy of coherence and p-validity as computational level principles for reasoning. They have implications for the interpretation of past findings on the roles of deduction and degrees of belief. And they offer a perspective for generating new research hypotheses in the interface between deductive and inductive reasoning.
4

Durabilité des ouvrages en béton soumis à la corrosion : optimisation par une approche probabiliste / Durability of concrete structures subjected to corrosion : optimization by a probabilistic approach

Schmitt, Lucie 25 April 2019 (has links)
La maîtrise de la durabilité des ouvrages neufs et la nécessité de prolonger la durée de vie des structures existantes correspondent à des enjeux sociétaux de tout premier ordre et s’inscrivent dans les principes d’une économie circulaire. La durabilité des ouvrages en béton occupe ainsi une position centrale dans le contexte normatif. Ces travaux de thèse font suite à ceux de J. Mai-Nhu* et ont pour objectif d’étendre le domaine d’application du modèle SDReaM-crete en intégrant les bétons à base d’additions et en définissant un critère d’état limite basé sur une quantité de produits corrodés. Une approche basée sur une optimisation numérique des calculs prédictifs est mise en place pour réaliser des calculs d’indices de fiabilité en considérant les principaux mécanismes liés à la corrosion des armatures, carbonatation et chlorures. Ce modèle permet d’optimiser le dimensionnement des enrobages et les performances du béton en intégrant davantage les conditions environnementales telles qu’elles sont définies dans les normes. / Mastering the durability of new structures and the need to extand the lifespan of existing constructions correspond to social issues of the highest order and are part of the principles of a circular economy. The durability of concrete structures thus occupies a central position in the normative context. This thesis works follow those of J. Mai-Nhu* and aims at extending the field of application the SDReaM-crete model by integrating mineral additions based concretes and by defining a limit state criterion based on a quantity of corroded products. An approach based on a numerical optimization of predictive computations is set up to perform reliability analyses by considering the main mechanisms related to the corrosion of reinforcement, carbonation and chlorides. This model enables the optimization of the sizing of the concrete covers and performances by further integrating the environmental conditions as defined by the standards.
5

Estimation précise des trajectoires de véhicule par un système optique

Goyat, Yann 15 December 2008 (has links) (PDF)
La métrologie du trafic et des trajectoires des véhicules évolue fortement depuis dix ans. Cette croissance est principalement Liée aux demandes de services de plus en plus nombreuses des usagers et à un bilan d'accidents corporels toujours très insatisfaisant ( 4 838 tués, 106 709 blessés dont 39 754 blessés hospitalisés en 2007). L'objectif des travaux de cette thèse était de proposer un système de mesure pour mieux comprendre les relations entre l'accidentologie et les caractéristiques de l'infrastructure. Un système de cette nature permettrait d'apporter des réponses pertinentes à de nombreuses questions encore en suspend, telles que : - la route est-elle bien utilisée par les conducteurs, - les informations proposées par la signalisation et le tracé sont-elles bien comprises, - le site induit-il des comportements dangereux : si oui, pourquoi, - quels sont les mécanismes d'accidents ou de presqu'accidents . . . Un cahier des charges a donc été établi, en accord avec des experts en sécurité routière, pour répondre à ce besoin. Après un état de l'art des systèmes "bord de voie" et des méthodes existantes, il s'est avéré que de nombreux systèmes sont commercialisés pour la mesure de trafic. Quelques systèmes optiques permettent aussi la mesure de trajectoires, avec l'objectif d'une part de détecter les incidents et d'autre part d'améliorer la fiabilité de mesure par l'étude d'une zone (moyenne) plutôt que d'un seul point. Toutefois, aucun de ces dispositifs ne répond au cahier des charges, notamment en terme de précision de mesure. Il a donc été décidé de réaliser intégralement (matériel et logiciel) un nouvel outil de mesure, appelé Observatoire De Trajectoire (ODT), combinant les deux capteurs du marché qui permettent une mesure en "champ large" : la caméra et le laser. Le domaine scientifique le plus exploré étant le suivi d'objets, une bibliographie a donc été effectuée pour identifier les méthodes les plus appropriées pour notre problématique. Le choix s'est positionné sur les méthodes probabilistes et particulièrement sur deux techniques bien connues que sont le filtre à particules et le "Markov Chain Monte Carlo" (MCMC). La contribution principale de la thèse porte sur le développement de deux méthodes opérationnelles pour l'estimation précise des trajectoires de véhicules à partir d'une combinaison d'images vidéo et de mesures télémétriques. Ces méthodes de suivi s'appuient sur une nouvelle méthode de soustraction fond/forme, sur la combinaison d'un modèle cinématique et d'un modèle d'observations et enfin sur une technique originale de fusion de capteurs, utilisant un processus de ré-échantillonnage de filtre à particules. L'avantage de la première méthode, dite "séquentielle", est de pouvoir estimer toutes les trajectoires des véhicules légers. Elle permet donc de récupérer une grande quantité d'informations (5 paramètres par point mesuré), proportionnelle au temps passé pour son analyse. La seconde méthode, dite "globale", permet une plus grande réactivité et une analyse plus fine, grâce à une réduction considérablement des paramètres de suivi. Néanmoins, elle a l'inconvénient de ne pas pouvoir suivre les trajectoires "atypiques". Cette caractéristique peut, en revanche, être utilisée comme critère de classification de trajectoires. Enfin, les différentes étapes de ces méthodes ont été validées à l'aide de nombreuses trajectoires étalons. Ces trajectoires étalons étant suivies et mesurées par un véhicule équipé d'un GPS précis au cm près, à différentes vitesses. Les deux méthodes ont ensuite été comparées entre elles et avec ces mêmes vérités terrains.
6

Algorithmes de factorisation de polynômes

Lugiez, Denis 28 January 1984 (has links) (PDF)
Description de la factorisation sur Z[×] et de ses problèmes, et des différentes formes de remontées série ou parallèle, linéaire ou quadratique. On donne un algorithme nouveau basé sur la décomposition d'une fraction rationnelle
7

CONTROLE ET CONDUITE NUMERIQUES D'UN FOUR TUNNEL D'INDUSTRIE CERAMIQUE

El Hajjar, Haïssam 18 May 1983 (has links) (PDF)
MODELISATION DU FONCTIONNEMENT THERMIQUE D'UN FOUR DE POTERIE. DETERMINATION DU REGIME STATIQUE OPTIMAL DE CUISSON. APRES DES TRANSFORMATIONS DU MODELE, ON CALCULE UNE LOI DE COMMANDE EN BOUCLE FERMEE PAR RETOUR D'ETAT EN MINIMISANT UN CRITERE QUADRATIQUE A HORIZON FINI. LE CALCUL D'UN ESTIMATEUR DE L'ETAT EST EXPOSE POUR LA RECONSTITUTION DU PROFIL DANS LA CHARGE A PARTIR DE MESURES FAITES DANS LE GAZ. CONDUITE NUMERIQUE DU FOUR PAR MICROCALCULATEUR
8

Identification des forces stochastiques appliquées à un système dynamique non linéaire en utilisant un modèle numérique incertain et des réponses expérimentales

Batou, Anas 18 December 2008 (has links) (PDF)
Ces travaux ont été développés dans le contexte de l'analyse vibratoire des assemblages combustibles. Ce type de structure est très complexe et a, du fait de sa géométrie, une très forte densité modale. Ainsi, afin de calculer la réponse d'une telle structure, une modélisation simplifiée est préférable. L'objectif est d'identifier des forces stochastiques induites par l'écoulement en utilisant un modèle numérique incertain et des réponses expérimentales. Pour ce problème, 4 sources d'incertitudes sont à prendre en considération : (1) Les incertitudes de modèle induites par les simplifications du modèle. (2) Les incertitudes sur les forces induites par les fluctuations statistiques de la pression turbulent. (3) Les incertitudes concernant la modélisation des forces stochastiques. (4) Les incertitudes induites par les erreurs de mesures. Les forces stochastiques ainsi identifiées sont appliquées sur le modèle simplifié stochastique pour calculer des statistiques sur les quantités d'intérêt
9

Contribution à l'étude de la corrosion par carbonatation du béton armé : approche expérimentale et probabiliste / Carbonation-induced steel corrosion in reinforced concrete : experimental and probabilistic approach

Vu, Ngoc tru 28 June 2011 (has links)
La corrosion de l’acier par carbonatation du béton est un phénomène de dégradation majeur des structures en béton armé, qui débute par la dépassivation de l'acier due à l'abaissement du pH de la solution interstitielle, se concrétise par une initiation effective avant de se propager. Nous nous sommes focalisé sur la dépassivation et l'initiation effective. Une large campagne expérimentale a permis de comprendre l'incidence des conditions d'exposition, de la nature des ciments utilisés dans les bétons et des conditions de carbonatation de l'enrobage, sur la dépassivation des armatures et le démarrage effectif de la corrosion. Au total 27 configurations ont été étudiées. Le potentiel libre de corrosion et la résistance de polarisation ont été mesurés au cours de l'expérimentation sur une durée voisine d'une année. Parallèlement, à échéances régulières, les coefficients de Tafel et la masse de produits de corrosion ont été également mesurés. L'ensemble des données a été analysé pour conduire, à partir du calcul des probabilités de bonne ou de mauvaise alarme, aux seuils de détection du démarrage effectif de la corrosion associés aux paramètres électrochimiques ainsi que la masse seuil de produits de corrosion correspondant à cette détection. Alimentée par les résultats des essais de caractérisation des bétons, une simulation numérique par éléments finis du démarrage de la corrosion a été développée permettant de corroborer de façon satisfaisant les résultats expérimentaux / The steel corrosion induced by carbonation is a major cause of degradation of the reinforced concrete structures. Two stages arise: the steel depassivation due to the decrease of pH of the pore solution and the effective initiation, and then the propagation. A wide experimental study was carried out focusing on the first stage, in order to emphasize the effect of the exposure conditions, the type of cement and the concrete mixes, and the carbonation conditions of the concrete cover. In all a set of 27 configurations was investigated. The free potential of corrosion and the resistance of polarization were measured in the course of the experiment during one year. Regularly the Tafel coefficients along with the mass of corrosion products were also measured. The set of data was analyzed in order to derive the detection thresholds of the effective onset of corrosion associated with the electrochemical parameters, from the calculation of the probabilities of good or bad alarm. The threshold of the mass of corrosion products corresponding to this detection was also derived. The tests on concrete probes (porosity, permeability, etc.) supplied data that were used to calibrate a finite element model of the onset of corrosion: this model was found in fairly good agreement with the experimental results
10

Développement de méthodes fiabilistes dépendant du temps pour l'analyse de durabilité des structures : application au problème de conception fiabiliste dépendant du temps / Development of metamodeling methods for time-dependent structural reliability analysis

Hawchar, Lara 13 December 2017 (has links)
La caractérisation des incertitudes est un enjeu essentiel qui permet une conception fiable des structures. Par ailleurs, la surveillance du phénomène de vieillissement est primordiale pour l'inspection et la prévention des risques. Ces deux enjeux peuvent être étudiés simultanément dans une analyse de fiabilité dépendante du temps. Toutefois, une telle analyse est souvent complexe et très couteuse en temps de calcul parce qu'elle demande plusieurs évaluations du modèle physique décrivant la performance de la structure. Dans ce contexte, on propose l'utilisation de la métamodélisation pour l'analyse de fiabilité dépendante du temps, concept largement exploré dans le cas de problèmes indépendants du temps. Ceci consiste à remplacer le modèle physique par un métamodèle analytique facile à évaluer de sorte que la méthode de simulation de Monte-Carlo peut être utilisée à coût de calcul réduit. D'autres problèmes sont liés aussi à ce type d'analyse, notamment la grande dimensionnalité du problème, la non Gaussianité et non stationnarité des processus stochastiques mis en jeu et la non linéarité de la fonction d'état limite. La thèse vise alors à proposer des méthodes précises mais aussi efficaces pour l'analyse de fiabilité dépendant du temps qui permettent de surmonter ces difficultés. Elle propose également une extension de ces méthodes au problème de conception fiabiliste dépendant du temps. / Uncertainty quantification is essential for designing reliable structures. Moreover, monitoring the aging process is of vital importance for the inspection and prevention of risks. These two aspects may be considered simultaneously throughout a time-variant reliability analysis. However, such analysis is in general complex and very time consuming because it requires numerous evaluations of the mechanical model describing the structural behavior. To overcome this issue, we propose to use the metamodeling approach that has been widely explored in the context of the probabilistic analysis, for time-variant reliability problems. This consists in replacing the mechanical model with a simple analytical function that is easy to evaluate and on which Monte-Carlo simulation can be performed at a low computational cost. Other challenges also encounter this analysis and are basically related to the high dimensionality of the problem, the non Gaussianity and non stationarity of the input stochastic processes and the non linearity of the limit state function. The thesis aims then to develop accurate and efficient approaches for time-variant reliability analysis that overcome the aforementioned difficulties. It also proposes to extend these methods to the field of time-variant reliability-based design optimization.

Page generated in 0.1559 seconds