• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1365
  • 599
  • 155
  • 4
  • 2
  • 1
  • Tagged with
  • 2097
  • 768
  • 461
  • 296
  • 296
  • 237
  • 226
  • 204
  • 200
  • 196
  • 195
  • 183
  • 160
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Elaboration et validation de Critères Ergonomiques pour les Interactions Homme-Environnements Virtuels

BACH, Cédric 28 October 2004 (has links) (PDF)
Le manque d'utilisabilité des Environnements Virtuels (EVs) est un obstacle majeur à leur utilisation à grande échelle dans de nombreux domaines d'activités professionnels. Ces environnements informatisés présentent plusieurs spécificités (i.e., recours à la 3D, à la multimodalité, etc.) non prises en compte par les méthodes classiques d'évaluation de l'utilisabilité. Il est pourtant nécessaire de disposer de méthodes permettant d'apprécier leur qualité ergonomique. Cette thèse développe les différentes étapes d'élaboration et de validation des Critères Ergonomiques (C.E.) adaptés aux Interactions Homme-Environnements Virtuels. Une première étape a consisté à définir les C.E. à partir de l'élaboration et de la classification de recommandations ergonomiques, dédiées aux EVs, issues de la littérature du domaine. Sur la base de 170 recommandations, 20 critères élémentaires ont été identifiés, définis, justifiés et illustrés. Cette étape est le fondement de l'adaptation des C.E. aux EVs. Une seconde étape a permis de valider les C.E. lors d'une tâche d'affectation où 10 spécialistes de l'ergonomie des logiciels ont affecté correctement aux critères principaux 68% des difficultés d'interactions qui leur ont été présentées. Cette étape a également permis de mettre en lumière les C.E. bien compris et ceux qui nécessitent des améliorations. Une troisième étape a comparé expérimentalement les performances dans trois situations d'évaluations ergonomiques de 2 EVs : tests utilisateurs, inspection à l'aide des C.E. et inspection libre. Les résultats de cette expérimentation montrent que les C.E. offrent une performance d'évaluation significativement plus élevée que celle des inspections libres, ils montrent également que les C.E. et les tests utilisateurs permettent des performances d'évaluations équivalentes. D'autres aspects des méthodes tels que le type de problèmes identifiés, l'homogénéité interne et les recouvrements entre chaque méthode sont comparés.
162

Étoiles à neutrons, étoiles de quarks, trous noirs et ondes gravitationnelles

Gourgoulhon, Eric 04 July 2003 (has links) (PDF)
Cette thèse d'habilitation présente des études numériques d'objets compacts (étoiles à neutrons, étoiles de quarks étranges, trous noirs), principalement considérés comme sources d'ondes gravitationnelles pour les détecteurs VIRGO et LISA.
163

Intégration d'Éléments Sémantiques dans l'Analyse d'Ordonnançabilité des Applications Temps-Réel

Fotsing Takoutsi, Christian 20 February 2012 (has links) (PDF)
Nous étudions la modélisation et la validation hors-ligne des applications temps-réel en environnement monoprocesseur, qui prend explicitement en compte l'échange des messages, le partage des ressources et les instructions conditionnelles entre les tâches. Notre objectif est de mettre en évidence l'impact de ces paramètres sur l'analyse des applications. Classiquement, ces applications sont modélisées de façon linéaire, en encapsulant les blocs conditionnels, et les séquences sont utilisées pour leur validation. Nous proposons une approche de modélisation et de validation arborescente, qui permet de considérer de façon explicite les blocs conditionnels, et qui utilise les arbres d'ordonnancement pour la validation. Nous comparons ensuite ces deux approches, et prouvons que les premières sont parfois trop pessimistes, c'est à dire qu'elles peuvent conduire à déclarer certaines applications comme non ordonnançables, alors qu'en réalité elles le sont. Nous commençons par construire un générateur d'arbres d'ordonnancement valides. La complexité du générateur étant exponentielle en fonction du nombre de tâches, cette approche est di cile à mettre en ÷uvre dans la pratique. Nous proposons donc une approche de modélisation bas ée sur les réseaux de Petri. Ce réseau sera utilisé pour générer les arbres valides, par construction du graphe de marquages, et la complexité pourra être réduite grâce à des heuristiques.
164

Transferts de champs entre maillages de type éléments finis et applications numériques en mécanique non linéaire des structures

Bérard, Alexandre 16 September 2011 (has links) (PDF)
En mécanique des milieux continus, la résolution d'un problème à l'aide de la méthode des éléments finis permet d'obtenir des champs discrétisés aux nœuds ou aux points de Gauss, sur un maillage donné de la structure étudiée. Si l'on souhaite utiliser ces résultats afin d'effectuer un calcul sur un second maillage, un transfert de données est inévitable, notamment dans les études chaînées, lors de processus d'adaptations de maillages ou encore pour des couplages entre codes. La simulation numérique doit tenir compte de cet état de fait, ce qui n'est pas totalement le cas aujourd'hui ; la division R&D d'EDF souhaite donc disposer d'outils permettant de lever ce verrou, au sein du logiciel libre Code_Aster. Le manuscrit présente une synthèse des travaux menés durant la thèse, qui répondent aux objectifs suivants : proposer des méthodes de transfert de champs, comparer et qualifier ces différentes approches à l'aide d'analyses d'erreur théoriques et numériques, implanter l'une de ces méthodes dans Code_Aster, valider cette programmation sur quelques cas industriels.
165

Optimisation de dispositifs électromagnétiques dans un contexte d'analyse par la méthode des éléments finis

Caldora Costa, Mauricio 28 June 2001 (has links) (PDF)
Dans ce travail, nous proposons des solutions à la problématique constituée par les difficultés rencontrées dans l'optimisation de dispositifs électromagnétiques analysés par des méthodes de simulation numérique, notamment la Méthode des Eléments Finis. Parmi les difficultés, nous avons la grande diversité des problèmes, la recherche d'une solution globale, l'échange des données entre l'outil de simulation et l'outil d'optimisation et le temps de calcul onéreux pour atteindre une solution. Nous commençons par une description des méthodes les plus utilisées dans la résolution de problèmes d'optimisation, dans laquelle nous mettons en évidence leurs particularités et les principales caractéristiques qu'elles ont en commun. Après cette récapitulation, nous présentons l'architecture logiciel d'un outil d'optimisation idéalisée en s'appuyant sur les concepts de la Programmation Orientée Objet. Dans l'implémentation de cette architecture, nous considérons les difficultés issues des problèmes liés à la simulation numérique et nous proposons une nouvelle approche d'optimisation basée sur la Méthode des Plans d'Expérience. Pour valider cette nouvelle approche, nous présentons trois différentes applications en électrotechnique : l'optimisation d'un moteur à reluctance variable, l'optimisation d'un contacteur électromagnétique et la résolution du problème 25 du TEAM Worshop.
166

Sur la résolution des équations intégrales singulières à noyau de Cauchy

Mennouni, Abdelaziz, Mennouni, Abdelaziz 27 April 2011 (has links) (PDF)
L'objectif de ce travail est la résolution des équations intégrales singulières à noyau Cauchy. On y traite les équations singulières de Cauchy de première espèce par la méthode des approximations successives. On s'intéresse aussi aux équations intégrales à noyau de Cauchy de seconde espèce, en utilisant les polynômes trigonométriques et les techniques de Fourier. Dans la même perspective, on utilise les polynômes de Tchebychev de quatrième degré pour résoudre une équation intégro différentielle à noyau de Cauchy. Ensuite, on s'intéresse à une autre équation intégro-différentielle à noyau de Cauchy, en utilisant les polynômes de Legendre, ce qui a donné lieu à développer deux méthodes basées sur une suite de projections qui converge simplement vers l'identité. En outre, on exploite les méthodes de projection pour les équations intégrales avec des opérateurs intégraux bornés non compacts et on a appliqué ces méthodes à l'équation intégrale singulière à noyau de Cauchy de deuxième espèce
167

Approximation numérique de l'équation de Vlasov par des méthodes de type remapping conservatif

Glanc, Pierre 20 January 2014 (has links) (PDF)
Cette thèse présente l'étude et le développement de méthodes numériques pour la résolution d'équations de transport, en particulier d'une méthode de remapping bidimensionnel dont un avantage important par rapport aux algorithmes existants est la propriété de conservation de la masse. De nombreux cas-tests permettront de comparer ces approches entre elles ainsi qu'à des méthodes de référence. On s'intéressera en particulier aux équations dites de Vlasov-Poisson et du Centre-Guide, qui apparaissent très classiquement dans le cadre de la physique des plasmas.
168

Entre tradition et innovation, l'enseignement du catéchisme chez les Frères des écoles chrétiennes au Québec, 1936-1946

Lanouette, Mélanie January 2000 (has links) (PDF)
No description available.
169

Robust, precise and reliable simultaneous localization and mapping for and underwater robot. Comparison and combination of probabilistic and set-membership methods for the SLAM problem / Localisation et cartographie en simultané fiable, précise et robuste d'un robot sous-marin

Nicola, Jérémy 18 September 2017 (has links)
Dans cette thèse on s'intéresse au problème de la localisation d'un robot sous-marin et de la cartographie en simultané d'un jeu de balises acoustiques installées sur le fond marin, en utilisant un distance-mètre acoustique et une centrale inertielle. Nous nous focalisons sur les deux approches principales utilisées pour résoudre ce type de problème: le filtrage de Kalman et le filtrage ensembliste basé sur l'analyse par intervalles. Le filtre de Kalman est optimal quand les équations d'état du robot sont linéaires et les bruits sont additifs, Gaussiens. Le filtrage par intervalles ne modélise pas les incertitudes dans un cadre probabiliste, et ne fait qu'une seule hypothèse sur leur nature: elles sont bornées. De plus, l'approche utilisant les intervalles permet la propagation rigoureuse des incertitudes, même quand les équations sont non linéaires. Cela résulte en une estimation hautement fiable, au prix d'une précision réduite. Nous montrons que dans un contexte sous-marin, quand le robot est équipé avec une centrale inertielle de haute précision, une partie des équations du SLAM peut raisonnablement être considérée comme linéaire avec un bruit Gaussien additif, en faisant le terrain de jeu idéal d'un filtre de Kalman. De l'autre côté, les équations liées aux observations du distance-mètre acoustique sont bien plus problématiques: le système n'est pas observable, les équations sont non linéaires, et les outliers sont fréquents. Ces conditions sont idéales pour une approche à erreur bornées basée sur l'analyse par intervalles. En prenant avantage des propriétés des bruits Gaussiens, cette thèse réconcilie le traitement probabiliste et ensembliste des incertitudes pour les systèmes aussi bien linéaires que non linéaires sujets à des bruits Gaussiens additifs. En raisonnant de manière géométrique, nous sommes capables d'exprimer la partie des équations du filtre de Kalman modélisant la dynamique du véhicule dans un cadre ensembliste. De la même manière, un traitement plus rigoureux et précis des incertitudes est décrit pour la partie des équations du filtre de Kalman liée aux mesures de distances. Ces outils peuvent ensuite être combinés pour obtenir un algorithme de SLAM qui est fiable, précis et robuste. Certaines des méthodes développées dans cette thèse sont illustrées sur des données réelles. / In this thesis, we work on the problem of simultaneously localizing an underwater robot while mapping a set of acoustic beacons lying on the seafloor, using an acoustic range-meter and an inertial navigation system. We focus on the two main approaches classically used to solve this type of problem: Kalman filtering and set-membership filtering using interval analysis. The Kalman filter is optimal when the state equations of the robot are linear, and the noises are additive, white and Gaussian. The interval-based filter do not model uncertainties in a probabilistic framework, and makes only one assumption about their nature: they are bounded. Moreover, the interval-based approach allows to rigorously propagate the uncertainties, even when the equations are non-linear. This results in a high reliability in the set estimate, at the cost of a reduced precision.We show that in a subsea context, when the robot is equipped with a high precision inertial navigation system, a part of the SLAM equations can reasonably be seen as linear with additive Gaussian noise, making it the ideal playground of a Kalman filter. On the other hand, the equations related to the acoustic range-meter are much more problematic: the system is not observable, the equations are non-linear, and the outliers are frequent. These conditions are ideal for a set-based approach using interval analysis.By taking advantage of the properties of Gaussian noises, this thesis reconciles the probabilistic and set-membership processing of uncertainties for both linear and non-linear systems with additive Gaussian noises. By reasoning geometrically, we are able to express the part of the Kalman filter equations linked to the dynamics of the vehicle in a set-membership context. In the same way, a more rigorous and precise treatment of uncertainties is described for the part of the Kalman filter linked to the range-measurements. These two tools can then be combined to obtain a SLAM algorithm that is reliable, precise and robust. Some of the methods developed during this thesis are demonstrated on real data.
170

Traitement des dossiers refusés dans le processus d'octroi de crédit aux particuliers. / Reject inference in the process for granting credit.

Guizani, Asma 19 March 2014 (has links)
Le credit scoring est généralement considéré comme une méthode d’évaluation du niveau du risque associé à un dossier de crédit potentiel. Cette méthode implique l'utilisation de différentes techniques statistiques pour aboutir à un modèle de scoring basé sur les caractéristiques du client.Le modèle de scoring estime le risque de crédit en prévoyant la solvabilité du demandeur de crédit. Les institutions financières utilisent ce modèle pour estimer la probabilité de défaut qui va être utilisée pour affecter chaque client à la catégorie qui lui correspond le mieux: bon payeur ou mauvais payeur. Les seules données disponibles pour construire le modèle de scoring sont les dossiers acceptés dont la variable à prédire est connue. Ce modèle ne tient pas compte des demandeurs de crédit rejetés dès le départ ce qui implique qu'on ne pourra pas estimer leurs probabilités de défaut, ce qui engendre un biais de sélection causé par la non-représentativité de l'échantillon. Nous essayons dans ce travail en utilisant l'inférence des refusés de remédier à ce biais, par la réintégration des dossiers refusés dans le processus d'octroi de crédit. Nous utilisons et comparons différentes méthodes de traitement des refusés classiques et semi supervisées, nous adaptons certaines à notre problème et montrons sur un jeu de données réel, en utilisant les courbes ROC confirmé par simulation, que les méthodes semi-supervisé donnent de bons résultats qui sont meilleurs que ceux des méthodes classiques. / Credit scoring is generally considered as a method of evaluation of a risk associated with a potential loan applicant. This method involves the use of different statistical techniques to determine a scoring model. Like any statistical model, scoring model is based on historical data to help predict the creditworthiness of applicants. Financial institutions use this model to assign each applicant to the appropriate category : Good payer or Bad payer. The only data used to build the scoring model are related to the accepted applicants in which the predicted variable is known. The method has the drawback of not estimating the probability of default for refused applicants which means that the results are biased when the model is build on only the accepted data set. We try, in this work using the reject inference, to solve the problem of selection bias, by reintegrate reject applicants in the process of granting credit. We use and compare different methods of reject inference, classical methods and semi supervised methods, we adapt some of them to our problem and show, on a real dataset, using ROC curves, that the semi-supervised methods give good results and are better than classical methods. We confirmed our results by simulation.

Page generated in 0.0766 seconds