Spelling suggestions: "subject:"epissage"" "subject:"fouissage""
51 |
Modélisation géométrique de surfaces lisses : design et fairingHahmann, Stéfanie 21 December 2001 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur deux aspects de la modélisation géométrique de surfaces lisses. L'ambition des recherches menées sur le thème de l'interpolation de triangulations polygonales quelconques par des surfaces polynomiales a été de revenir à la source du problème en introduisant un autre découpage, régulier en quatre cette fois ci, des triangles données en entrée. Nous présentons de nouvelles approches en insistant sur la résolution du problème de raccordement lisse de patchs triangulaires en un sommet commun ainsi que sur le choix optimal des paramètres de forme permettant de contrôler la qualité esthétique de la surface. De plus, l'invariance par subdivision d'un des schémas permet une hiérarchisation des procédés d'interpolation. Il devient alors possible d'avoir un modèle de surface multirésolution paramétrique, et permettant de décrire de topologies quelconques, applicable dans des domaines aussi divers que la CAO, la réalité virtuelle ou la médecine. Le deuxième thème concerne le lissage de surfaces B-splines. Deux types de méthodes, basées sur la diminution de la variation de courbures, sont présentés. Les premières utilisent des stratégies de recherche heuristiques ou systématiques. Les secondes reposent sur la convolution du réseau des points de contrôle de la surface par des filtres discrets.
|
52 |
Caractérisation de sources large bande dans le domaine temporel sans contraintes sur le nombre de capteursVillemin, Guilhem 30 October 2013 (has links) (PDF)
Cette thèse est consacrée à l'estimation des temps d'arrivée de signaux dans le cadre de la localisation active d'objets dans un contexte large bande et multitrajets sans contraintes sur le nombre de capteurs déployés. En s'inspirant des méthodes de traitement d'antenne, adaptées à l'estimation des temps d'arrivée, nous avons proposé une méthode afin d'estimer les paramètres de localisation d'un ensemble de sources ou d'objets réflecteurs d'un signal large bande connu. L'originalité de la méthode présentée réside dans le traitement spatialement incohérent des données, à savoir que l'information est traitée indépendamment sur chaque capteur. Les temps d'arrivée estimés sont ensuite associés à leurs sources respectives, ce qui permet de déterminer leurs positions géographiques. Pour s'affranchir de la corrélation des signaux reçus nous avons mis au point une méthode de lissage fréquentiel qui conserve toutefois une résolution temporelle optimale. Les performances de la méthode globale sont validées sur des données simulées et expérimentales.
|
53 |
Commande numérique ouverte : interpolation optimisée pour l'usinage 5 axes grande vitesse des surfaces complexesBeudaert, Xavier 04 July 2013 (has links) (PDF)
Le processus de fabrication des pièces usinées arrive à maturité concernant la fabrication assistée par ordinateur et la maîtrise du procédé d'usinage. Aujourd'hui, les perspectives d'améliorations importantes sont liées à l'optimisation de la commande numérique et de ses interactions avec le reste du processus de fabrication. L'objectif de cette thèse est donc de maîtriser les briques de base de la commande numérique pour optimiser le processus d'usinage 5 axes grande vitesse des surfaces complexes. La création d'une commande numérique ouverte nécessite le développement des algorithmes qui transforment le programme d'usinage en consignes échantillonnées pour les axes de la machine. La première partie des travaux consiste à rendre la géométrie suffisamment continue notamment pour les trajets interpolés linéairement en 5 axes qui présentent des discontinuités en tangence. Ensuite, l'interpolation temporelle du trajet crée la trajectoire d'usinage respectant les contraintes cinématiques et en particulier le jerk de chacun des 5 axes de la machine. L'implémentation matérielle de ces algorithmes permet de piloter une machine d'usinage grande vitesse 5 axes avec une commande numérique ouverte. Ainsi, les verrous technologiques associés aux commandes numériques industrielles sont levés et la chaîne numérique est entièrement contrôlée de la CFAO jusqu'au déplacement des axes. La maîtrise complète de la commande numérique offre la possibilité de définir exactement le trajet d'usinage à partir de la CAO sans introduire les écarts géométriques inhérents aux formats de description standards. L'interpolation de la trajectoire d'usinage directement sur la surface à usiner améliore de manière significative la qualité et la productivité de l'usinage des surfaces complexes. La commande numérique PREMIUM-OpenCNC permet la validation expérimentale de ces travaux et ouvre de nombreuses autres voies d'amélioration du processus de fabrication.
|
54 |
Les inégalités sociales dans la durée de vie la plus commune : la répartition des décès selon l'âge et le quintile de défavorisation au Québec en 2000-2002 et 2005-2007Lecours, Chantale 10 1900 (has links)
Nous avons choisi de focaliser nos analyses sur les inégalités sociales de mortalité spécifiquement aux grands âges. Pour ce faire, l'utilisation de l'âge modal au décès combiné à la dispersion des décès au-delà de cet âge s'avère particulièrement adapté pour capter ces disparités puisque ces mesures ne sont pas tributaires de la mortalité prématurée.
Ainsi, à partir de la distribution des âges au décès selon le niveau de défavorisation, au Québec au cours des périodes 2000-2002 et 2005-2007, nous avons déterminé l'âge le plus commun au décès et la dispersion des durées de vie au-delà de celui-ci. L'estimation de la distribution des décès selon l'âge et le niveau de défavorisation repose sur une approche non paramétrique de lissage par P-splines développée par Nadine Ouellette dans le cadre de sa thèse de doctorat.
Nos résultats montrent que l'âge modal au décès ne permet pas de détecter des disparités dans la mortalité des femmes selon le niveau de défavorisation au Québec en 2000-2002 et en 2005-2007. Néanmoins, on assiste à un report de la mortalité vers des âges plus avancés alors que la compression de la mortalité semble s'être stabilisée. Pour les hommes, les inégalités sociales de mortalité sont particulièrement importantes entre le sous-groupe le plus favorisé et celui l'étant le moins. On constate un déplacement de la durée de vie la plus commune des hommes vers des âges plus élevés et ce, peu importe le niveau de défavorisation. Cependant, contrairement à leurs homologues féminins, le phénomène de compression de la mortalité semble toujours s'opérer. / "Social inequalities in the most common age at death : the distribution of deaths by age and deprivation quintile in Quebec in 2000-2002 and 2005-2007"
We chose to focus our analysis on the social inequalities of mortality at older ages especially. The use of the modal age at death, combined with the dispersion of deaths above this age is particularly adapted to capture such disparities. Indeed, these measures are not dependent on premature mortality.
From the distribution of ages at death by level of deprivation in Quebec during the periods of 2000-2002 and 2005-2007, we determined the most common age at death and the dispersion of deaths above it. We first estimated the distribution of deaths by age and level of deprivation with a nonparametric smoothing approach based on P-splines developed by Nadine Ouellette in her doctoral thesis.
Our results show that the modal age at death does not allow to detect disparities in mortality among women by level of deprivation in Quebec in 2000-2002 and in 2005-2007. Nevertheless, mortality shifted to older ages, while the compression of mortality seems to have stabilized. For men, social inequalities in mortality are particularly important between the most and least favored subgroups. There is a shift in male modal age at death towards older ages, regardless of the level of deprivation. However, unlike their female counterparts, the phenomenon of compression of mortality still seems ongoing.
|
55 |
Optimisation du dimensionnement d'une chaîne de conversion électrique directe incluant un système de lissage de production par supercondensateurs : application au houlogénérateur SEAREVAubry, Judicaël 03 November 2011 (has links) (PDF)
Le travail présenté dans cette thèse porte sur l'étude du dimensionnement d'une chaine de conversion électrique en entrainement direct d'un système direct de récupération de l'énergie des vagues (searev). Cette chaine de conversion est composée d'une génératrice synchrone à aimants permanents solidaire d'un volant pendulaire, d'un convertisseur électronique composé de deux ponts triphasés à modulation de largeur d'impulsion, l'un contrôlant la génératrice, l'autre permettant d'injecter l'énergie électrique au réseau. En complément, un système de stockage de l'énergie (batterie de supercondensateurs) est destiné au lissage de la puissance produite. Le dimensionnement de tous ces éléments constitutifs nécessite une approche d'optimisation sur cycle, dans un contexte de fort couplage multi-physique notamment entre les parties hydrodynamique et électromécanique. Dans un premier temps, l'ensemble génératrice-convertisseur, dont le rôle est d'amortir le mouvement d'un volant pendulaire interne, est optimisé en vue de minimiser le coût de production de l'énergie (coût du kWh sur la durée d'usage). Cette optimisation sur cycle est réalisée en couplage fort avec le système houlogénérateur grâce à la prise en compte conjointe de variables d'optimisation relatives à l'ensemble convertisseur-machine mais aussi à la loi d'amortissement du volant pendulaire. L'intégration d'une stratégie de défluxage, intéressante pour assurer un fonctionnement en écrêtage de la puissance, permet, dès l'étape de dimensionnement, de traiter l'interaction convertisseur-machine. Dans un second temps, la capacité énergétique du système de stockage de l'énergie fait l'objet d'une optimisation en vue de la minimisation de son coût économique sur cycle de vie. Pour ce faire, nous définissons des critères de qualité de l'énergie injectée au réseau, dont un lié au flicker, et nous comparons des stratégies de gestion de l'état de charge tout en tenant compte du vieillissement en cyclage des supercondensateurs dû à la tension et à leur température. Dans un troisième temps, à partir de données d'états de mer sur une année entière, nous proposons des dimensionnements de chaines de conversion électrique qui présentent les meilleurs compromis en termes d'énergie totale récupérée et de coût d'investissement.
|
56 |
DÉVELOPPEMENT D'UN CAPTEUR DE DÉPLACEMENT À FIBRE OPTIQUE APPLIQUÉ À L'INCLINOMÉTRIE ET À LA SISMOLOGIEChawah, Patrick 30 November 2012 (has links) (PDF)
Le suivi de la déformation de la croûte terrestre durant la phase intersismique pour la recherche des transitoires nécessite des instruments précis capables d'opérer pour de très longues durées. Le projet ANR-LINES a visé le développement de trois nouveaux instruments : un sismomètre mono-axial, un inclinomètre hydrostatique à longue base et un inclinomètre de forage pendulaire. Ces trois instruments profitent d'un capteur interférométrique de déplacement à longues fibres optiques du type Fabry-Pérot Extrinsèque (EFFPI). Leurs architectures mécaniques et l'utilisation de longues fibres permettent à ces instruments géophysiques nouvellement fabriqués d'atteindre les objectifs fixés. Le premier objectif de cette étude est de proposer des méthodes adaptées à l'estimation de la phase du chemin optique dans les cavités Fabry-Pérot. Une modulation du courant de la diode laser, suivie par une démodulation homodyne du signal d'interférence et un filtre de Kalman permettent de déterminer la phase en temps réel. Les résultats sont convaincants pour des mesures de courtes durées mais exigent des solutions complémentaires pour se prémunir des effets de la variation des phénomènes environnementaux. Le capteur EFFPI intégré dans l'inclinomètre de forage LINES lui offre l'opportunité d'établir une mesure différentielle de l'oscillation de la masselotte pendulée grâce à trois cavités Fabry-Pérot. Le sismomètre LINES utilise lui aussi le capteur de déplacement EFFPI pour la mesure du déplacement de sa bobine. Une description de l'architecture mécanique de ces instruments et une analyse des phénomènes détectés (mouvements lents, marées, séismes, microséismes . . . ) font partie de cette thèse.
|
57 |
Quelques Problèmes de Statistique autour des processus de Poisson / Some Statistical Problems Around Poisson ProcessesMassiot, Gaspar 07 July 2017 (has links)
L’objectif principal de cette thèse est de développer des méthodologies statistiques adaptées au traitement de données issues de processus stochastiques et plus précisément de processus de Cox.Les problématiques étudiées dans cette thèse sont issues des trois domaines statistiques suivants : les tests non paramétriques, l’estimation non paramétrique à noyaux et l’estimation minimax.Dans un premier temps, nous proposons, dans un cadre fonctionnel, des statistiques de test pour détecter la nature Poissonienne d’un processus de Cox.Nous étudions ensuite le problème de l’estimation minimax de la régression sur un processus de Poisson ponctuel. En se basant sur la décomposition en chaos d’Itô, nous obtenons des vitesses comparables à celles atteintes pour le cas de la régression Lipschitz en dimension finie.Enfin, dans le dernier chapitre de cette thèse, nous présentons un estimateur non-paramétrique de l’intensité d’un processus de Cox lorsque celle-ci est une fonction déterministe d’un co-processus. / The main purpose of this thesis is to develop statistical methodologies for stochastic processes data and more precisely Cox process data.The problems considered arise from three different contexts: nonparametric tests, nonparametric kernel estimation and minimax estimation.We first study the statistical test problem of detecting wether a Cox process is Poisson or not.Then, we introduce a semiparametric estimate of the regression over a Poisson point process. Using Itô’s famous chaos expansion for Poisson functionals, we derive asymptotic minimax properties of our estimator.Finally, we introduce a nonparametric estimate of the intensity of a Cox process whenever it is a deterministic function of a known coprocess.
|
58 |
Jointly integrating current context and social influence for improving recommendation / Intégration simultanée du contexte actuel et de l'influence sociale pour l'amélioration de la recommandationBambia, Meriam 13 June 2017 (has links)
La diversité des contenus recommandation et la variation des contextes des utilisateurs rendent la prédiction en temps réel des préférences des utilisateurs de plus en plus difficile mettre en place. Toutefois, la plupart des approches existantes n'utilisent que le temps et l'emplacement actuels séparément et ignorent d'autres informations contextuelles sur lesquelles dépendent incontestablement les préférences des utilisateurs (par exemple, la météo, l'occasion). En outre, ils ne parviennent pas considérer conjointement ces informations contextuelles avec les interactions sociales entre les utilisateurs. D'autre part, la résolution de problèmes classiques de recommandation (par exemple, aucun programme de télévision vu par un nouvel utilisateur connu sous le nom du problème de démarrage froid et pas assez d'items co-évalués par d'autres utilisateurs ayant des préférences similaires, connu sous le nom du problème de manque de donnes) est d'importance significative puisque sont attaqués par plusieurs travaux. Dans notre travail de thèse, nous proposons un modèle probabiliste qui permet exploiter conjointement les informations contextuelles actuelles et l'influence sociale afin d'améliorer la recommandation des items. En particulier, le modèle probabiliste vise prédire la pertinence de contenu pour un utilisateur en fonction de son contexte actuel et de son influence sociale. Nous avons considérer plusieurs éléments du contexte actuel des utilisateurs tels que l'occasion, le jour de la semaine, la localisation et la météo. Nous avons utilisé la technique de lissage Laplace afin d'éviter les fortes probabilités. D'autre part, nous supposons que l'information provenant des relations sociales a une influence potentielle sur les préférences des utilisateurs. Ainsi, nous supposons que l'influence sociale dépend non seulement des évaluations des amis mais aussi de la similarité sociale entre les utilisateurs. Les similarités sociales utilisateur-ami peuvent être établies en fonction des interactions sociales entre les utilisateurs et leurs amis (par exemple les recommandations, les tags, les commentaires). Nous proposons alors de prendre en compte l'influence sociale en fonction de la mesure de similarité utilisateur-ami afin d'estimer les préférences des utilisateurs. Nous avons mené une série d'expérimentations en utilisant un ensemble de donnes réelles issues de la plateforme de TV sociale Pinhole. Cet ensemble de donnes inclut les historiques d'accès des utilisateurs-vidéos et les réseaux sociaux des téléspectateurs. En outre, nous collectons des informations contextuelles pour chaque historique d'accès utilisateur-vidéo saisi par le système de formulaire plat. Le système de la plateforme capture et enregistre les dernières informations contextuelles auxquelles le spectateur est confronté en regardant une telle vidéo.Dans notre évaluation, nous adoptons le filtrage collaboratif axé sur le temps, le profil dépendant du temps et la factorisation de la matrice axe sur le réseau social comme tant des modèles de référence. L'évaluation a port sur deux tâches de recommandation. La première consiste sélectionner une liste trie de vidéos. La seconde est la tâche de prédiction de la cote vidéo. Nous avons évalué l'impact de chaque élément du contexte de visualisation dans la performance de prédiction. Nous testons ainsi la capacité de notre modèle résoudre le problème de manque de données et le problème de recommandation de démarrage froid du téléspectateur. Les résultats expérimentaux démontrent que notre modèle surpasse les approches de l'état de l'art fondes sur le facteur temps et sur les réseaux sociaux. Dans les tests des problèmes de manque de donnes et de démarrage froid, notre modèle renvoie des prédictions cohérentes différentes valeurs de manque de données. / Due to the diversity of alternative contents to choose and the change of users' preferences, real-time prediction of users' preferences in certain users' circumstances becomes increasingly hard for recommender systems. However, most existing context-aware approaches use only current time and location separately, and ignore other contextual information on which users' preferences may undoubtedly depend (e.g. weather, occasion). Furthermore, they fail to jointly consider these contextual information with social interactions between users. On the other hand, solving classic recommender problems (e.g. no seen items by a new user known as cold start problem, and no enough co-rated items with other users with similar preference as sparsity problem) is of significance importance since it is drawn by several works. In our thesis work, we propose a context-based approach that leverages jointly current contextual information and social influence in order to improve items recommendation. In particular, we propose a probabilistic model that aims to predict the relevance of items in respect with the user's current context. We considered several current context elements such as time, location, occasion, week day, location and weather. In order to avoid strong probabilities which leads to sparsity problem, we used Laplace smoothing technique. On the other hand, we argue that information from social relationships has potential influence on users' preferences. Thus, we assume that social influence depends not only on friends' ratings but also on social similarity between users. We proposed a social-based model that estimates the relevance of an item in respect with the social influence around the user on the relevance of this item. The user-friend social similarity information may be established based on social interactions between users and their friends (e.g. recommendations, tags, comments). Therefore, we argue that social similarity could be integrated using a similarity measure. Social influence is then jointly integrated based on user-friend similarity measure in order to estimate users' preferences. We conducted a comprehensive effectiveness evaluation on real dataset crawled from Pinhole social TV platform. This dataset includes viewer-video accessing history and viewers' friendship networks. In addition, we collected contextual information for each viewer-video accessing history captured by the plat form system. The platform system captures and records the last contextual information to which the viewer is faced while watching such a video. In our evaluation, we adopt Time-aware Collaborative Filtering, Time-Dependent Profile and Social Network-aware Matrix Factorization as baseline models. The evaluation focused on two recommendation tasks. The first one is the video list recommendation task and the second one is video rating prediction task. We evaluated the impact of each viewing context element in prediction performance. We tested the ability of our model to solve data sparsity and viewer cold start recommendation problems. The experimental results highlighted the effectiveness of our model compared to the considered baselines. Experimental results demonstrate that our approach outperforms time-aware and social network-based approaches. In the sparsity and cold start tests, our approach returns consistently accurate predictions at different values of data sparsity.
|
59 |
Estimation non-paramétrique du quantile conditionnel et apprentissage semi-paramétrique : applications en assurance et actuariat / Nonparametric estimation of conditional quantile and semi-parametric learning : applications on insurance and actuarial dataKnefati, Muhammad Anas 19 November 2015 (has links)
La thèse se compose de deux parties : une partie consacrée à l'estimation des quantiles conditionnels et une autre à l'apprentissage supervisé. La partie "Estimation des quantiles conditionnels" est organisée en 3 chapitres : Le chapitre 1 est consacré à une introduction sur la régression linéaire locale, présentant les méthodes les plus utilisées, pour estimer le paramètre de lissage. Le chapitre 2 traite des méthodes existantes d’estimation nonparamétriques du quantile conditionnel ; Ces méthodes sont comparées, au moyen d’expériences numériques sur des données simulées et des données réelles. Le chapitre 3 est consacré à un nouvel estimateur du quantile conditionnel et que nous proposons ; Cet estimateur repose sur l'utilisation d'un noyau asymétrique en x. Sous certaines hypothèses, notre estimateur s'avère plus performant que les estimateurs usuels.<br> La partie "Apprentissage supervisé" est, elle aussi, composée de 3 chapitres : Le chapitre 4 est une introduction à l’apprentissage statistique et les notions de base utilisées, dans cette partie. Le chapitre 5 est une revue des méthodes conventionnelles de classification supervisée. Le chapitre 6 est consacré au transfert d'un modèle d'apprentissage semi-paramétrique. La performance de cette méthode est montrée par des expériences numériques sur des données morphométriques et des données de credit-scoring. / The thesis consists of two parts: One part is about the estimation of conditional quantiles and the other is about supervised learning. The "conditional quantile estimate" part is organized into 3 chapters. Chapter 1 is devoted to an introduction to the local linear regression and then goes on to present the methods, the most used in the literature to estimate the smoothing parameter. Chapter 2 addresses the nonparametric estimation methods of conditional quantile and then gives numerical experiments on simulated data and real data. Chapter 3 is devoted to a new conditional quantile estimator, we propose. This estimator is based on the use of asymmetrical kernels w.r.t. x. We show, under some hypothesis, that this new estimator is more efficient than the other estimators already used.<br> The "supervised learning" part is, too, with 3 chapters: Chapter 4 provides an introduction to statistical learning, remembering the basic concepts used in this part. Chapter 5 discusses the conventional methods of supervised classification. Chapter 6 is devoted to propose a method of transferring a semiparametric model. The performance of this method is shown by numerical experiments on morphometric data and credit-scoring data.
|
60 |
Analyse de la distribution des décès aux grands âges selon le niveau de scolarité à partir d’un suivi de la mortalité sur 20 ans au CanadaCanon, Lorena 02 1900 (has links)
No description available.
|
Page generated in 0.0513 seconds