• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 9
  • 7
  • Tagged with
  • 80
  • 35
  • 17
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar

Monot, Aurélien 29 November 2012 (has links) (PDF)
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérifica- tion des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous dé- crivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibili- tés d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous pré- sentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents para- mètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentale- ment les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches.
32

Contributions aux méthodes de localisation et cartographie simultanées par vision omnidirectionnelle

Joly, Cyril 30 June 2010 (has links) (PDF)
Estimer le mouvement d'un robot mobile tout en construisant une représentation de son environnement est un problème essentiel pour le développement des robots autonomes : il est connu sous l'acronyme de SLAM (Simultaneous Localization and Mapping). Nous nous intéressons dans cette thèse au SLAM visuel avec caméra omnidirectionnelle. L'environnement est représenté par des amers ponctuels dont la profondeur n'est pas mesurée directement. Nous nous sommes d'abord intéressés aux méthodes de résolution du SLAM. Deux approches ont retenu notre attention de part leur consistance : le SAM (Smoothing and Mapping : une méthode de lissage probabiliste prenant en compte toute la trajectoire) et l'analyse par intervalles. Une étude en simulation a été menée et conclut que la méthode d'analyse par intervalles est inadaptée au SLAM visuel en raison de la faible redondance d'informations. Le SAM a ensuite été validé sur des données réelles, dans les cas de deux trajectoires planes et d'une à 6 degrés de liberté. Un problème du SLAM est sa complexité calculatoire quadratique avec le nombre d'amers. Il est souvent résolu en segmentant l'environnement en cartes locales. Nous avons repris ce concept en l'améliorant sur deux points. Premièrement, chaque nouvelle carte intègre les informations de la précédente de façon consistante. Ensuite, le critère déterminant quand changer de carte impose désormais que chaque carte locale soit fortement corrélée, ce qui permet de limiter l'augmentation des incertitudes. Nous avons finalement utilisé cet aspect pour appliquer des algorithmes déterministes pour augmenter la représentation ponctuelle par des plans texturés et une visualisation pertinente de l'espace libre.
33

Détection et localisation d'objets enfouis dans le sédiment marin

Saidi, Zineb 06 September 2006 (has links) (PDF)
Cette étude propose une nouvelle méthode pour estimer l'angle et la distance afin de localiser des objets reposants sur le fond ou enfouis dans les sédiments marins. L'originalité de cette méthode réside en l'estimation simultanée de l'angle et la distance dans un environnement bruité et en présence de signaux corrélés. Les statistiques d'ordre supérieur ont été utilisées pour pallier au problème du bruit et ceci en formant la matrice des cumulants pour chaque fréquence. Ensuite, un lissage fréquentiel est appliqué pour former la matrice des cumulants focalisée afin d'estimer le sous-espace signal cohérent. C'est ce dernier traitement qui permet de décorréler les signaux. Ainsi, pour estimer les paramètres des objets, la matrice interspectrale est remplacée par la matrice des cumulants focalisée et le modèle du champ acoustique diffusé est utilisé au lieu du modèle d'onde plane dans la méthode MUSIC (MUltiple SIgnal Classification). D'autre part, les déphasages des signaux dus aux déformations de l'antenne ont été estimés en utilisant l'algorithme DIRECT (DIviding RECTangles). Les performances de cette méthode ont été évaluées sur des données réelles mesurées dans une cuve expérimentale où plusieurs objets ont été enfouis sous le sable. La méthode proposée est supérieure en terme de performances comparée aux méthodes classiques. Cette supériorité est vérifiée qu'elle que soit la position de l'objet, champ lointain ou de champ proche de l'antenne. Les bons résultats de la localisation des objets sont encourageants et très prometteurs.
34

Contribution à l'amélioration de la qualité des états de surfaces des prothèses orthopédiques / Contribution to the surface quality improvement of orthopedic prostheses

Azzam, Noureddine 19 October 2015 (has links)
Une prothèse de genou est généralement, composée de deux parties fixées respectivement sur le fémur et sur le tibia et d’une troisième, dite intercalaire. Durant le processus de fabrication de ces composants des déformations apparaissent au niveau des bruts de fonderie. Les fabricants de prothèses choisissent d’assurer l’épaisseur nominale de la prothèse en enlevant une épaisseur constante sur le brut de fonderie. Cette opération est généralement réalisée manuellement. L’objectif de ces travaux de thèse est de contribuer à l’automatisation de ces opérations en proposant une méthode d’adaptation des trajectoires d’usinage aux variations géométriques de la surface cible. L’objectif de ce travail de recherche est d’adapter une trajectoire d’usinage sur un modèle nominal pour enlever une épaisseur constante sur une surface brute de fonderie mesurée. La méthode proposée commence par une étape d’alignement de la surface mesurée sur la trajectoire nominale en utilisant un algorithme d’ICP. Par la suite, la trajectoire nominale est déformée pour venir enlever l'épaisseur désirée sur la surface brute mesurée. Cette dernière est définie, dans ces travaux, suivant un modèle STL. Naturellement, les discontinuités de ce type de modèle induit une impression des motifs du STL sur la trajectoire adaptée et, donc, sur la pièce usinée. Par la suite, afin de d’atténuer ce problème et d’améliorer la qualité de fabrication, il est proposé de procéder à un lissage de la trajectoire.Afin de valider les développements théoriques de ces travaux, des essais ont été réalisés sur une machine cinq axes pour l’ébauche de composants fémoraux d’une prothèse uni-compartimentale de genou. / Commonly, knee prostheses are composed of two parts fixed respectively on femur and tibia, and a third one called intercalary. During the manufacturing process, of these components distortions appear on roughcast workpiece geometry. Thus, prosthesis manufacturers choose to ensure the nominal thickness of the prosthesis by removing a constant thickness on the roughcast workpiece. This operation is generally carried out realized manually.The aim of this thesis is to contribute to the automation of these manual operations by providing a method to adapt the machining toolpaths at geometrical variations of the target surface. The aim of this research work is to adapt a machining toolpath computed on a nominal model to remove a constant thickness on a roughcast measured surface. The proposed method starts with an alignment step of the measured surface on the nominal toolpath using an ICP algorithm. Subsequently, the nominal toolpath is deformed to remove the desired thickness of the measured rough surface defined in presented case by a STL model. Naturally, discontinuities of this type of model induce the apparition of pattern for the STL on the adapted toolpath and thus on the machined workpiece. Subsequently, to limit this problem and to improve the quality of realized surface, it is proposed a toolpath smoothing method. To validate theoretical developments of this work, tests were carried out on a five-axis machine for roughing of femoral components of a unicompartmental knee prosthesis.
35

Dégivrage des pompes à chaleur sur l’air : influence de la mouillabilité des ailettes d’échangeurs extérieurs et contrôle des flux hydriques lors du givrage et du dégivrage

Leboi, Jérémy 06 June 2012 (has links)
Dans un contexte de limitation de la consommation en énergie fossile et de développement durable, les pompes à chaleur présentent un intérêt majeur. Les obstacles rencontrés, notamment le givrage compact, freinent leur utilisation. La mise en place de nouveaux matériaux, par exemple par des propriétés de mouillage particulières, est une voie innovante. L’étude des déplacements de gouttes et de ponts entre ailettes, par résolution des équations de Navier-Stokes, permet de comprendre localement les écoulements et de caractériser l'effet du mouillage (modèle numérique d'angle de contact) et du confinement. Plusieurs études ont été menées sur des gouttes et des ponts liquides, soumis à des écoulements sur parois inclinées, lors desquelles des comportements significatifs ont été mis au jour et permettent de mettre en place des solutions efficaces pour les enjeux industriels. Une approche des phénomènes de mouillage extrêmes (superhydrophobie) a été réalisée et montre leur intérêt d’un point de vue performance. En revanche, le coût nécessaire pour réaliser les simulations reste très important, et des pistes ont été abordées pour palier à cette difficulté. En parallèle, une méthode de changement d’état a été développée dans le code de calculs scientifiques Thétis pour prédire l'évacuation de la glace lors du dégivrage sur des géométries simples ou réelles. Cette approche originale basée sur la méthode Volume Of Fluid, dérivée de méthodes existantes en Front-Tracking, montre une faisabilité et une efficacité intéressante. / In a context of limiting the consumption of fossil energy and of sustainable development, heat pumps are of major interest. Some issues, including icing compaction, reduce its use. The introduction of new materials, including special wetting properties, is an innovative way. The study of displacement of drops and liquid bridges between fins, by solving the Navier-Stokes equations, allows us to understand local flows and to characterize the effect of wetting (numerical model of contact angle which depends on controlling the smoothing of Volume Of Fluid function) and of containment. Several studies have been conducted on the drops and liquid bridges submitted to flow on sloping walls, driving to significant behaviors. These studies can implement effective solutions to industrial difficulties. An approach to extreme wetting phenomena (superhydrophobicity) was performed and showed their interest to a good evacuation efficiency but also the cost to achieve the simulations. Several possibilities were discussed to overcome this difficulty. In parallel, a method of phase change was developed in the code of scientific computing Thetis to simulate the evacuation of ice during defrosting periods on simple geometries or more complex ones. An innovative approach based on Volume Of Fluid method, derived from methods available in Front-Tracking shows its feasibility and efficiency.
36

Modèle espace-état : estimation bayésienne du NAIRU américain

Djolaud, Guy Arnold 08 1900 (has links)
No description available.
37

ARIMA demand forecasting by aggregation / Prévision de la demande type ARIMA par agrégation

Rostami Tabar, Bahman 10 December 2013 (has links)
L'objectif principal de cette recherche est d'analyser les effets de l'agrégation sur la prévision de la demande. Cet effet est examiné par l'analyse mathématique et l’étude de simulation. L'analyse est complétée en examinant les résultats sur un ensemble de données réelles. Dans la première partie de cette étude, l'impact de l'agrégation temporelle sur la prévision de la demande a été évalué. En suite, Dans la deuxième partie de cette recherche, l'efficacité des approches BU(Bottom-Up) et TD (Top-Down) est analytiquement évaluée pour prévoir la demande au niveau agrégé et désagrégé. Nous supposons que la série désagrégée suit soit un processus moyenne mobile intégrée d’ordre un, ARIMA (0,1,1), soit un processus autoregressif moyenne mobile d’ordre un, ARIMA (1,0,1) avec leur cas spéciales. / Demand forecasting performance is subject to the uncertainty underlying the time series an organisation is dealing with. There are many approaches that may be used to reduce demand uncertainty and consequently improve the forecasting (and inventory control) performance. An intuitively appealing such approach that is known to be effective is demand aggregation. One approach is to aggregate demand in lower-frequency ‘time buckets’. Such an approach is often referred to, in the academic literature, as temporal aggregation. Another approach discussed in the literature is that associated with cross-sectional aggregation, which involves aggregating different time series to obtain higher level forecasts.This research discusses whether it is appropriate to use the original (not aggregated) data to generate a forecast or one should rather aggregate data first and then generate a forecast. This Ph.D. thesis reveals the conditions under which each approach leads to a superior performance as judged based on forecast accuracy. Throughout this work, it is assumed that the underlying structure of the demand time series follows an AutoRegressive Integrated Moving Average (ARIMA) process.In the first part of our1 research, the effect of temporal aggregation on demand forecasting is analysed. It is assumed that the non-aggregate demand follows an autoregressive moving average process of order one, ARMA(1,1). Additionally, the associated special cases of a first-order autoregressive process, AR(1) and a moving average process of order one, MA(1) are also considered, and a Single Exponential Smoothing (SES) procedure is used to forecast demand. These demand processes are often encountered in practice and SES is one of the standard estimators used in industry. Theoretical Mean Squared Error expressions are derived for the aggregate and the non-aggregate demand in order to contrast the relevant forecasting performances. The theoretical analysis is validated by an extensive numerical investigation and experimentation with an empirical dataset. The results indicate that performance improvements achieved through the aggregation approach are a function of the aggregation level, the smoothing constant value used for SES and the process parameters.In the second part of our research, the effect of cross-sectional aggregation on demand forecasting is evaluated. More specifically, the relative effectiveness of top-down (TD) and bottom-up (BU) approaches are compared for forecasting the aggregate and sub-aggregate demands. It is assumed that that the sub-aggregate demand follows either a ARMA(1,1) or a non-stationary Integrated Moving Average process of order one, IMA(1,1) and a SES procedure is used to extrapolate future requirements. Such demand processes are often encountered in practice and, as discussed above, SES is one of the standard estimators used in industry (in addition to being the optimal estimator for an IMA(1) process). Theoretical Mean Squared Errors are derived for the BU and TD approach in order to contrast the relevant forecasting performances. The theoretical analysis is supported by an extensive numerical investigation at both the aggregate and sub-aggregate levels in addition to empirically validating our findings on a real dataset from a European superstore. The results show that the superiority of each approach is a function of the series autocorrelation, the cross-correlation between series and the comparison level.Finally, for both parts of the research, valuable insights are offered to practitioners and an agenda for further research in this area is provided.
38

Optimisation non-lisse pour l'apprentissage statistique avec régularisation matricielle structurée / Nonsmooth optimization for statistical learning with structured matrix regularization

Pierucci, Federico 23 June 2017 (has links)
La phase d’apprentissage des méthodes d’apprentissage statistique automatique correspondent à la résolution d’un problème d’optimisation mathématique dont la fonction objectif se décompose en deux parties: a) le risque empirique, construit à partir d’une fonction de perte, dont la forme est déterminée par la métrique de performance et les hypothèses sur le bruit; b) la pénalité de régularisation, construite a partir d’une norme ou fonction jauge, dont la structure est déterminée par l’information à priori disponible sur le problème a résoudre.Les fonctions de perte usuelles, comme la fonction de perte charnière pour la classification supervisée binaire, ainsi que les fonctions de perte plus avancées comme celle pour la classification supervisée avec possibilité d’abstention, sont non-différentiables. Les pénalités de régularisation comme la norme l1 (vectorielle), ainsi que la norme nucléaire (matricielle), sont également non- différentiables. Cependant, les algorithmes d’optimisation numériques les plus simples, comme l’algorithme de sous-gradient ou les méthodes de faisceaux, ne tirent pas profit de la structure composite de l’objectif. Le but de cette thèse est d’étudier les problèmes d’apprentissage doublement non-différentiables (perte non- différentiable et régularisation non-différentiable), ainsi que les algorithmes d’optimisation numérique qui sont en mesure de bénéficier de cette structure composite.Dans le premier chapitre, nous présentons une nouvelle famille de pénalité de régularisation, les normes de Schatten par blocs, qui généralisent les normes de Schatten classiques. Nous démontrons les principales propriétés des normes de Schatten par blocs en faisant appel à des outils d’analyse convexe et d’algèbre linéaire; nous retrouvons en particulier des propriétés caractérisant les normes proposées en termes d’enveloppe convexes. Nous discutons plusieurs applications potentielles de la norme nucléaire par blocs, pour le filtrage collaboratif, la compression de bases de données, et l’annotation multi-étiquettes d’images.Dans le deuxième chapitre, nous présentons une synthèse de différentes tech- niques de lissage qui permettent d’utiliser des algorithmes de premier ordre adaptes aux objectifs composites qui de décomposent en un terme différentiable et un terme non-différentiable. Nous montrons comment le lissage peut être utilisé pour lisser la fonction de perte correspondant à la précision au rang k, populaire pour le classement et la classification supervises d’images. Nous décrivons dans les grandes lignes plusieurs familles d’algorithmes de premier ordre qui peuvent bénéficier du lissage: i) les algorithmes de gradient conditionnel; ii) les algorithmes de gradient proximal; iii) les algorithmes de gradient incrémental.Dans le troisième chapitre, nous étudions en profondeur les algorithmes de gradient conditionnel pour les problèmes d’optimisation non-différentiables d’apprentissage statistique automatique. Nous montrons qu’une stratégie de lis- sage adaptative associée à un algorithme de gradient conditionnel donne lieu à de nouveaux algorithmes de gradient conditionnel qui satisfont des garanties de convergence théoriques. Nous présentons des résultats expérimentaux prometteurs des problèmes de filtrage collaboratif pour la recommandation de films et de catégorisation d’images. / Training machine learning methods boils down to solving optimization problems whose objective functions often decomposes into two parts: a) the empirical risk, built upon the loss function, whose shape is determined by the performance metric and the noise assumptions; b) the regularization penalty, built upon a norm, or a gauge function, whose structure is determined by the prior information available for the problem at hand.Common loss functions, such as the hinge loss for binary classification, or more advanced loss functions, such as the one arising in classification with reject option, are non-smooth. Sparse regularization penalties such as the (vector) l1- penalty, or the (matrix) nuclear-norm penalty, are also non-smooth. However, basic non-smooth optimization algorithms, such as subgradient optimization or bundle-type methods, do not leverage the composite structure of the objective. The goal of this thesis is to study doubly non-smooth learning problems (with non-smooth loss functions and non-smooth regularization penalties) and first- order optimization algorithms that leverage composite structure of non-smooth objectives.In the first chapter, we introduce new regularization penalties, called the group Schatten norms, to generalize the standard Schatten norms to block- structured matrices. We establish the main properties of the group Schatten norms using tools from convex analysis and linear algebra; we retrieve in particular some convex envelope properties. We discuss several potential applications of the group nuclear-norm, in collaborative filtering, database compression, multi-label image tagging.In the second chapter, we present a survey of smoothing techniques that allow us to use first-order optimization algorithms designed for composite objectives decomposing into a smooth part and a non-smooth part. We also show how smoothing can be used on the loss function corresponding to the top-k accuracy, used for ranking and multi-class classification problems. We outline some first-order algorithms that can be used in combination with the smoothing technique: i) conditional gradient algorithms; ii) proximal gradient algorithms; iii) incremental gradient algorithms.In the third chapter, we study further conditional gradient algorithms for solving doubly non-smooth optimization problems. We show that an adaptive smoothing combined with the standard conditional gradient algorithm gives birth to new conditional gradient algorithms having the expected theoretical convergence guarantees. We present promising experimental results in collaborative filtering for movie recommendation and image categorization.
39

Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles / Smoothing and estimation methods in hidden variable models through sequential Monte-Carlo methods

Dubarry, Cyrille 09 October 2012 (has links)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles / Hidden Markov chain models or more generally Feynman-Kac models are now widely used. They allow the modelling of a variety of time series (in finance, biology, signal processing, ...) Their increasing complexity gave birth to approximations using Monte-Carlo methods, among which Markov Chain Monte-Carlo (MCMC) and Sequential Monte-Carlo (SMC). SMC methods applied to particle filtering and smoothing are dealt with in this thesis. These methods consist in approximating the law of interest through a particle population sequentially defined. Different algorithms have already been developed and studied in the literature. We make some of these results more precise in the particular of the Forward Filtering Backward Smoothing and Forward Filtering Backward Simulation by showing exponential deviation inequalities and by giving non-asymptotic upper bounds to the mean error. We also introduce a new smoothing algorithm improving a particle population through MCMC iterations and allowing to estimate the estimator variance without further simulation. Part of the work presented in this thesis is devoted to the parallel computing of particle estimators. We study different interaction schemes between several particle populations. Finally, we also illustrate the use of hidden Markov chains in the modelling of financial data through an algorithm using Expectation-Maximization to calibrate the exponential Ornstein-Uhlenbeck multiscale stochastic volatility model
40

Classification automatique des diatomées

Benjira, Mohammed Amine January 2019 (has links) (PDF)
No description available.

Page generated in 0.0436 seconds