• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 95
  • 29
  • 1
  • 1
  • Tagged with
  • 298
  • 131
  • 65
  • 53
  • 48
  • 48
  • 37
  • 37
  • 36
  • 31
  • 31
  • 29
  • 29
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Traitements SAR multivoies pour la détection de cibles mobiles / Multi-channel SAR processing for moving target indication

Taylor, Abigael 02 December 2016 (has links)
Le Synthetic Aperture Radar (SAR) aéroporté permet d’obtenir des images hautes résolutions, en compensant un déphasage lié au déplacement de l’avion. Il n’est cependant pas adapté à l’imagerie des cibles mobiles, celles-ci introduisant un déphasage supplémentaire, dépendant de leur vitesse et de leur accélération. En utilisant un système SAR multivoies, il est cependant possible de réaliser des traitements adaptés aux cibles mobiles, dont les principes sont proches du Space-Time Adaptive Processing (STAP). Le Synthetic Aperture Radar (SAR) aéroporté permet d’obtenir des images hautes résolutions, en compensant un déphasage lié au déplacement de l’avion. Il n’est cependant pas adapté à l’imagerie des cibles mobiles, celles-ci introduisant un déphasage supplémentaire, dépendant de leur vitesse et de leur accélération. En utilisant un système SAR multivoies, il est cependant possible de réaliser des traitements adaptés aux cibles mobiles, dont les principes sont proches du Space-Time Adaptive Processing (STAP). / Airborne Synthetic Aperture Radar (SAR) provides high-resolution images, by compensating a phase shift linked to the platform movement. However, this processing is not suited for imaging moving target, for they introduce an additional phase shift, depending on their velocity and acceleration. By using a multichannel SAR system, it is possible to correctly process moving targets. Such a processing is closely related to Space-Time Adaptive Processing (STAP) principles. Airborne Synthetic Aperture Radar (SAR) provides high-resolution images, by compensating a phase shift linked to the platform movement. However, this processing is not suited for imaging moving target, for they introduce an additional phase shift, depending on their velocity and acceleration. By using a multichannel SAR system, it is possible to correctly process moving targets. Such a processing is closely related to Space-Time Adaptive Processing (STAP) principles.
192

Neurobiologically-inspired models : exploring behaviour prediction, learning algorithms, and reinforcement learning

Spinney, Sean 11 1900 (has links)
Le développement du domaine de l’apprentissage profond doit une grande part de son avancée aux idées inspirées par la neuroscience et aux études sur l’apprentissage humain. De la découverte de l’algorithme de rétropropagation à la conception d’architectures neuronales comme les Convolutional Neural Networks, ces idées ont été couplées à l’ingénierie et aux améliorations technologiques pour engendrer des algorithmes performants en utilisation aujourd’hui. Cette thèse se compose de trois articles, chacun éclairant des aspects distincts du thème central de ce domaine interdisciplinaire. Le premier article explore la modélisation prédictive avec des données d’imagerie du cerveau de haute dimension en utilisant une nouvelle approche de régularisation hybride. Dans de nombreuses applications pratiques (comme l’imagerie médicale), l’attention se porte non seulement sur la précision, mais également sur l’interprétabilité d’un modèle prédictif formé sur des données haute dimension. Cette étude s’attache à combiner la régularisation l1 et l2, qui régularisent la norme des gradients, avec l’approche récemment proposée pour la modélisation prédictive robuste, l’Invariant Learning Consistency, qui impose l’alignement entre les gradients de la même classe lors de l’entraînement. Nous examinons ici la capacité de cette approche combinée à identifier des prédicteurs robustes et épars, et nous présentons des résultats prometteurs sur plusieurs ensembles de données. Cette approche tend à améliorer la robustesse des modèles épars dans presque tous les cas, bien que les résultats varient en fonction des conditions. Le deuxième article se penche sur les algorithmes d’apprentissage inspirés de la biologie, en se concentrant particulièrement sur la méthode Difference Target Propagation (DTP) tout en l’intégrant à l’optimisation Gauss-Newton. Le développement de tels algorithmes biologiquement plausibles possède une grande importance pour comprendre les processus d’apprentissage neuronale, cependant leur extensibilité pratique à des tâches réelles est souvent limitée, ce qui entrave leur potentiel explicatif pour l’apprentissage cérébral réel. Ainsi, l’exploration d’algorithmes d’apprentissage qui offrent des fondements théoriques solides et peuvent rivaliser avec la rétropropagation dans des tâches complexes gagne en importance. La méthode Difference Target Propagation (DTP) se présente comme une candidate prometteuse, caractérisée par son étroite relation avec les principes de l’optimisation Gauss-Newton. Néanmoins, la rigueur de cette relation impose des limites, notamment en ce qui concerne la formation couche par couche des poids synaptiques du chemin de rétroaction, une configuration considérée comme plus biologiquement plausible. De plus, l’alignement entre les mises à jour des poids DTP et les gradients de perte est conditionnel et dépend des scénarios d’architecture spécifiques. Cet article relève ces défis en introduisant un schéma innovant d’entraînement des poids de rétroaction. Ce schéma harmonise la DTP avec la BP, rétablissant la viabilité de la formation des poids de rétroaction couche par couche sans compromettre l’intégrité théorique. La validation empirique souligne l’efficacité de ce schéma, aboutissant à des performances exceptionnelles de la DTP sur CIFAR-10 et ImageNet 32×32. Enfin, le troisième article explore la planification efficace dans la prise de décision séquentielle en intégrant le calcul adaptatif à des architectures d’apprentissage profond existantes, dans le but de résoudre des casse-tête complexes. L’étude introduit des principes de calcul adaptatif inspirés des processus cognitifs humains, ainsi que des avancées récentes dans le domaine du calcul adaptatif. En explorant en profondeur les comportements émergents du modèle de mémoire adaptatif entraîné, nous identifions plusieurs comportements reconnaissables similaires aux processus cognitifs humains. Ce travail élargit la discussion sur le calcul adaptatif au-delà des gains évidents en efficacité, en explorant les comportements émergents en raison des contraintes variables généralement attribuées aux processus de la prise de décision chez les humains. / The development of the field of deep learning has benefited greatly from biologically inspired insights from neuroscience and the study of human learning more generally, from the discovery of backpropagation to neural architectures such as the Convolutional Neural Network. Coupled with engineering and technological improvements, the distillation of good strategies and algorithms for learning inspired from biological observation is at the heart of these advances. Although it would be difficult to enumerate all useful biases that can be learned by observing humans, they can serve as a blueprint for intelligent systems. The following thesis is composed of three research articles, each shedding light on distinct facets of the overarching theme. The first article delves into the realm of predictive modeling on high-dimensional fMRI data, a landscape where not only accuracy but also interpretability are crucial. Employing a hybrid approach blending l1 and l2 regularization with Invariant Learning Consistency, this study unveils the potential of identifying robust, sparse predictors capable of transmuting noise laden datasets into coherent observations useful for pushing the field forward. Conversely, the second article delves into the domain of biologically-plausible learning algorithms, a pivotal endeavor in the comprehension of neural learning processes. In this context, the investigation centers upon Difference Target Propagation (DTP), a prospective framework closely related to Gauss-Newton optimization principles. This exploration delves into the intricate interplay between DTP and the tenets of biologically-inspired learning mechanisms, revealing an innovative schema for training feedback weights. This schema reinstates the feasibility of layer-wise feedback weight training within the DTP framework, while concurrently upholding its theoretical integrity. Lastly, the third article explores the role of memory in sequential decision-making, and proposes a model with adaptive memory. This domain entails navigating complex decision sequences within discrete state spaces, where the pursuit of efficiency encounters difficult scenarios such as the risk of critical irreversibility. The study introduces adaptive computation principles inspired by human cognitive processes, as well as recent advances in adaptive computing. By studying in-depth the emergent behaviours exhibited by the trained adaptive memory model, we identify several recognizable behaviours akin to human cognitive processes. This work expands the discussion of adaptive computing beyond the obvious gains in efficiency, but to behaviours emerging due to varying constraints usually attributable to dynamic response times in humans.
193

Etude d'estimations d'erreur a posteriori et d'adaptivité basée sur des critères d'arrêt et raffinement de maillages pour des problèmes d'écoulements multiphasiques et thermiques. Application aux procédés de récupération assistée d'huile

Yousef, Soleiman 10 December 2013 (has links) (PDF)
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénér ées multidimensionnelles modélisant des problèmes importants pour l'industrie. Au chapitre 1 nous considérons le problème de Stefan instationaire a deux phases qui modélise un processus de changement de phase régi par la loi de Fourier. Nous régularisons la relation entre l'enthalpie et la température et nous discrétisons le problème par la méthode d'Euler implicite en temps et un schéma numérique conforme en espace tel que les élément finis conformes, ou les volumes finis centrés aux sommets du maillage. Nous démontrons une borne supérieure de la norme duale du résidu, de l'erreur sur l'enthalpie dans L2(0; T;H-1) et de l'erreur sur la température dans L2(0; T;L2), par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent : un estimateur associé à l'erreur de régularisation, un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. En fin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Un test numérique illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des indices d'efficacité proches de la valeur optimale de 1 sont obtenus. Au chapitre 2 nous développons des estimations d'erreur a posteriori pour l'écoulement de Darcy polyphasique et isothermique, décrit par un système couplé d'équations aux dérivées partielles non linéaires et d'équations algébriques non linéaires. Ce système est discrétisé en espace par une méthode de volume finis centrés par maille et la méthode d'Euler implicite en temps. Nous etablissons une borne supérieure d'une norme duale du résidu augmentée d'un terme qui tiens compte de la non-conformité des volumes finis par des estimateurs d'erreur a posteriori entièrement calculables. Dans ce chapitre, nous nous concentrons sur la formulation d'un critère d'arrêt de l'algorithme de linéarisation du problème discrète (tel que la méthode de Newton) avec un critère d'arrêt du solveur algébrique de résolution du système linéarité (par exemple la méthode GMRes), de sort que les contributions des estimateurs d'erreur correspondant n'affectent plus la somme globale des estimateurs d'erreur de manière significative. Nous appliquons notre analyse sur des exemples réalistes d'ingénierie de réservoir pour confirmer qu'en général notre ajustement des critères d'arrêt apporte une économie significative (jusqu'au un ordre de magnitude en termes du nombre total des itérations du solveur algébrique), déjà sur des maillages fixes, et ceci sans perte notable de précision. Au chapitre 3 nous complétons le modèle décrit au chapitre 2 en considérant une condition non-isothermique pour l'écoulement a fin de traiter le modèle général d'écoulement polyphasique thermique dans les milieux poreux. Pour ce problème, nous développons des estimateurs d'erreur analogues a ceux du chapitre 2 pour lesquels nous établissons une borne supérieure d'erreur entièrement calculable, pour une norme duale du résidu complétée par un terme d'évaluation de la non-conformité. Nous montrons ensuite comment estimer séparément chaque composante d'erreur, ce qui nous permet d'ajuster les critères d'arrêt et d'équilibrer les contributions des différents estimateurs d'erreur : erreur d'approximation en temps, erreur d'approximation en espace, erreur de linéarisation et erreur du solveur algébrique. Ce chapitre se termine par une application des estimateurs au modèle d'huile morte. La preuve de l'efficacité de notre estimation a postiriori est egalement fournie. Finalement, au chapitre 4 nous considérons les procédés de récupération assistée d'huile. Plus précisément, nous étudions une technique de récupération thermique d'huile de type huile morte par injection de vapeur destinée a augmenter la mobilité des hydrocarbures. Dans ce chapitre, nous appliquons l'analyse a posteriori des chapitres 2 et 3, nous proposons une formule de quadrature pour simplifier l'évaluation des estimateurs, nous proposons un algorithme adaptatif de raffinement de maillages en espace et en temps basé sur les estimateurs et nous illustrons pas des essais numériques sur des exemples réalistes la performance de cette stratégie de raffinement. Notamment, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation sur des exemples en dimension trois.
194

Techniques d'estimation de la bande passante disponible de réseaux sans fil

Amamra, Abdelaziz 17 November 2008 (has links) (PDF)
L'IEEE 802.11 (Wi-Fi) est le standard de WLAN (Wireless Local Area Network). En conséquence, le marché des produits dotés de la technologie réseau Wi-Fi est en plein essor et a provoqué une véritable révolution dans le monde de l'informatique. Cependant, la communication utilisant le Wi-Fi ne présente pas, pour autant, que des avantages. La grande différence entre le débit théorique et le débit effectif dépend de nombreux paramètres. Il est, par exemple, difficile de faire du streaming vidéo haute définition en utilisant un réseau IEEE 802.11g, alors que le débit théorique le permet parfaitement. La technologie WLAN souffre d'autres contraintes, comme la nature vulnérable du médium sans fil (interférences électromagnétiques, multi-trajet...), l'accès indéterministe au médium, la limitation de la bande passante...Les applications utilisant les réseaux Ad Hoc deviennent de plus en plus complexes et offrent de nouveaux services qui exigent des performances réseau de plus en plus élevées. De ce fait, la Qualié de Service (QdS) dans les réseaux Ad Hoc est un sujet de recherche ouvert. La bande passante est un indicateur très important pour la garantie de la QdS. Dans notre travail de thèse, nous avons étudié l'un des aspects de la QdS qui est la Bande Passante Disponible (BPD) dans les réseaux Ad Hoc basés sur la norme IEEE 802.11. Particulièrement, nous nous sommes intéressés aux différentes techniques d'estimation de la BPD et avons évalué les performances de ces techniques du point de vue temps de réponse et précision des estimations. Ces techniques peuvent être utilisées dans d'autres types de réseaux sans fil ou filaire. Nos contributions sont, essentiellement , le développement de deux nouvelles techniques d'estimation de la bande passante SLOT (SLOps-Topp) et TOPP-NET (TOPP-Non invasive Estimation Technique). Ces deux techniques sont le résultat d'améliorations successives des techniques d'estimation qui existent dans la littérature (TOPP : Trains of Packet Pairs, SLoPS : Self-Loading Periodic Streams et NIMBE : Non Invasive Manet Bandwith Estimation) en mettant l'accent sur la précision et le délai de sondage des techniques d'estimation. Notre troisième contribution est une nouvelle méthode de filtrage adaptatif des estimations nommée ZONE-FILTER ( Filtrage par Zone). Cette méthode combine les filtres EWMA et la mèthode statistique SPC (Statistical Process Control).
195

Méthode de raffinement de maillage adaptatif hybride pour le suivi de fronts dans des écoulements incompressibles

Delage Santacreu, Stéphanie 24 June 2006 (has links) (PDF)
Dans ce travail de thèse, on s'est intéressé à la simulation d'écoulements incompressibles multi-échelles et multiphasiques. L'une des principales difficultés numériques est l'introduction d'une diffusion numérique due aux schémas utilisés. Celle-ci étant indépendante du maillage, une possibilité est de simuler ce type d'écoulement avec un très grand nombre points. Cependant, les besoins en ressources informatiques et en temps deviennent rapidement importants. On a donc développé une méthode de raffinement de maillage adaptatif (AMR) dans le but de suivre, soit des interfaces dans un écoulement diphasique, soit des fronts de concentration dans un écoulement monophasique avec transport d'une espèce inerte, de manière précise tout en optimisant le temps CPU et<br />la taille mémoire. On montre au travers de cas d'étude 2D et 3D, judicieusement choisis, l'efficacité de cette méthode.
196

Étude de la performance d’un algorithme Metropolis-Hastings avec ajustement directionnel

Mireuta, Matei 08 1900 (has links)
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative. / Markov Chain Monte Carlo algorithms (MCMC) have become popular tools for sampling from complex and/or high dimensional probability distributions. Given their relative ease of implementation, these methods are frequently used in various scientific areas, particularly in Statistics and Bayesian analysis. The volume of such methods has risen considerably since the first MCMC algorithm described in 1953 and this area of research remains extremely active. A new MCMC algorithm using a directional adjustment has recently been described by Bédard et al. (IJSS, 9:2008) and some of its properties remain unknown. The objective of this thesis is to attempt determining the impact of a key parameter on the global performance of the algorithm. Moreover, another aim is to compare this new method to existing MCMC algorithms in order to evaluate its performance in a relative fashion.
197

Une approche fréquentielle pratique pour l'échantillonnage adaptatif en espace image

Dubouchet, Renaud Adrien 10 1900 (has links)
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle. / In realistic image synthesis, a pixel's final intensity is computed by estimating a multi-dimensional shading integral. A large part of the research in this domain is thus aimed at finding new techniques to reduce the computational cost of rendering while preserving the fidelity and correctness of the resulting images. When trying to reduce rendering costs to approach real-time computation, complex realistic effects are often left aside or replaced by clever but mathematically incorrect tricks. To accelerate rendering, previous directions of work have either addressed the computation of individual pixels by improving the underlying numerical integration routines; or have sought to amortize the computation across regions of an image using adaptive methods based on predictive models of light transport. This thesis' - and resulting paper's - objective is to build upon the latter of the aforementioned classes of methods[Durand2005], and foray into fast adaptive rendering techniques using frequency-based light transport analysis to efficiently guide and prioritize ray tracing. We thus propose an adaptive sampling and reconstruction approach to render animated scenes lit by environment lighting and faithfully reconstruct all-frequency shading effects such as shadows and reflections while preserving temporal coherency.
198

Analyse en composantes indépendantes avec une matrice de mélange éparse

Billette, Marc-Olivier 06 1900 (has links)
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe. / Independent component analysis (ICA) is a method of statistical analysis where the main goal is to express the observed data (mixtures) in a linear transformation of latent variables (sources) believed to be non-Gaussian and mutually independent. In some applications, the mixtures can be grouped so that the mixtures belonging to the same group are function of the same sources. This implies that the coefficients of each column of the mixing matrix can be grouped according to these same groups and that all the coefficients of some of these groups are zero. In other words, we suppose that the mixing matrix is sparse per group. This assumption facilitates the interpretation and improves the accuracy of the ICA model. In this context, we propose to solve the problem of ICA with a sparse group mixing matrix by a method based on the adaptive group LASSO. The latter penalizes the 1-norm of the groups of coefficients with adaptive weights. In this thesis, we point out the utility of our method in applications in brain imaging, specifically in magnetic resonance imaging. Through simulations, we illustrate with an example the effectiveness of our method to reduce to zero the non-significant groups of coefficients within the mixing matrix. We also show that the accuracy of the proposed method is greater than the one of the maximum likelihood estimator with an adaptive LASSO penalization in the case where the mixing matrix is sparse per group.
199

Régulation adaptative multi-objectif et multi-mode aux carrefours à feux / Multi-objective and multi-mode adaptive traffic control on signal-controlled junctions

Dujardin, Yann 24 June 2013 (has links)
Afin de répondre à la problématique de la régulation multi-objectif et multi-mode des carrefours à feux, nous proposons trois modèles de programmation linéaire mixte en nombres entiers constituant les moteurs d'un système de régulation pleinement adaptatif, ainsi que deux procédures interactives d'optimisation multi-objectif permettant d'adapter itérativement une “politique de régulation” à la situation de trafic. Les critères pris en compte, tous à minimiser, sont le temps d'attente et le nombre d'arrêts des véhicules particuliers, et un critère dédié aux transports en commun permettant de fixer un temps d'attente souhaité pour chaque bus. Des expérimentations ont montré qu'un des trois modèles, dit hybride, se démarque positivement des deux autres. Ce modèle a alors été mis en œuvre avec une des deux procédures interactives, permettant de contrôler un trafic simulé sur une période d'une heure dans différents scénarios types, et comparé à un système de régulation semi-adaptatif. / In order to answer the multi-objective and multi-mode adaptive traffic control problem, we propose three models of mixed integer linear programming, usable with two multi-objective optimization interactive methods, allowing to adapt a “traffic control policy” iteratively to the current traffic situation. The considered criteria, all of them to be minimized, are the total waiting time and the number of stops for private vehicles and a criterion dedicated to public transports allowing to set a target waiting time for every bus. Experiments showed that one of the three models, called hybrid model, distinguishes itself positively from the others. This model was implemented with one of the two interactive methods, allowing to control a traffic simulated over one hour in different scenarios, and was compared to a semi-adaptive traffic control system.
200

Techniques variationnelles et calcul parallèle en imagerie : Estimation du flot optique avec luminosité variable en petits et larges déplacements / Variational techniques and parallel computing in computer vision : Optical flow estimation with varying illumination in small and large displacements

Gilliocq-Hirtz, Diane 07 July 2016 (has links)
Le travail présenté dans cette thèse porte sur l'estimation du flot optique par méthodes variationnelles en petits et en grands déplacements. Nous proposons un modèle basé sur la combinaison locale-globale à laquelle nous ajoutons la prise en compte des variations de la luminosité. La particularité de ce manuscrit réside dans l'utilisation de la méthode des éléments finis pour la résolution des équations. En effet, cette méthode se fait pour le moment très rare dans le domaine du flot optique. Grâce à ce choix de résolution, nous proposons d'implémenter un contrôle local de la régularisation ainsi qu'une adaptation de maillage permettant d'affiner la solution au niveau des arêtes de l'image. Afin de réduire les temps de calcul, nous parallélisons les programmes. La première méthode implémentée est la méthode parallèle en temps appelée pararéel. En couplant un solveur grossier et un solveur fin, cet algorithme permet d'accélérer les calculs. Pour pouvoir obtenir un gain de temps encore plus important et également traiter les séquences en haute définition, nous utilisons ensuite une méthode de décomposition de domaine. Combinée au solveur massivement parallèle MUMPS, cette méthode permet un gain de temps de calcul significatif. Enfin, nous proposons de coupler la méthode de décomposition de domaine et le pararéel afin de profiter des avantages de chacune. Dans une seconde partie, nous appliquons tous ces modèles dans le cas de l'estimation du flot optique en grands déplacements. Nous proposons de nous servir du pararéel afin de traiter la non-linéarité de ce problème. Nous terminons par un exemple concret d'application du flot optique en restauration de films. / The work presented in this thesis focuses on the estimation of the optical flow through variational methods in small and large displacements. We propose a model based on the combined local-global strategy to which we add the consideration of brightness intensity variations. The particularity of this manuscript is the use of the finite element method to solve the equations. Indeed, for now, this method is really rare in the field of the optical flow. Thanks to this choice of resolution, we implement an adaptive control of the regularization and a mesh adaptation to refine the solution on the edges of the image. To reduce computation times, we parallelize the programs. The first method implemented is a parallel in time method called parareal. By combining a coarse and a fine solver, this algorithm speeds up the computations. To save even more time and to also be able to handle high resolution sequences, we then use a domain decomposition method. Combined with the massively parallel solver MUMPS, this method allows a significant reduction of computation times. Finally, we propose to couple the domain decomposition method and the parareal to have the benefits of both methods. In the second part, we apply all these models to the case of the optical flow estimation in large displacements. We use the parareal method to cope with the non-linearity of the problem. We end by a concrete example of application of the optical flow in film restoration.

Page generated in 0.084 seconds