• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 9
  • 3
  • Tagged with
  • 58
  • 58
  • 25
  • 19
  • 19
  • 17
  • 16
  • 16
  • 15
  • 14
  • 13
  • 11
  • 11
  • 10
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Optimisation de dispositifs électromagnétiques dans un contexte d'analyse par la méthode des éléments finis

Caldora Costa, Mauricio 28 June 2001 (has links) (PDF)
Dans ce travail, nous proposons des solutions à la problématique constituée par les difficultés rencontrées dans l'optimisation de dispositifs électromagnétiques analysés par des méthodes de simulation numérique, notamment la Méthode des Eléments Finis. Parmi les difficultés, nous avons la grande diversité des problèmes, la recherche d'une solution globale, l'échange des données entre l'outil de simulation et l'outil d'optimisation et le temps de calcul onéreux pour atteindre une solution. Nous commençons par une description des méthodes les plus utilisées dans la résolution de problèmes d'optimisation, dans laquelle nous mettons en évidence leurs particularités et les principales caractéristiques qu'elles ont en commun. Après cette récapitulation, nous présentons l'architecture logiciel d'un outil d'optimisation idéalisée en s'appuyant sur les concepts de la Programmation Orientée Objet. Dans l'implémentation de cette architecture, nous considérons les difficultés issues des problèmes liés à la simulation numérique et nous proposons une nouvelle approche d'optimisation basée sur la Méthode des Plans d'Expérience. Pour valider cette nouvelle approche, nous présentons trois différentes applications en électrotechnique : l'optimisation d'un moteur à reluctance variable, l'optimisation d'un contacteur électromagnétique et la résolution du problème 25 du TEAM Worshop.
22

Analyse des diagrammes de l'apprenant dans un EIAH pour la modélisation orientée objet - Le système ACDC

Auxepaules, Ludovic 24 September 2009 (has links) (PDF)
Nos travaux s'inscrivent dans le cadre des recherches menées sur les EIAH (Environnements Informatiques pour l'Apprentissage Humain) dans le projet Interaction et Connaissance du LIUM. Ce projet a suscité le développement de Diagram, un EIAH dédié à l'apprentissage des concepts de la modélisation orientée objet. Dans cette thèse, nous nous intéressons à l'analyse des réponses de l'apprenant lors de l'activité de modélisation de construction d'un diagramme de classes UML à partir de spécifications textuelles. En l'absence de résolveur pédagogique dans ce contexte, nous proposons une méthode d'analyse automatique des diagrammes de l'apprenant. Nous présentons un outil de diagnostic basé sur la comparaison et l'appariement des constituants de plusieurs diagrammes. Cette proposition s'inspire des concepts et des techniques d'appariement de modèles et se concentre principalement sur les aspects structurels des modèles à apparier. La méthode permet d'exprimer en sortie des appariements et des différences entre le diagramme de l'apprenant et un diagramme de référence construit par un expert. La méthode est instanciée sous forme d'un composant logiciel intégré à Diagram, nommé ACDC (Automatic Class Diagrams Comparator). Les résultats d'ACDC (les différences relevées) sont traités dans Diagram pour la production de rétroactions pédagogiques synchrones destinées à l'apprenant. La pertinence et la qualité des résultats produits par ACDC ont été évaluées en dehors de Diagram sur un corpus de diagrammes collectés dans des situations réelles d'apprentissage. Une expérimentation de Diagram (après l'intégration d'ACDC) a été menée fin 2008 avec des étudiants de l'Université du Maine.
23

Vers des références de première classe comme infrastructure de sécurité dans les langages dynamiquement typés

Arnaud, Jean-Baptiste 18 February 2013 (has links) (PDF)
Les langages de programmation orientés-objet dynamiquement typés ne peuvent pas fournir d'informations de type avant l'exécution. Deux de leurs principaux avantages sont qu'ils permettent le prototypage rapide á et l'intégration de modifications lors de l'exécution. La capacité des langages dynamiquement typés accepter les changements du programme lors de son exécution et en l'absence d'informations de type, condamne les approches de sécurité classiques á l'échec. Contrôler les références des objets et des graphes d'objets est indispensable pour construire des systèmes sécurisés. Les approches existantes sont généralement basées sur un système de type statique et ne peuvent pas être appliquées aux langages dynamiquement typés. Cette thèse défend que: Dans le contexte des langages de programmation orientés-objet dynamiquement typés, réifier les références, contrôler leur comportement, et isoler l'état des objets par le biais de telles références, est un moyen pratique de contrôler les références. Cette thèse apporte cinq contributions: Nous proposons la notion de dynamic read-only objects (DRO) comme un changement particulier (read-only) de comportement au niveau des références; Nous généralisons le modèle DRO pour permettre des changements de comportement plus génériques et nous étendons l'environnement de programmation et le langage Pharo avec des Handles, qui sont des références avec la possibilité de changer le comportement des objets référencés.; Nous définissons le terme de Metahandle pour offrir flexibilité et adaptabilité aux références contrôlées; Nous proposons la notion de SHandle, pour isoler les effets de bord au niveau des références; Et enfin, nous décrivons formellement les modèles Handle et SHandle pour représenter et expliquer leur sémantique. Comme validation de notre thèse nous avons mis en place trois approches liées a la securité en utilisant nos modeless. En outre, nous avons étendu la machine virtuelle Pharo pour supporter les Handles, Metahandles et SHandles.
24

Intégration des besoins des utilisateurs pour la conception de systèmes d'information interactifs.<br />Application à la conception d'un système d'information voyageurs multimodal (SIVM)

Mouloudi, Assia 04 September 2007 (has links) (PDF)
Ce travail de recherche examine la possibilité d'intégration des principes de conception centrée utilisateurs dans un processus de conception de systèmes d'information interactifs (SII). L'approche de l'analyse de l'activité produit une description des stratégies d'utilisation de ce type de systèmes. Cette description doit servir de base afin de spécifier le système à développer. L'hypothèse avancée est que pour réussir leur intégration, les données d'une analyse des usages doivent être représentées dans un formalisme le plus proche possible du langage de développement. Afin de réaliser cette intégration nous avons mis au point la méthode RAMSES. RAMSES propose une méthodologie centrée utilisateur de conception de SII en cinq étapes : recueil des données, analyse des données recueillies, modélisation du système s'appuyant sur les flux d'information, spécification et évaluation des spécifications. Cette méthode a été appliquée à la conception d'un système d'information voyageurs multimodal (SIVM). <br />En premier lieu, nous avons étudié le domaine d'application du système à concevoir : l'information multimodale des voyageurs de transports en commun confrontés à une perturbation du trafic. Nous avons construit et mis en œuvre la méthodologie de recueil et d'analyse des besoins des usagers dans différentes situations nominales et perturbées. Afin de modéliser les données recueillies, nous avons adopté un paradigme de représentation à base d'objets et de relations qui représentent les acteurs, les sites, les outils et leurs interactions. Nous avons construit un modèle générique des connaissances acquises lors de l'analyse des besoins des utilisateurs. Ce modèle a, par la suite, été transcrit dans le formalisme UML à des fins de spécification du système à concevoir. Dans la dernière partie, nous avons implémenté une application informatique basée sur ce modèle. Cette application est un outil d'aide à la conception visant à assister la validation des spécifications du système d'information interactif à concevoir.
25

Co-conception Logiciel/FPGA pour Edge-computing : promotion de la conception orientée objet / software/FPGA co-design for Edge-computing : Promoting object-oriented design

Le, Xuan Sang 31 May 2017 (has links)
L’informatique en nuage (cloud computing) est souvent le modèle de calcul le plus référencé pour l’internet des objets (Internet of Things).Ce modèle adopte une architecture où toutes les données de capteur sont stockées et traitées de façon centralisée. Malgré de nombreux avantages, cette architecture souffre d’une faible évolutivité alors même que les données disponibles sur le réseau sont en constante augmentation. Il est à noter que, déjà actuellement, plus de50 % des connexions sur Internet sont inter objets. Cela peut engendrer un problème de fiabilité dans les applications temps réel. Le calcul en périphérie (Edge computing) qui est basé sur une architecture décentralisée, est connue comme une solution pour ce problème émergent en : (1) renforçant l’équipement au bord du réseau et (2) poussant le traitement des données vers le bord.Le calcul en périphérie nécessite des noeuds de capteurs dotés d’une plus grande capacité logicielle et d’une plus grande puissance de traitement, bien que contraints en consommation d’énergie. Les systèmes matériels hybrides constitués de FPGAs et de processeurs offrent un bon compromis pour cette exigence. Les FPGAs sont connus pour permettre des calculs exhibant un parallélisme spatial, aussi que pour leur rapidité, tout en respectant un budget énergétique limité. Coupler un processeur au FPGA pour former un noeud garantit de disposer d’un environnement logiciel flexible pour ce nœud.La conception d’applications pour ce type de systèmes hybrides (réseau/logiciel/matériel) reste toujours une tâche difficile. Elle couvre un vaste domaine d’expertise allant du logiciel de haut niveau au matériel de bas niveau (FPGA). Il en résulte un flux de conception de système complexe, qui implique l’utilisation d’outils issus de différents domaines d’ingénierie. Une solution commune est de proposer un environnement de conception hétérogène qui combine/intègre l’ensemble de ces outils. Cependant, l’hétérogénéité intrinsèque de cette approche peut compromettre la fiabilité du système lors des échanges de données entre les outils.L’objectif de ce travail est de proposer une méthodologie et un environnement de conception homogène pour un tel système. Cela repose sur l’application d’une méthodologie de conception moderne, en particulier la conception orientée objet (OOD), au domaine des systèmes embarqués. Notre choix de OOD est motivé par la productivité avérée de cette méthodologie pour le développement des systèmes logiciels. Dans le cadre de cette thèse, nous visons à utiliser OOD pour développer un environnement de conception homogène pour les systèmes de type Edge Computing. Notre approche aborde trois problèmes de conception: (1) la conception matérielle, où les principes orientés objet et les patrons de conception sont utilisés pour améliorer la réutilisation, l’adaptabilité et l’extensibilité du système matériel. (2) la co-conception matériel/logiciel, pour laquelle nous proposons une utilisation de OOD afin d’abstraire l’intégration et la communication entre matériel et logiciel, ce qui encourage la modularité et la flexibilité du système. (3) la conception d’un intergiciel pour l’Edge Computing. Ainsi il est possible de reposer sur un environnement de développement centralisé des applications distribuées† tandis ce que l’intergiciel facilite l’intégration des nœuds périphériques dans le réseau, et en permet la reconfiguration automatique à distance. Au final, notre solution offre une flexibilité logicielle pour la mise en oeuvre d’algorithmes distribués complexes, et permet la pleine exploitation des performances des FPGAs. Ceux-ci sont placés dans les nœuds, au plus près de l’acquisition des données par les capteurs, pour déployer un premier traitement intensif efficace. / Cloud computing is often the most referenced computational model for Internet of Things. This model adopts a centralized architecture where all sensor data is stored and processed in a sole location. Despite of many advantages, this architecture suffers from a low scalability while the available data on the network is continuously increasing. It is worth noting that, currently, more than 50% internet connections are between things. This can lead to the reliability problem in realtime and latency-sensitive applications. Edge-computing which is based on a decentralized architecture, is known as a solution for this emerging problem by: (1) reinforcing the equipment at the edge (things) of the network and (2) pushing the data processing to the edge.Edge-centric computing requires sensors nodes with more software capability and processing power while, like any embedded systems, being constrained by energy consumption. Hybrid hardware systems consisting of FPGA and processor offer a good trade-off for this requirement. FPGAs are known to enable parallel and fast computation within a low energy budget. The coupled processor provides a flexible software environment for edge-centric nodes.Applications design for such hybrid network/software/hardware (SW/HW) system always remains a challenged task. It covers a large domain of system level design from high level software to low-level hardware (FPGA). This result in a complex system design flow and involves the use of tools from different engineering domains. A common solution is to propose a heterogeneous design environment which combining/integrating these tools together. However the heterogeneous nature of this approach can pose the reliability problem when it comes to data exchanges between tools.Our motivation is to propose a homogeneous design methodology and environment for such system. We study the application of a modern design methodology, in particular object-oriented design (OOD), to the field of embedded systems. Our choice of OOD is motivated by the proven productivity of this methodology for the development of software systems. In the context of this thesis, we aim at using OOD to develop a homogeneous design environment for edge-centric systems. Our approach addresses three design concerns: (1) hardware design where object-oriented principles and design patterns are used to improve the reusability, adaptability, and extensibility of the hardware system. (2) hardware / software co-design, for which we propose to use OOD to abstract the SW/HW integration and the communication that encourages the system modularity and flexibility. (3) middleware design for Edge Computing. We rely on a centralized development environment for distributed applications, while the middleware facilitates the integration of the peripheral nodes in the network, and allows automatic remote reconfiguration. Ultimately, our solution offers software flexibility for the implementation of complex distributed algorithms, complemented by the full exploitation of FPGAs performance. These are placed in the nodes, as close as possible to the acquisition of the data by the sensors† in order to deploy a first effective intensive treatment.
26

SSJ : un cadre d'application pour la simulation stochastique en Java

Meliani, Lakhdar January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
27

Détection et dénombrement de la moyenne et grande faune par imagerie visible et infrarouge thermique acquise à l'aide d'un aéronef sans pilote (ASP)

Chrétien, Louis-Philippe January 2016 (has links)
L’inventaire aérien est une approche pratique pour effectuer l’inventaire de la grande faune sur de grands territoires; particulièrement pour les zones peu accessibles. Toutefois, les limitations liées aux capacités de détection des observateurs, la coloration cryptique de certaines espèces fauniques et la complexité structurelle de certains habitats font en sorte que les inventaires ont généralement des biais qui sous-estiment la densité réelle de la population. Par ailleurs, peu d’études ont démontré la capacité d’effectuer la détection aérienne simultanée de plusieurs espèces. La détection multiespèce peut s’avérer utile pour les espèces qui se côtoient spatialement afin de connaître leur utilisation de l’espace, pour étudier la relation proie/prédateur et pour limiter les coûts à un seul inventaire. Cette pratique s’avère néanmoins trop exigeante pour les observateurs qui doivent déjà faire preuve de beaucoup de concentration pour détecter une seule espèce lors d’un inventaire aérien traditionnel. L’utilisation d’imagerie aérienne multispectrale acquise avec un aéronef sans pilote (ASP) représente une méthode potentielle pour la détection d’une ou plusieurs espèces fauniques. Ce projet de recherche consistait donc dans un premier temps à détecter, identifier et dénombrer à l’aide d’imagerie acquise avec un ASP et par traitements d’images les cerfs de Virginie (Odocoileus virginianus). Différentes combinaisons de bandes spectrales, méthodes d’analyses d’images et résolutions spatiales ont été testées pour déterminer la méthode la plus efficace pour la détection du cerf. Dans un deuxième temps, la meilleure méthode identifiée pour les cerfs a été utilisée et adaptée pour effectuer la détection simultanée des bisons d’Amérique (Bison bison), des daims européens (Dama dama), des loups gris (Canis lupus) et des wapitis (Cervus canadensis). L’inventaire de la faune a été réalisé au Centre d’observation de la faune et d’interprétation de l’agriculture de Falardeau à Saint-David-de-Falardeau, Québec, Canada. Les résultats démontrent que l’imagerie visible et infrarouge thermique avec une résolution spatiale de 0.8 cm/pixel combinée à une analyse d’images par objet constitue la combinaison la plus efficace parmi celles testées pour la détection des cerfs de Virginie. Tous les individus visibles à l’œil nu sur les mosaïques ont été détectés. Néanmoins, considérant l’obstruction visuelle causée par la canopée coniférienne, cette approche offre un taux de détectabilité moyen de 0.5, comparable aux inventaires aériens classiques. La complexité structurelle de l’habitat demeure ainsi un problème non résolu. Quant à l’analyse multiespèce, les bisons et les wapitis ont tous été détectés même en présence d’autres espèces comme l’autruche (Struthio camelus), le coyote (Canis latrans) et l’ours noir (Ursus americanus). Pour les daims et les loups, entre 0 à 1 individu par parcelle a été confondu avec les autres éléments du paysage tels que le sol. De plus, entre 0 à 2 individus par parcelle n’ont pas été détectés alors qu’ils étaient présents dans la ligne de vol. Non seulement cette approche a démontré sa capacité à détecter une ou plusieurs espèces, mais également son adaptabilité à cibler spécifiquement les espèces d’intérêts pour le gestionnaire et à ignorer celles qui ne sont pas ciblées. Ce projet a donc permis de valider le potentiel des ASP pour l’acquisition d’imagerie d’une qualité permettant l’extraction de données d’inventaires. Cela ouvre la voie à l’utilisation de ce type de plateforme d’acquisition pour des applications reliées à la gestion de la faune grâce à leur faible impact sonore et leur haut taux de revisite. Toutefois, la réglementation canadienne actuelle limite l’utilisation de ces appareils sur de faibles superficies. Il n’en demeure pas moins que la technologie peut être développée en attendant les futurs progrès du domaine des ASP et de la réglementation.
28

Modélisation numérique d'écoulements fluide/particules

Lefebvre, Aline, Lefebvre-Lepot, Aline 23 November 2007 (has links) (PDF)
Cette thèse comporte trois parties. <br />Dans la première, nous présentons une méthode de simulation d'écoulements fluide/particules. Nous montrons que la pénalisation du tenseur des contraintes, associée à une discrétisation en temps par la méthode des caractéristiques, conduit à une formulation variationnelle de type Stokes généralisée. Des tests numériques sont effectués sous FreeFem++ afin d'étudier la convergence. Nous en présentons également trois exemples d'utilisation. <br />Dans la seconde partie nous proposons un modèle permettant de prendre en compte les forces de lubrification dans les simulations directes d'écoulements fluide/particules. Nous présentons d'abord un modèle de contact visqueux dans le cas particule/plan, obtenu comme limite, à viscosité nulle, du modèle de lubrification. Nous décrivons ensuite un algorithme reposant sur une étape de projection des vitesses, à chaque instant, sur un espace dit de vitesses admissibles. On montre alors la convergence du schéma et on généralise l'algorithme au cas multi-particules. Nous en présentons également un exemple de programmation orientée objet. <br />Dans la dernière partie, nous considérons un système discret de sphères (boulier en 1D) qui interagissent à travers la force de lubrification. Le modèle microscopique repose sur le développement de cette force à courte distance. Nous proposons une équation constitutive marcoscopique, de type Newtonien, reposant sur une viscosité linéique proportionnelle à l'inverse de la fraction locale de fluide. Nous établissons la convergence du modèle microscopique vers le modèle macroscopique proposé.
29

Méthodes de décomposition de domaine et méthodes d'accélération pour les problèmes multichamps en mécanique non-linéaire

Gosselet, Pierre 11 December 2003 (has links) (PDF)
Nous développons des algorithmes parallèles pour la résolution de problèmes non-linéaires de grande taille. Les cadres d'application sont la simulation de matériaux hyperélastiques incompressibles en grandes déformations et l'étude des milieux poreux, dont les modélisations choisies font apparaître des inconnues en déplacement et en pression.<br /><br />Nous retenons une stratégie éléments-finis associée à un solveur Newton-Raphson et une décomposition de domaine sans recouvrement combinée à un solveur de Krylov. <br /><br />Nous proposons des améliorations pour adapter ces approches à nos problèmes, puis pour des cas plus exigeants nous définissons une nouvelle approche de décomposition de domaine, appelée approche hybride, permettant de mieux respecter la physique des phénomènes et unifiant les approches classiques. Nous proposons également des stratégies d'accélération du processus non-linéaire. Enfin un cadre orienté objet est exposé pour la mise en oeuvre de l'ensemble des méthodes proposées.
30

Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). / Contributions of texture "multiband" in object-oriented classification of multisource imagery (optics and radar).

Mondésir, Jacques Philémon January 2016 (has links)
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). / Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data. This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource). The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU).

Page generated in 0.0468 seconds