• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 24
  • 23
  • Tagged with
  • 218
  • 218
  • 79
  • 76
  • 63
  • 59
  • 49
  • 49
  • 48
  • 38
  • 34
  • 32
  • 30
  • 30
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Une architecture générique de Systèmes de recommandation de combinaison d'items : application au domaine du tourisme / A generic framework for recommender systems generating combination of items : application to the tourism domain

Picot-Clémente, Romain 07 December 2011 (has links)
Cette thèse apporte une généralisation du principe de recommandation des systèmes de recommandation. Au lieu de considérer une recommandation comme un item, elle est considérée comme une combinaison constituée de plusieurs items suivant un pattern donné. Une recommandation d'un seul item est alors un cas particulier de ce type de recommandation. L’architecture de système de recommandation proposé se base sur une architecture dérivée des travaux en systèmes hypermédia adaptatifs. Trois couches sont définies : une couche sémantique, une couche utilisateur et une couche intelligence. La couche sémantique est constituée de deux sous-couches, une sous-couche modélisant le contenu suivant la connaissance générale du domaine et une sous-couche modélisant le contenu suivant la connaissance spécifique à l'application, plus précisément spécifique aux possibles contraintes des utilisateurs dans l'application. Cette deuxième partie permet de prendre en compte le savoir-faire du fournisseur de l’offre dans les propositions du système de recommandation. La couche utilisateur modélise l’utilisateur au sein du système de recommandation et la couche intelligence contient le processus de recommandation. Nous proposons de décomposer ce dernier en deux sous-processus principaux, un processus dit de projection des individus du domaine sur les profils utilisateurs et un processus de recherche combinatoire. Le premier apporte une pondération, appelée note dans la plupart des systèmes de recommandation, donnant les intérêts probables des utilisateurs pour les différents items. Le processus de recherche combinatoire recherche parmi la multitude de combinaisons possibles, une solution convenable (optimale si possible) à proposer à l'utilisateur. Cette architecture de système de recommandation combinatoire est appliquée au domaine touristique pour l'entreprise Côte-d'Or Tourisme impliquée dans le contrat de recherche. Le but de cette application est de proposer à l'utilisateur un ensemble d'offres touristiques sous forme de séjour. Ce problème touristique amène à la définition formelle d'un problème d'optimisation combinatoire qui est une variante d'un sous-problème du problème de sac à dos. Pour résoudre ce genre de problème, il est nécessaire d'utiliser une métaheuristique afin de tendre vers une bonne solution en un temps raisonnable. Nous présentons un algorithme basé sur le recuit simulé et un algorithme multi-objectif pour la résolution de ce problème. L’instanciation de chaque couche de l’architecture pour le système touristique est décrite en détail. Enfin, cette thèse présente une application mobile faisant office d’interface utilisateur avec le système de recommandation touristique et elle présente les développements techniques nécessaires à ce projet, étant donné son contexte industriel. / This thesis gives a generalization of the recommendation principle of recommender systems. Instead of considering a recommendation as an item, it is considered as a combination of several items following a given pattern. A recommendation of a unique item is then a particular case of this type of recommendation. The proposed recommender system framework is based on an architecture derived from work in adaptive hypermedia systems. Three layers are defined: a semantic layer, a user layer and an intelligence layer. The semantic layer consists of two sub-layers, a sub-layer modeling the content according to the general knowledge of the domain and a sub-layer modeling the content according to the specific knowledge of the application. This second sub-layer allows taking into account the expertise of the offer’s supplier for the proposals of the recommender system. The user layer models the user into the recommender system and the intelligence layer contains recommendation process. We propose to decompose the adaptation into two main processes, a process called projection of domain’s individuals on user profiles and a combinatorial research process. The first brings a weight, called the note in most recommender systems, giving probable users’ interests on the different items. The combinatorial research process searches among the many possible combinations a suitable solution (optimal if possible) to propose to the user. This framework of combinatory recommender systems is applied to the domain of tourism for the company Côte-d'Or Tourisme implied in the research contract. The purpose of this application is to offer the user a set of tourism offers in the form of journey. This tourism problem leads to the formal definition of a combinatory optimization problem which is a variant of the knapsack problem. To resolve this kind of problem, it is necessary to use a metaheuristic to tend toward a good solution in a reasonable time. We present an algorithm based on simulated annealing and a multi-objective algorithm to solve this problem. The instantiation of each layer of the framework for the tourism system is described in detail. Finally, this thesis presents a mobile application serving as a user with the tourism recommender system and it presents the technical developments for this project.
112

Modélisation de l'érosion hydrique par intégration de données multisources à un système d'information géographique

Baril, Daniel January 1989 (has links)
Résumé : La dégradation des sols est un processus qui affecte les terres agricoles de la majorité des pays du monde. L'érosion hydrique est d'ailleurs le phénomène de dégradation des sols le plus apparent mais aussi le plus sous-estimé par les agriculteurs. L'objectif de cette recherche est donc d'intégrer à un système d'information géographique (S.I.G.) les facteurs de l'équation universelle des pertes de sol (U.S.L.E.) afin de modéliser les pertes de sol dues à l'érosion hydrique. Cette méthodologie a été appliquée sur un secteur agricole d'environ 500 km2 situé dans les Cantons de l'Est (sud du Québec). Une image satellite HRV de SPOT nous a permis de cartographier l'utilisation du sol. Du modèle numérique d'élévation (M.N.É.) nous avons dérivé la pente et de la longueur de pente nécessaires au calcul du facteur de topographie. Finalement, à la carte pédologique numérisée, nous associons les indices d'érodabilité de chacun des types de sol mesurés à l'aide d'un simulateur de pluie. L'utilisation d'outils modernes et flexibles tels la télédétection et les systèmes d'information géographique (S.I.G.) nous a permis d'améliorer la rapidité de calcul des pertes de sol afin de couvrir de plus vastes territoires. Nous pourrons ainsi contribuer à déterminer plus rapidement et adéquatement des moyens pour corriger la situation avant que les sols les plus sensibles ne deviennent infertiles. Pour l'ensemble du territoire à l'étude, nous avons obtenu des pertes totales de sol de 791 tonnes métriques/an. Elles sont réparties comme suit: 24 Van pour la forêt, 95 Van pour les cultures et 672 t/an pour les secteurs de sol nu. De plus, on observe que 84,96% des pertes de sols se retrouvent sur les sols nus qui ne représentent que 7,35% du territoire. Les forêts qui couvrent 66,09% du territoire n'obtiennent que 3,03 % des pertes totales de sol.||Abstract : Soil degradation is a process that affects croplands in all countries around the word. Water erosion is the most frequently observed process involved in soil degradation but also the less well known by farmers. The purpose of this study is to integrate into a geographical information system (G.I.S.) the universal soil loss equation (U.S.L.E.) factors to estimate soil losses due to water erosion. This methodology was applied in an agricultural region of 500 km2 in the Eastern Townships (southern Quebec). A HRV SPOT satellite image was used to determine land use. From the digital elevation model (D.E.M.) we derived the slope and slope length required to calculate the topographic factor (LS factor). Finally, we added to the G.I.S. the digitized soil map units with their soil erodibility based on rainfall simulator measurements. The use of modern and flexible tools like remote sensing and geographical information systems (G.I.S.) allowed us to increase calculation speed of soil loss to cover more territoriy. This method will also contribute to determine more quickly and adequately the solutions to correct the situation before the more sensitive soils become unfertile. For all our study area, we obtained a total soil loss of 791 metric tons/year. These are divided as follows: 24 t/an for forest, 95 t/an for crops and 672 t/an for bare soils. We also observe that 84,96% of soil losses were found on bare soils that represent only 7,35% of the territory. Forests that cover 66,09% of the territory represent only 3,03 % of the total soil losses.
113

Modèle d'isochrones automatisé du mouvement potentiel des personnes portées disparues

Blanco, Miguel Alfonso January 2016 (has links)
Résumé : Au Canada, annuellement il y a près de 10 000 personnes disparues. Pour les retrouver chaque fois une alerte est donnée. La police et les groupes de recherche terrestre spécialisés travaillent pour la retrouver, mais, par où commencer? Dans quelles directions orienter les recherches? Combien du temps pour balayer les différents secteurs? C’est souvent une question d’heures ou même des minutes pour la retrouver vivante. La théorie de recherche a trois concepts essentiels; la probabilité d’aire, la probabilité de détection et la probabilité de succès. Notre travail a cherché à préciser la probabilité d’aire. L’objectif de ce travail de recherche a consisté à développer un algorithme pour élaborer des cartes d’isochrones automatiques de la vitesse de marche probable des disparus. Il tient compte des restrictions dues aux variables environnementales (relief, occupation du sol, météorologie) et anthropiques (âge, sexe, taille, poids et activité physique). Le travail est développé au tour d’un système d’information géographique. Sur ceci nous distinguons deux groupes des données. Le premier correspond aux données attributaires que servent à générer la zone tampon et les facteurs de vitesse de l’individu. Ces données sont attachées à la couche du point initial. Dans le deuxième groupe, nous trouvons les données à référence spatiale intérieures à la zone tampon. Les facteurs de vitesse de l’individu et la carte de pentes génèrent la carte de vitesses par superficie. Les données de couverture de sol, quant à elles, produisent la carte de coût de traversée de la superficie. Finalement, la multiplication des deux dernières cartes produit la carte de coût de voyage, laquelle est le résultat essentiel pour concevoir la carte des courbes isochrones. Un algorithme a été construit et développé en langage de programmation Python. Il a été exécuté avec des données saisies dans l’environnement d’ArcGis 10.2. Nous avons observé une tendance des disparus à rester dans un rayon d’une heure de marche à partir du point initial (Pl). De plus, des variables comme les routes, sentiers et lignes de transport d’énergie influencent la marche. Finalement nous avons trouvé que l’outil aide au confinement de la probabilité d’aire. L’outil se démarque par sa simplicité d’usage. À l’intégration des facteurs de marche qui sont reliés à l’individu. Ainsi qu’à l’inclusion des facteurs météorologiques. Il peut s’exécuter partout au Canada. / Abstract : In Canada, annually there are about 10 000 missing persons. To find them whenever a warning is given. Police and specialized ground search groups work to find her, but where to start? In what directions guide research? How much time to scan the different sectors? It is often a matter of hours or even minutes to find her alive. The search theory has three basic concepts; the probability of area, the probability of detection and probability of success. Our work has sought to precise the probability of area in land search. The aim of this research was to develop an algorithm to make automatic isochrone maps that show the probability walking time of the missing person. It takes account of restrictions due to environmental variables (topography, land use, meteorology) and anthropogenic (age, sex, height, weight and physical activity). The work was developed around a geographic information system. On top of this, we distinguish two groups of data. The first is the attribute data that are used to generate the buffer zone and the individual speed factors. These data are attached to the initial planning point layer. In the second group, we find the internal spatial data in the buffer zone. The individual factors of speed and slope map produced the speed map. Ground cover data generated the cost map of crossing the area. Finally, the multiplication of the last two maps produced the travel cost map, which is the last step to design the isochrone map. An algorithm has been built and developed in the Python programming language. It was performed with the data entered into the ArcGIS 10.2 environment. We observed a trend of lost persons to stay around an hour's walk from the initial planning point (IPP). In addition, variables such as roads, paths and power transmission lines affect the walking speed. We found that the tool aid to precise the containment of probability of area. The tool is distinguished by its ease of use. With the integration of walking factors that are connected to the lost persons. We include meteorological factors. It can run across Canada.
114

Comparaison de signaux (géophysique, LiDAR) utilisés dans l'étude des dynamiques anthropiques et naturelles

Laplaige, Clément 16 February 2012 (has links) (PDF)
La caractérisation de la réalité matérielle du paysage impose d'une part de reconnaitre avec précision le cadre physique et d'autre part de saisir les interrelations entre les hommes et l'environnement, conditions indispensables à l'appréciation des origines du modelé du paysage. La compréhension des paysages passés se fonde en partie sur l'analyse de différentes sources documentaires qui permettent ensemble de caractériser bon nombre des évolutions paysagères intervenues notamment depuis l'époque moderne. Toutefois, les aménagements plus anciens ne sont ni localisés ni représentés sur des cartes. Leurs traces sont alors décelées dans le paysage actuel de manière efficace grâce notamment à la mise en oeuvre conjointe de diverses méthodes de détection : la photographie aérienne, enregistrant des variations topographiques ou colorimétriques à la surface du sol et le système LiDAR (Light Detection And Ranging), mesurant les variations microtopographiques à l'aide d'un laser. L'étude d'autres paramètres, imperceptibles à nos sens, permettent également d'appréhender les traces des paysages passés. Les méthodes géophysiques détectent la présence de vestiges ou de structures enfouies qu'aucun indice ne signale en surface grâce à la mesure des propriétés physiques du sol. Il est largement admis que les méthodes de prospection sont susceptibles de fournir des données archéologiques quant à l'occupation du sol et/ou l'exploitation du territoire. A ce titre, elles ont été appliquées depuis plusieurs années sur le site de l'agglomération antique d'Epomanduodurum (Mandeure-Mathay, Doubs) dans le nord Franche-Comté. Cette ville est considérée, par sa taille, son équipement urbain et sa parure monumentale comme la seconde de Séquanie derrière la capitale de cité Vesontio (Besançon, Doubs). Ce travail de recherche se propose donc de comparer, à différentes échelles spatiales, l'apport respectif de plusieurs méthodes de prospection à l'étude de dynamiques naturelles et anthropiques dans un espace géographique de 80 km², centré sur la ville antique, associant un tronçon de plaine alluviale du Doubs aux plateaux calcaires environnants. Durant cette étude, il a été possible, entre autre, de développer des outils aidant à la détection des structures archéologiques et géologiques. Les résultats ont aussi permis de redéfinir en partie la topographie de l'agglomération antique.
115

Ingénierie des modèles pour les applications environnementales

Miralles, André 11 December 2006 (has links) (PDF)
À la conjonction de l'Information Géographique et de l'Informatique, la recherche menée relève du domaine Géomatique. Elle traite de l'apport de l'ingénierie des modèles à la conception et au développement de Systèmes d'Information Géographique (SIG). Le domaine d'application géomatique, une capitalisation des connaissances déficiente au cours du processus de développement et une qualité des connaissances capturées en séance d'analyse insuffisante ont conduit à se fixer comme objectif de réaliser un outil d'aide à la conception de Systèmes d'Information Géographique adapté à un processus de développement permettant le prototypage rapide en séance d'analyse et assurant la capitalisation des connaissances. La dichotomie Information Géographique / Informatique a nécessité de mobiliser des connaissances de ces deux domaines et structure le contenu de la recherche. La première contribution porte sur la modélisation des SIG. Suite à un balayage rapide de la bibliographie sur les méthodes et formalismes de conception de SIG existants, le besoin de comparer les propriétés spatiales et temporelles mise en ½uvre par les méthodes et les formalismes a conduit à entreprendre une étude terminologique s'appuyant sur la théorie des ensembles. Cette étude a donné lieu à une taxinomie générale de la terminologie utilisée. La proximité conceptuelle entre cette taxinomie et les diagrammes de classes UML a permis de définir une méthode de dérivation de cette taxinomie pour obtenir un métamodèle SIG et un Patron de Conception SIG. Ce dernier sera généré automatiquement par les transformations définies en ingénierie des modèles. L'étude terminologique a aussi permis d'identifier les relations entre les concepts thématiques, les propriétés spatiales et temporelles, etc. Ces relations ont contribué à définir les transformations de modèles de la seconde contribution. La seconde contribution relève de l'ingénierie des modèles. L'objectif relatif au processus de développement permettant le prototypage rapide en séance d'analyse a conduit à définir la méthode Continuous Integration Unified Process qui superpose un cycle de prototypage rapide en phase d'analyse de la méthode Unified Process. L'objectif de capitalisation des connaissances a nécessité de concevoir une généralisation de l'approche MDA appelée Software Development Process Approach (SDPA) fondée sur le constat que la capitalisation des connaissances est une problématique qui se pose au cours de tout le processus de développement. Un artefact multimodèle, appelé Software Development Process Model (SDPM), a été conçu pour résoudre ce problème. Il associe un sous-modèle à chacune des phases du cycle de développement. Une transformation de diffusion fondée sur le clonage des concepts permet de transférer, de sous-modèle en sous-modèle, les concepts du sous-modèle d'analyse jusqu'au(x) sous-modèle(s) d'implémentation. Une transformation de rétrodiffusion permet le transfert inverse. La cohérence du SDPM est assurée par une architecture de liens de traçabilité qui relie tout concept à son clone et par des prétraitements et/ou post-traitements aux transformations de diffusion et de rétrodiffusion. Quatre transformations de nature géomatique permettent d'une part, la saisie des propriétés spatiales et/ou temporelles des entités référencées sous forme d'annotations et, d'autre part, la conversion de ces annotations en éléments de modélisation UML exploitables par les générateurs de code de l'atelier de génie logiciel. Enfin, les trois transformations effectuées sur le modèle d'implémentation SQL adaptent le modèle diffusé au générateur de code de l'atelier de génie logiciel utilisé. La méthode Continuous Integration Unified Process et la démarche Software Development Process Approach ont été instrumentées au sein de l'atelier de génie logiciel
116

La mobilisation des employés lors de l'implantation d'un système d'information : études de cas dans le secteur public québécois

Ouadahi, Jamal January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
117

Modélisation et optimisation de la gestion opérationnelle du trafic ferroviaire en cas d’aléas

Gely, Laurent 14 December 2010 (has links)
La régulation ferroviaire sur de vastes zones est un problème complexe. Elle intervient dans la phase opérationnelle de la production. Son rôle consiste à trouver de nouvelles solutions en termes de planification des mouvements de trains suite à l'apparition d'un incident empêchant la réalisation normale du plan de transport préétabli dans les phases amont de la production.La contribution de ce travail s'organise autour de trois axes.Le premier consiste à définir une formalisation exhaustive du système ferroviaire, associé à une représentation plus cohérente (modèle multiniveau).Le deuxième axe s'articule autour de l'étude des modèles mathématiques pour la régulation du trafic ferroviaire: évolutions d'un modèle en temps continu complet (espacements dynamiques), proposition d'un modèle innovant à temps discret et d'un modèle mixte (continu-discret) adossé au modèle multiniveau.Enfin, le dernier axe traite de la mise en oeuvre concrète au niveau industriel, en particulier des gains attendus du couplage avec un outil de simulation. / On-line re-scheduling of trains aims to find accurate solutions after an incident has occurred on the railway network. When we consider a large area, solutions consist in calculating new timetables, sequences and routes of trains. This problem asks for decision support tools based on operational research techniques.This thesis aims to develop solutions toward an operational tool, it articulates around three main parts. The first part defines an exhaustive model of the railway system operations and a multiscalable description of the infrastructure.The second part presents three mathematical models of the rescheduling problem associated with this description. We preset a exhaustive continuous time based model including headways that take into account speeds of trains, plus a discrete time based model and an hybrid model combining both formulations.The last part describes first implementations and the global framework we need to develop in order to solve the real world problem. It emphases on expected synergies, specilaly between simulation and optimization techniques.
118

La demi-vie des jugements

Paré, Éric 12 1900 (has links)
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit option Droit des technologies de l'information" / Il est reconnu, en droit, qu'un juge est fondé de s'appuyer sur les règles jurisprudentielles. En fait, il peut s'y appuyer et doit même s'y conformer: ces règles qui sont définies dans des décisions font autorité. Il doit respecter la règle du précédent et rester sur la décision (« stare decisis »). Selon cette conception, la jurisprudence s'accumule au fil du temps: de plus en plus de décisions peuvent être citées à l'appui d'un point de droit. Mais en pratique, le résultat est différent. La jurisprudence citée change. Le droit évolue. Et les jugements, un jour importants, finissent par être oubliés. Éventuellement, ils sont remplacés par la jurisprudence plus jeune. Dans ce mémoire, une approche jurimétrique est utilisée pour évaluer le rythme auquel le droit évolue. C'est-à-dire que des calculs statistiques sont effectués à l'aide de programmes informatiques afin de comparer, d'un échantillon à un autre, le rythme auquel le droit change. De façon générale, ils permettent de comptabiliser l'âge des citations dans les jugements et établissent des moyennes. Ils permettent d'établir l'âge de demi-vie des jugements et offrent, ainsi, une mesure du rythme auquel le droit évolue. / It is widely known, in law, that a judge uses mIes established in precedents for argumentation. In fact, he relies on it and has to respect the mIes that are already defined : case law materials are authoritative. He is to respect precedent law and stay on the decision (« stare decisis »). According to this conception, the available case law collection grows through time : more and more decisions can be cited to interpret a particular point of law. But reality shows a different picture. The case law that gets cited changes. Law evolves. And the judgments that were once important are, eventually, forgotten. In the end, they are replaced by recent developpements. In this thesis, jurimetrics is used to evaluate the rythm to which law evolves. Statistics are computed by using automated software in order to compare, from one sample to another, the rythm to which cited decisions change. Software is used to compute the age of citations in judgments and establish averages. It is thus possible to evaluate the half-life of case law judgments and, therefore, provide with an idea of the rythm to which law evolves.
119

Nouveau support de visualisation spatio-temporelle pour faciliter l'exploration et le partage de données environnementales : SFMN GeoSearch : un outil pour la recherche en foresterie au Canada

Gonzalès, Rodolphe January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
120

Vers une métrique de la commensurabilité des schémas d'interprétation / Towards a metric of the commensurability of interpretative frameworks

Arduin, Pierre-Emmanuel 26 September 2013 (has links)
La connaissance, parce qu'elle est le résultat de l'interprétation par un individu d'une information, ne peut pas toujours être manipulée comme un objet. C'est en filtrant au travers de nos schémas d'interprétation les informations qui nous parviennent que nous créons des connaissances. La commensurabilité des schémas d'interprétation est un concept abstrait se basant sur une règle assez floue : plus il est probable que la même information prenne le même sens pour plusieurs individus, plus leurs schémas d'interprétation sont commensurables ; moins il est probable que la même information prenne le même sens pour plusieurs individus, moins leurs schémas d'interprétation sont commensurables. L'objet de cette thèse est de proposer des approches pour déterminer dans quelle mesure deux individus donnent le même sens à la même information. / Knowledge resulting of the interpretation by an individual of information, it cannot always be handled as an object. Indeed, we create knowledge when filtering information through ours interpretative frameworks. The commensurability of interpretative frameworks is an abstract concept, relying on a quite unclear rule: higher is the probability that the same information will have the same meaning for several people, more commensurable are their interpretative frameworks ; lower is that probability, less commensurable are their interpretative frameworks. The purpose of this thesis is to propose approaches in order to determine to what extent two individuals will give the same meaning to the same information.

Page generated in 0.1025 seconds