• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 6
  • 2
  • Tagged with
  • 21
  • 21
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

An integrated decision analytic framework of machine learning with multi-criteria decision making for patient prioritization in elective surgeries

Jamshidi Shahvar, Nima January 2022 (has links)
Objectif: De nombreux centres de santé à travers le monde utilisent des critères d'évaluation des préférences cliniques (CPAC) pour donner la priorité aux patients pour accéder aux chirurgies électives. Le processus de priorisation clinique du patient utilise à cette fin les caractéristiques du patient et se compose généralement de critères cliniques, d'expériences de patients précédemment hospitalisés et de commentaires sur les réseaux sociaux. Le but de la hiérarchisation des patients est de déterminer un ordre précis pour les patients et de déterminer combien chaque patient bénéficiera de la chirurgie. En d'autres termes, la hiérarchisation des patients est un type de problème de prise de décision qui détermine l'ordre de ceux qui ont le plus bénéficié de la chirurgie. Cette étude vise à développer une méthodologie hybride en intégrant des algorithmes d'apprentissage automatique et des techniques de prise de décision multicritères (MCDM) afin de développer un nouveau modèle de priorisation des patients. L'hypothèse principale est de valider le fait que l'intégration d'algorithmes d'apprentissage automatique et d'outils MCDM est capable de mieux prioriser les patients en chirurgie élective et pourrait conduire à une plus grande précision. Méthode: Cette étude vise à développer une méthodologie hybride en intégrant des algorithmes d'apprentissage automatique et des techniques de prise de décision multicritères (MCDM) afin de développer un modèle précis de priorisation des patients. Dans un premier temps, une revue de la littérature sera effectuée dans différentes bases de données pour identifier les méthodes récemment développées ainsi que les facteurs de risque / attributs les plus courants dans la hiérarchisation des patients. Ensuite, en utilisant différentes méthodes MCDM telles que la pondération additive simple (SAW), le processus de hiérarchie analytique (AHP) et VIKOR, l'étiquette appropriée pour chaque patient sera déterminée. Dans la troisième étape, plusieurs algorithmes d'apprentissage automatique seront appliqués pour deux raisons: d'abord la sélection des caractéristiques parmi les caractéristiques communes identifiées dans la littérature et ensuite pour prédire les classes de patients initialement déterminés. Enfin, les mesures détaillées des performances de prédiction des algorithmes pour chaque méthode seront déterminées. Résultats: Les résultats montrent que l'approche proposée a atteint une précision de priorisation assez élevée(~70 %). Cette précision a été obtenue sur la base des données de 300 patients et elle pourrait être considérablement améliorée si nous avions accès à plus de données réelles à l'avenir. À notre connaissance, cette étude présente la première et la plus importante du genre à combiner efficacement les méthodes MCDM avec des algorithmes d'apprentissage automatique dans le problème de priorisation des patients en chirurgie élective. / Objective: Many healthcare centers worldwide use Clinical Preference Assessment criteria (CPAC) to prioritize patients for accessing elective surgeries [44]. The patient's clinical prioritization process uses patient characteristics for this purpose and usually consists of clinical criteria, experiences of patients who have been previously hospitalized, and comments on social media. The sense of patient prioritization is to determine an accurate ordering for patients and how much each patient will benefit from the surgery. This research intends to build a hybrid approach for creating a new patient prioritizing model by combining machine learning algorithms with multi-criteria decision-making (MCDM) methodologies. The central hypothesis is to validate that the integration of machine learning algorithms and MCDM tools can better prioritize elective surgery patients and lead to higher accuracy. Method: As a first step, a literature review was performed in different databases to identify the recently developed methods and the most common criteria in patient prioritization. Then, using various MCDM methods, including simple additive weighting (SAW), analytical hierarchy process (AHP), and VIKOR, the appropriate label for each patient was determined. As the third step, several machine learning algorithms were applied to predict each patient's classes. Finally, we established the algorithms' precise prediction performance metrics for each approach. Results: The results show that the proposed approach has achieved relatively high prioritization accuracy (~70%). This accuracy has been obtained based on the data from 300 patients, and it could be significantly improved if we have access to more accurate data in the future. To the best of our knowledge, this research is the first of its type to demonstrate the effectiveness of combining MCDM methodologies with machine learning algorithms in patient prioritization problems in elective surgery.
12

Développement de méthodes d'apprentissage profond pour l'aide au diagnostic du cancer par spectrométrie de masse

Seddiki, Khawla 28 September 2023 (has links)
Thèse ou mémoire avec insertion d'articles / La spectrométrie de masse est devenue ces dernières années une technologie incontournable dans l'analyse à large échelle des composés cellulaires. En recherche clinique, les études qui utilisent cette technologie sont de plus en plus répandues. Ces études visent principalement deux objectifs. Le premier est le diagnostic de maladies qui passe par la classification d'échantillons provenant de différents états expérimentaux. Le deuxième objectif est l'identification de signatures des maladies étudiées qui passe par la mise en évidence de biomarqueurs. Cependant, la grande dimensionnalité, la présence de bruit et la complexité des données liées à ce type d'analyse nécessitent le développement d'outils computationnels performants. La récente émergence d'algorithmes d'apprentissage automatique a révolutionné de nombreux domaines de recherche y compris le diagnostic et l'identification de biomarqueurs. Néanmoins, ces algorithmes ne permettent pas toujours d'obtenir des résultats satisfaisants car ils nécessitent au préalable des étapes fastidieuses de prétraitement et de sélection d'attributs. Tandis que les algorithmes d'apprentissage profond et plus particulièrement les réseaux de neurones ont la capacité d'extraire automatiquement les caractéristiques pertinentes à partir de données brutes. Cette thèse vise à concevoir des algorithmes à base de réseaux de neurones pour le diagnostic du cancer et l'identification de biomarqueurs à partir de données protéomiques et métabolomiques. Ce travail est présenté sous la forme de trois contributions. La première, nommée apprentissage cumulatif, est une nouvelle méthodologie à base de réseaux de neurones convolutifs développée pour le diagnostic dans un contexte de rareté de données. La deuxième contribution est une nouvelle méthodologie à base de réseaux de neurones récurrents développée pour le diagnostic précoce. Ces deux méthodologies ont été comparées à des approches d'apprentissage automatique traditionnellement utilisées pour les données de spectrométrie de masse. Non seulement nos méthodologies ont été plus performantes que les approches traditionnelles. Elles ont eu également l'avantage d'être efficaces sur les données brutes et ont permis ainsi de s'affranchir des étapes coûteuses de prétraitement et de sélection d'attributs. De plus, elles ont eu un temps d'exécution de quelques secondes les rendant compatibles avec une analyse clinique rapide. Pour ce qui est de la troisième contribution, nommée SpectraLIME, elle consiste en une méthodologie d'interprétation des réseaux de neurones. Elle a identifié des régions spectrales d'intérêt contenant des biomarqueurs connus et des biomarqueurs candidats pouvant constituer de nouvelles cibles diagnostiques ou thérapeutiques. Nous avons pu démontrer tout au long de cette thèse la puissance des algorithmes d'apprentissage profond appliqués aux données omiques. Ce travail illustre l'intérêt de la spectrométrie de masse comme un outil puissant qui améliore remarquablement l'aide à la décision clinique. / In recent years, mass spectrometry has become an essential technology for large-scale analysis of cellular compounds. In clinical research, studies using this technology are becoming moreand more widespread. These studies have two main objectives. First, the diagnosis of diseases through the classification of samples from different experimental conditions. The second objective is the identification of signatures of the studied diseases through the detection of biomarkers. However, the high dimensionality, the presence of noise and the complexity of the data related to this type of analysis require the development of powerful computational tools. The recent emergence of machine learning algorithms has revolutionized many research areas including diagnosis and biomarker identification. However, these algorithms do not always provide satisfactory results because they require tedious pre-processing and feature selection steps. While deep learning algorithms and more particularly neural networks have the ability to automatically extract relevant features from raw data. This thesis aims at designing neural network algorithms for cancer diagnosis and biomarkers identification from proteomic and metabolomic data. This work is presented in the form of three contributions. The first one, named cumulative learning, is a new methodology based on convolutional neural networks developed for diagnosis in a context of data scarcity. The second contribution is a new methodology based on recurrent neural networks developed for early diagnosis. These two methodologies were compared to machine learning approaches traditionally used for mass spectrometry data. Not only our methodologies outperformed traditional approaches, but they also had the advantage of being effective on raw data and thus avoided costly pre-processing and feature selection steps. Moreover, they had an execution time of a few seconds, making them compatible with rapid clinical analysis. The third contribution, named SpectraLIME, consists of a methodology of neural networks interpretability. It identified spectral regions of interest containing known biomarkers and candidate biomarkers that could constitute new diagnostic or therapeutic targets. Throughout this thesis, we were able to demonstrate the power of deep learning algorithms applied to omics data. This work illustrates the interest of mass spectrometry as a valuable tool that remarkably improves clinical decision support.
13

Stratégie de rotation sectorielle fonction des relations de causalité entre les forces économiques et boursières

Walker, David 14 January 2022 (has links)
La compréhension des interactions entre les forces économiques et boursières revêt une importance fondamentale pour les gestionnaires de portefeuille ainsi que pour les autorités monétaires. Les forces économiques exercent une influence sur les valorisations boursières, voir Chen, Roll et Ross (1986). Les taux de croissance des forces économiques et boursières sont interdépendants et leurs covariances dépendent de régimes en commun, voir Guidolin et Ono (2006), Hubrich et Telow (2014). Dans une nouvelle perspective, cette thèse considère que leurs taux de croissance évoluent en fonction de la structure causale des régimes exogènes de tendance haussière et baissière spécifiques à ces forces. Les relations de causalité qui lient leurs régimes sont découvertes par l'apprentissage de la structure et des paramètres d'un réseau bayésien. Une stratégie de rotation sectorielle consiste à moduler dans le temps les poids d'un portefeuille alloués aux secteurs boursiers, voir Chong et Phillips (2015). Le phénomène d'asymétrie de la volatilité de Black (1976) veut qu'une relation négative lie la croissance de la volatilité aux rendements boursiers. Par le biais d'un réseau bayésien, cette thèse exploite le pouvoir prévisionnel qu'exerce les régimes endogènes de volatilité d'indicateurs économique et boursier sur leurs régimes exogènes de tendance courants, connus ex post. Elle soutient qu'il est possible de construire une stratégie de rotation sectorielle profitable en exploitant le phénomène d'asymétrie de volatilité et les relations de causalité entre les forces économiques et boursières dans un problème de construction de portefeuille résolu par optimisation de scénarios. Des preuves de la surperformance d'une stratégie d'investissement active au-delà d'un indice de référence, dans un contexte d'investissement réel hors échantillon de calibration, supportent la thèse formulée. Des contributions secondaires de nature économiques et techniques sont réalisées aux fils des étapes nécessaires à la démonstration de la thèse principale. Différemment de Pagan et Sossounov (2003), un nouvel indicateur de crise et de croissance boursière, exempt de biais sectoriels, est construit à partir des phases exogènes de tendance coïncidentes à des indices de secteurs boursiers. Ces derniers sont communément regroupés en fonction de leur niveau de risque et de sensibilités à l'activité économique et à l'indice global de marché, voir Denoiseux et coll. (2017). Une méthode inédite de regroupement de secteurs est développée à partir de caractéristiques communes à leurs régimes exogènes : ils présentent des profils similaires d'association avec ceux des indicateurs économiques et leurs distributions de rendement par régime exogène disposent de propriétés uniques. La méthode usuelle de détection du phénomène d'asymétrie de la volatilité (PAV) repose sur un coefficient d'asymétrie significatif, lorsqu'intégré dans une expression GARCH de la variance conditionnelle, voir Glosten, Jagannathan et Runkle (1993). Une technique novatrice d'investigation du PAV, adaptée à des données à faible fréquence, est développée à partir de mesures d'association entre les phases endogènes à forte/faible volatilité et exogènes de tendance baissière/haussière. Le régime endogène de volatilité d'un indicateur qui satisfait au PAV constitue un indicateur avancé de son régime exogène de tendance courant. Un nouveau système d'équations est développé de manière à calibrer un modèle autorégressif, dont le terme d'erreur suit une mixture de lois normales, à partir d'un algorithme « Expected Maximization ». Ce modèle est exploité de manière à représenter les spécificités de l'anormalité des taux de croissance segmentés par régime exogène. Les corrélations des actifs se resserrent en période de recul boursier (Login et Solnik (2002)). Un algorithme est construit de manière à évaluer la segmentation optimale des corrélations, entre les taux de croissance de deux variables, parmi les combinaisons d'états de leur régime exogène. Une nouvelle procédure de sélection et de paramétrisation d'un algorithme d'apprentissage de la structure d'un réseau bayésien est développée en fonction des niveaux de risque optimaux des erreurs de type I et II, dans un contexte représentatif du problème. La procédure est utilisée afin de découvrir les liens de causalité entre les régimes de tendance et de volatilité des forces économiques et boursières. L'ensemble de ces outils permettent de modéliser dans une simulation de Monte-Carlo, la dépendance de la densité de probabilité des taux de croissance des indicateurs et de leurs corrélations aux phases exogènes de tendance, régies par un réseau bayésien dynamique.
14

Analyse des réseaux sociaux pour la prédiction de l'affluence lors d'un évènement

Logovi, Tété Elom Mike Norbert 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 16 janvier 2024) / Ce projet de recherche porte sur l'utilisation de données des réseaux sociaux basés sur des évènements ainsi que des données météorologiques pour prédire la participation effective des utilisateurs à des évènements en ligne ou hors ligne, à l'ère de la technologie qui peut rassembler des participants du monde entier. Cette recherche a été principalement motivée par le fait que les organisateurs d'évènements ont souvent du mal à estimer le nombre de participants, ce qui peut entraîner des problèmes financiers, organisationnels et de réputation. Dans ce domaine, de nombreuses études ont développé des algorithmes d'apprentissage automatique pour prédire la participation des utilisateurs aux évènements, bien que des améliorations soient nécessaires. De plus, peu d'études ont examiné l'interprétabilité et l'explicabilité de ces algorithmes afin de déterminer les facteurs qui influencent le plus la participation d'un utilisateur à un évènement. Ce projet de recherche offre une solution complète à ces questions. Sa solution est une méthode consistant à collecter des données sur les évènements et les conditions météorologiques et à en extraire les caractéristiques pertinentes. Ces caractéristiques permettent ensuite d'entraîner des algorithmes d'apprentissage automatique afin de prédire si un utilisateur participera effectivement à un évènement. Il est important de noter que cette recherche cherche tente également d'expliquer comment les prédictions sont faites en déterminant les facteurs les plus importants. Des données météorologiques et des données relatives aux évènements du réseau social basé sur des évènements Meetup ont été utilisées dans le cadre de l'étude. L'expérience a révélé que l'algorithme Decision Tree était le plus performant pour prédire la participation à un évènement. En outre, la distance entre l'utilisateur et le lieu de l'évènement est le facteur le plus important pour prédire la participation des utilisateurs. Ce projet présente plusieurs avantages majeurs, notamment la possibilité de combiner des données d'événements provenant de Meetup, un réseau social basé sur les événements, avec les préférences des utilisateurs évaluées à l'aide de divers paramètres et une analyse approfondie de l'interprétabilité des classificateurs afin d'identifier les facteurs de participation aux événements. Cependant, il présente certaines limites, telles qu'un ensemble de données déséquilibré avec davantage d'utilisateurs non participants, des tests sur des événements passés plutôt que futurs, et le manque d'exploration des données des réseaux sociaux non basés sur des événements. En conclusion, cette recherche vise à améliorer la compréhension des mécanismes qui affectent l'engagement des utilisateurs dans les évènements, offrant de nouvelles perspectives aux organisateurs d'évènements et aux chercheurs dans ce domaine en évolution rapide. Elle fournit des outils pour anticiper et gérer la participation, améliorant ainsi la qualité et la préparation des évènements, qu'ils soient en ligne ou hors ligne. / This research project focuses on the use of event-based social network data and weather data to predict users’ actual participation in online and offline events, in the age of technology that can bring together participants from all over the world. This research was primarily motivated by the fact that event organizers often find it difficult to estimate the number of participants, which can lead to financial, organizational and reputational problems. In this field, many studies have developed machine learning algorithms to predict user participation in events, although improvements are needed. Moreover, few studies have examined the interpretability and explicability of these algorithms to determine which factors most influence a user’s participation in an event. This research project offers a comprehensive solution to these questions. Its solution is a method of collecting data on events and weather conditions and extracting relevant features. These features are then used to train machine learning algorithms to predict whether a user will actually attend an event. Importantly, this research also attempts to explain how predictions are made by identifying the most important factors. Weather and event data from the Meetup event-based social network were used in the study. The experiment revealed that the Decision Tree algorithm performed best in predicting event attendance. Furthermore, the distance between the user and the event location was the most important factor in predicting user participation. This project has several major advantages, including the ability to combine event data from Meetup, an event-based social network, with user preferences assessed using various parameters, and an in-depth analysis of classifier interpretability to identify event participation factors. However, it has certain limitations, such as an unbalanced dataset with more nonparticipating users, tests on past rather than future events, and lack of exploration of nonevent-based social network data. In conclusion, this research aims to improve understanding of the mechanisms affecting user engagement in events, offering new perspectives to event organizers and researchers in this rapidly evolving field. It provides tools for anticipating and managing participation, thus improving the quality and preparation of events, whether online or offline.
15

Est-ce que l'apprentissage automatique permet de prédire un comportement en nutrition?

Côté, Melina 28 March 2022 (has links)
L'apprentissage automatique (AA) a permis des progrès inégalés en nutrition, notamment dans les domaines de l'évaluation alimentaire, du traitement de données massives associées aux sciences « omiques », de l'analyse des médias sociaux et de la prédiction du risque de maladie. Toutefois, l'AA n'est pas encore exploité dans le domaine de la prédiction de comportements associés à la saine alimentation. Les interventions et politiques de santé publique en nutrition mises sur pied jusqu'à ce jour ne semblent pas porter fruit puisque les choix et comportements alimentaires au niveau populationnel restent sous-optimaux. Afin de contrer l'épidémie de maladies chroniques qui découle d'une alimentation sous-optimale au Québec, il est essentiel d'identifier les facteurs individuels, sociaux et environnementaux qui déterminent les choix alimentaires de la population. Plusieurs études soutiennent l'idée que les algorithmes d'AA ont une meilleure capacité de prédiction que des modèles statistiques traditionnels, et pourraient donc permettre de mieux documenter les facteurs qui influencent les choix alimentaires de la population. Cependant, d'autres études n'ont rapporté aucune valeur ajoutée de l'utilisation d'algorithmes d'AA pour la prédiction du risque de maladies par rapport à des approches prédictives plus traditionnelles. L'objectif de ce projet de maîtrise était donc de comparer la performance de neuf algorithmes d'AA à celle de deux modèles statistiques traditionnels pour prédire un comportement en nutrition, soit une consommation adéquate de légumes et fruits, à partir de 525 variables individuelles, sociales et environnementales reliées aux habitudes alimentaires. Les résultats de ce mémoire démontrent que les algorithmes d'AA ne prédisent pas mieux la consommation adéquate de légumes et fruits que les modèles statistiques traditionnels. Cependant, étant une des premières études à comparer les algorithmes d'AA à des modèles statistiques traditionnels pour prédire un comportement en nutrition, davantage d'études comparant les deux approches doivent être menées afin d'identifier celles qui nous permettront de mieux documenter les déterminants de la saine alimentation. / Machine learning (ML) has offered unparalleled opportunities of progress in nutrition, including in the fields of dietary assessment, omics data analysis, social media data analysis and diet-related health outcome prediction. However, ML has not yet been explored for the prediction of dietary behaviours. Despite several public health interventions and policies in nutrition, adhering to heathy eating remains a challenge. In order to address the epidemic of chronic disease caused by unhealthy eating habits, it is necessary to better identify the individual, social and environmental determinants of healthy eating in the Quebec population. Many studies demonstrate that ML algorithms predict health outcomes with higher accuracy than traditional statistical models, and thus, could allow better identifying the factors that influence food choices in the Quebec population. However, other studies have reported no added value of using ML algorithms for disease risk prediction compared to traditional approaches. The aim of this master's project was to compare the accuracy of nine ML algorithms and two traditional statistical models to predict adequate vegetable and fruit consumption using a large array of individual, social and environmental variables. The results of this study demonstrate that ML algorithms do not predict adequate vegetable and fruit consumption with higher accuracy than traditional statistical models. However, being one of the first studies to compare ML algorithms and traditional statistical models to predict dietary behaviours, more studies comparing both approaches are needed to determine which models will allow better identifying the determinants of healthy eating.
16

Problèmes d'allocation de ressources dans les réseaux MIMO sans fil distribués

Belmega, Elena Veronica 14 December 2010 (has links) (PDF)
Dans ce manuscrit de thèse, l'objectif principal est d'étudier les réseaux sans fil dans lesquels les nœuds terminaux sont équipés de plusieurs antennes. Plusieurs thèmes d'actualité, tels que les réseaux intelligents auto-optimisants, les communications dites green ou vertes et algorithmes distribués sont abordés. Dans ce but, nous utilisons une gamme diversifiée d'outils de la théorie des jeux, théorie de l'information, théorie des matrices aléatoires et théorie de l'apprentissage. Nous commençons notre analyse par l'étude du problème d'allocation de puissance dans les réseaux MIMO distribués. Les émetteurs sont censés être autonomes et capables de gérer leurs puissances afin d'optimiser leur taux de Shannon atteignables. Le cadre des jeux non-coopératifs est utilisé pour étudier la solution de ce problème. Des algorithmes itératifs qui convergent vers la solution optimale donnée par l'équilibre de Nash sont proposés. Deux approches différentes sont appliquées: des algorithmes basés sur les meilleures réponses et des algorithmes d'apprentissage par renforcement. Un autre problème majeur dans les réseaux sans fil est lié à la question de l'efficacité énergétique. Afin d'atteindre des débits de transmission élevés, la consommation d'énergie est également élevée. Dans les réseaux où la consommation d'énergie est une question critique, le débit de Shannon atteignable n'est plus une métrique de performance adaptée. C'est pourquoi nous abordons également le problème de l'optimisation d'une fonction d'efficacité énergétique.
17

Les algorithmes d’apprentissage pour l’aide au stationnement urbain / Learning algorithms to aid urban parking

Houissa, Asma 15 March 2018 (has links)
L’objectif de cette thèse est de développer, d’intégrer et de tester une nouvelle approche algorithmique d’aide au stationnement dans les centres urbains. Considérons différents types d’infrastructures déployées allant de la détection des entrées/sorties des véhicules jusqu'à la variation dans le temps du nombre de places de stationnement disponibles dans chaque portion de rue, nous montrons qu’il est possible de proposer une méthode efficace qui détermine un itinéraire qui minimise l’espérance de temps pour trouver une place de stationnement disponible et de prédire la disponibilité des placesde stationnement.Pour cela, la zone urbaine choisie sera donc considérée comme un ensemble de ressources de stationnement (segments de rues).Nous modélisons d’abord cette zone urbaine par un graphe où les sommets désignent les carrefours et les arcs représentent les portions de rues. Les paramètres essentiels pour notre modèle de réseau urbain sont la capacité de stationnement et le temps de parcours des portions de rue.L’originalité et l’aspect innovant de notre approche s’appuient sur deux principes.Le premier principe concerne le guidage comme une ressource : il ne s’agit pas de guider vers une place libre mais de proposer un parcours qui optimise l’espérance de temps de trouver une telle place. Pour cela nous déterminons dans une zone centrée sur une destination donnée, le parcours à effectuer par un véhicule pour minimiser son espérance de temps de trouver une place destationnement le plus rapidement possible.Ainsi nous avons mis en œuvre un algorithme d’apprentissage par renforcement basée sur la méthode LRI (Linear Reward Inaction) et la méthode Monte Carlo pour minimiser l’espérance de temps de trouver une place de stationnement en zone urbaine.Nous avons comparé cet algorithme avec une approche globale basée sur l’évaluation arborescente à profondeur bornée.Le second principe repose sur la prédiction des places de stationnement disponibles par périodes de temps homogènes où on ne s’intéresse pas à une place de stationnement en temps réel mais aux places de stationnement par zones. Il s’agit alors pour le système de pouvoir prédire le potentiel de places libres dans chacune des ressources pour les prochaines périodes. On ne vise donc pas ici la prédiction de la disponibilité de chaque place ; chaque ressource sera considérée comme une zone de stockage dont la disponibilité sera établie en grande partie en fonction des flux d’entrée et de sortie de la portion. Pour ce principe, nous avons donc déterminé par algorithmes de calculs et d’apprentissages la probabilité qu’il y ait au moins une place libre pour stationner dans un tronçon de rue pour un créneau de temps donné. Les principales données nécessaires pour effectuer ces calculs sont les séries temporelles d’entrée sortie de chaque véhicule aux intersections des rues et les variations des places de stationnement au cours du temps.Nous avons évalué les performances de notre approche par simulations sur des données générées aléatoirement et des données réelles obtenues sur un quartier de Versailles. / The objective of this thesis is to develop, to integrate and to test a new algorithmic approach to help parking in urban centers.Given the different types of deployed infrastructure : from input-output detection of vehicles to time variation of the number of available places within each street segment, we propose an efficient method to determine an itinerary that minimize the time expectation to find an available place and also to predict the availability of the parking places.We have chosen an urban area and we have considered it as a set of parking resources called street segments. More exactly, this urban area is considered as a graph where the vertexes represent the crossroads and the arcs represent the street segments. The essential parameters of our urban area model are the parking capacity and the time crossing of each street segment. The originality and the innovation of our approach are based on two principles.The first one is the guidance as a resource, i.e., it means that the proposed itinerary is not the one that lead to an available parking place but rather the one that minimized the time expectation to find an available parking place. In order to achieve that we determine, in a an area centered on a given destination, the itinerary to follow by the vehicle in order minimize its time expectation to find an available parking place as quickly aspossible.We have designed and realized a reinforcement learning algorithm based on the LRI method (Linear Reward Inaction) and a Monte Carlo method to minimize the time expectation to find an available parking place in the urban area. We have compared this algorithm to a global approach based on tree evaluation with bounded depth. The second principle is based on the prediction of the parking places by homogeneous time period where we are not interestedon a parking place in real time but rather on the parking places byarea. In other terms, the system predict the potential available parkingplaces by resource for the next time periods. Thus, we don’t aim to predict the availability of each parking place, i.e., each resource is considered as stock area and its availability is assessed in major part in function of the street segment input-output flow. For this principle, we have determined by a learning algorithm the probability that there is at least one available parking place in a street segment within a given time. The major data needed to compute this probability are the time series of input-output of each vehicle in street intersections, and the variation of the available parking places through the time.We have evaluated the performance of this approach by simulation based on random generated data and on real data of a district in Versailles.
18

Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés

Robles, Bernard 18 December 2013 (has links) (PDF)
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
19

Traffic monitoring in home networks : from theory to practice / Supervision du trafic dans les réseaux domestiques : de la théorie à la pratique

Aouini, Zied 15 December 2017 (has links)
Les réseaux domestiques sont confrontés à une évolution continue et deviennent de plus en plus complexes. Leur complexité a évolué selon deux dimensions interdépendantes. D'une part, la topologie du réseau domestique devient plus complexe avec la multiplication des équipements et des technologies de connectivité. D'autre part, l'ensemble des services accessibles via le réseau domestique ne cesse de s’élargir. Un tel contexte a rendu la gestion du réseau domestique plus difficile pour les Fournisseurs d’Accès Internet (FAI) et les utilisateurs finaux. Dans ce manuscrit, nous nous concentrons sur la deuxième dimension de la complexité décrite ci-dessus liée au trafic circulant depuis/vers le réseau domestique. Notre première contribution consiste à proposer une architecture pour la supervision du trafic dans les réseaux domestiques. Nous fournissons une étude comparative de certains outils open source existants. Ensuite, nous effectuons une évaluation de performances expérimentale d’un sous ensemble des processus impliqués dans notre architecture. Sur la base des résultats obtenus, nous discutons les limites et les possibilités de déploiement de ce type de solution. Dans notre deuxième contribution, nous présentons notre analyse à large échelle des usages et du trafic résidentiel basée sur une trace de trafic réelle impliquant plus de 34 000 clients. Premièrement, nous présentons notre méthode de collecte et de traitement des données. Deuxièmement, nous présentons nos observations statistiques vis-à-vis des différentes couches de l’architecture Internet. Ensuite, nous effectuons une analyse subjective auprès de 645 clients résidentiels. Enfin, nos résultats fournissent une synthèse complète des usages et des caractéristiques des applications résidentielles. Dans notre troisième contribution, nous proposons une nouvelle méthode pour la classification en temps réel du trafic résidentiel. Notre méthode, laquelle est basée sur l’utilisation d’un algorithme d’apprentissage statistique de type C5.0, vise à combler les carences identifiées dans la littérature. Ensuite, nous détaillons notre implémentation d’une sonde légère sur un prototype de passerelle résidentielle capable de capturer, de suivre et d'identifier d’une manière fine les applications actives dans le réseau domestique. Cette implémentation nous permet, en outre, de valider nos principes de conception via un banc d'essai réaliste mis en place à cet effet. Les résultats obtenus indiquent que notre solution est efficace et faisable. / Home networks are facing a continuous evolution and are becoming more and more complex. Their complexity has evolved according to two interrelated dimensions. On the one hand, the home network topology (devices and connectivity technologies) tends to produce more complex configurations. On the other hand, the set of services accessed through the home network is growing in a tremendous fashion. Such context has made the home network management more challenging for both Internet Service Provider (ISP) and end-users. In this dissertation, we focus on the traffic dimension of the above described complexity. Our first contribution consists on proposing an architecture for traffic monitoring in home networks. We provide a comparative study of some existing open source tools. Then, we perform a testbed evaluation of the main software components implied in our architecture. Based on the experiments results, we discuss several deployment limits and possibilities. In our second contribution, we conduct a residential traffic and usages analysis based on real trace involving more than 34 000 customers. First, we present our data collection and processing methodology. Second, we present our findings with respect to the different layers of the TCP/IP protocol stack characteristics. Then, we perform a subjective analysis across 645 of residential customers. The results of both evaluations provide a complete synthesis of residential usage patterns and applications characteristics. In our third contribution, we propose a novel scheme for real-time residential traffic classification. Our scheme, which is based on a machine learning approach called C5.0, aims to fulfil the lacks identified in the literature. At this aim, our algorithm is evaluated using several traffic inputs. Then, we detail how we implemented a lightweight probe able to capture, track and identify finely applications running in the home network. This implementation allowed us to validate our designing principles upon realistic test conditions. The obtained results show clearly the efficiency and feasibility of our solution.
20

Les mises en forme algorithmiques, ruptures et continuités dans la quantification du social

Lareau, Justine 08 1900 (has links)
Ce mémoire de maîtrise porte sur les algorithmes de « data mining » et de « machine learning », constitutifs d’un domaine que l’on appelle plus récemment la « science des données ». Pour essayer d’éclairer la portée et la spécificité des enjeux que leur usage soulève dans nos sociétés, il est proposé d’interroger le rapport qu’ils entretiennent avec les fondements et les limites des outils plus traditionnels de la statistique sociale/mathématique, bien documentés en sociologie, à l'égard notamment du « langage des variables » et du raisonnement expérimental « toutes choses égales par ailleurs ». En inscrivant l’approche au croisement de la sociologie de la connaissance et de la quantification, le cadre conceptuel s’inspire de l’épistémologie comparative de Gilles-Gaston Granger, de la « méta-épistémologie historique » de Ian Hacking et de la sociohistoire de la statistique sociale d’Alain Desrosières. Par l’idée de mises en forme algorithmique de la vie sociale, les algorithmes de calcul sont envisagés comme modes d’investigation, partiellement ou complètement automatisés, procédant à des mises en forme et en ordre plurielles et différenciées du social et de ses propriétés. À partir de données de Statistique Canada servant à étayer plus concrètement les formes de connaissances produites et les visées d’objets qu’elles délimitent en termes de possibilités et de contraintes d’expérience, la présente étude de cas entreprend d’examiner le clivage des méthodes « classiques » et « contemporaines » à l’intérieur du cadre supervisé de l’apprentissage. Pour ce faire, trois techniques/familles d’algorithmes sont comparées sous l’angle de leurs opérations d’analyse: 1) les méthodes de régression logistique, 2) les arbres de décision et 3) les forêts aléatoires. L’objectif de cette analyse sociologique théorique comme empirique est d’examiner comment ces approches opèrent certains modes de classification et facilitent ou défavorisent des représentations du monde et de l’individu. Le travail conduit plus généralement à ouvrir quelques pistes de réflexion quant aux rapports de compatibilité et d’incompatibilité des formes de raisonnement du style statistique et probabiliste avec certains états du développement de la sociologie. / This master's thesis focuses on data mining and machine learning algorithms, constituting a field more recently called “data science”. To try to shed light on the specificity of the issues they raise in our societies, it is proposed to question the relationship they maintain with the foundations and the limits of the more “classic” tools of mathematical statistics in sociology, with regard in particular to the “language of variables” and to the experimental reasoning “all other things being equal” (cetaris paribus). By placing the approach at the intersection of the sociology of knowledge and quantification, the conceptual framework is inspired by the comparative epistemology of Gilles-Gaston Granger (1920-2016), the historical meta-epistemology of Ian Hacking (1936-) and the sociohistory of social statistics by Alain Desrosières (1940-2013). Through the idea of “mises en forme algorithmique de la vie sociale”, computational algorithms are considered as partially or completely automated types of investigation, carrying out plural and differentiated of shaping and ordering of the social and its properties. Using data from Statistics Canada used to more concretely support the forms of knowledge produced as well as the possibilities and experience constraints that they define, this case study sets out to examine the divide between “classical” and more “contemporary” methods of analysis within the framework of “supervised” learning. To do this, three algorithm techniques (or families of algorithms) are compared from the angle of their knowledge operations: 1) logistic regressions, 2) decision trees and 3) random forests. The objective of this theoretical as well as empirical work is to examine how these approaches operate certain modes of classification, facilitate or disadvantage representations of the world and can also be performative in social activities. The research work more generally leads to opening up some avenues of reflection as to the compatibility and incompatibility relationships of the forms of reasoning of the statistical and probabilistic style with certain states of development in society and in sociology.

Page generated in 0.4801 seconds