• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 12
  • 3
  • Tagged with
  • 43
  • 43
  • 19
  • 16
  • 10
  • 10
  • 9
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Régression linéaire et apprentissage : contributions aux méthodes de régularisation et d’agrégation / Linear regression and learning : contributions to regularization and aggregation methods

Deswarte, Raphaël 27 September 2018 (has links)
Cette thèse aborde le sujet de la régression linéaire dans différents cadres, liés notamment à l’apprentissage. Les deux premiers chapitres présentent le contexte des travaux, leurs apports et les outils mathématiques utilisés. Le troisième chapitre est consacré à la construction d’une fonction de régularisation optimale, permettant par exemple d’améliorer sur le plan théorique la régularisation de l’estimateur LASSO. Le quatrième chapitre présente, dans le domaine de l’optimisation convexe séquentielle, des accélérations d’un algorithme récent et prometteur, MetaGrad, et une conversion d’un cadre dit “séquentiel déterministe" vers un cadre dit “batch stochastique" pour cet algorithme. Le cinquième chapitre s’intéresse à des prévisions successives par intervalles, fondées sur l’agrégation de prédicteurs, sans retour d’expérience intermédiaire ni modélisation stochastique. Enfin, le sixième chapitre applique à un jeu de données pétrolières plusieurs méthodes d’agrégation, aboutissant à des prévisions ponctuelles court-terme et des intervalles de prévision long-terme. / This thesis tackles the topic of linear regression, within several frameworks, mainly linked to statistical learning. The first and second chapters present the context, the results and the mathematical tools of the manuscript. In the third chapter, we provide a way of building an optimal regularization function, improving for instance, in a theoretical way, the LASSO estimator. The fourth chapter presents, in the field of online convex optimization, speed-ups for a recent and promising algorithm, MetaGrad, and shows how to transfer its guarantees from a so-called “online deterministic setting" to a “stochastic batch setting". In the fifth chapter, we introduce a new method to forecast successive intervals by aggregating predictors, without intermediate feedback nor stochastic modeling. The sixth chapter applies several aggregation methods to an oil production dataset, forecasting short-term precise values and long-term intervals.
32

Le lasso linéaire : une méthode pour des données de petites et grandes dimensions en régression linéaire

Watts, Yan 04 1900 (has links)
Dans ce mémoire, nous nous intéressons à une façon géométrique de voir la méthode du Lasso en régression linéaire. Le Lasso est une méthode qui, de façon simultanée, estime les coefficients associés aux prédicteurs et sélectionne les prédicteurs importants pour expliquer la variable réponse. Les coefficients sont calculés à l’aide d’algorithmes computationnels. Malgré ses vertus, la méthode du Lasso est forcée de sélectionner au maximum n variables lorsque nous nous situons en grande dimension (p > n). De plus, dans un groupe de variables corrélées, le Lasso sélectionne une variable “au hasard”, sans se soucier du choix de la variable. Pour adresser ces deux problèmes, nous allons nous tourner vers le Lasso Linéaire. Le vecteur réponse est alors vu comme le point focal de l’espace et tous les autres vecteurs de variables explicatives gravitent autour du vecteur réponse. Les angles formés entre le vecteur réponse et les variables explicatives sont supposés fixes et nous serviront de base pour construire la méthode. L’information contenue dans les variables explicatives est projetée sur le vecteur réponse. La théorie sur les modèles linéaires normaux nous permet d’utiliser les moindres carrés ordinaires (MCO) pour les coefficients du Lasso Linéaire. Le Lasso Linéaire (LL) s’effectue en deux étapes. Dans un premier temps, des variables sont écartées du modèle basé sur leur corrélation avec la variable réponse; le nombre de variables écartées (ou ordonnées) lors de cette étape dépend d’un paramètre d’ajustement γ. Par la suite, un critère d’exclusion basé sur la variance de la distribution de la variable réponse est introduit pour retirer (ou ordonner) les variables restantes. Une validation croisée répétée nous guide dans le choix du modèle final. Des simulations sont présentées pour étudier l’algorithme en fonction de différentes valeurs du paramètre d’ajustement γ. Des comparaisons sont effectuées entre le Lasso Linéaire et des méthodes compétitrices en petites dimensions (Ridge, Lasso, SCAD, etc.). Des améliorations dans l’implémentation de la méthode sont suggérées, par exemple l’utilisation de la règle du 1se nous permettant d’obtenir des modèles plus parcimonieux. Une implémentation de l’algorithme LL est fournie dans la fonction R intitulée linlasso, disponible au https://github.com/yanwatts/linlasso. / In this thesis, we are interested in a geometric way of looking at the Lasso method in the context of linear regression. The Lasso is a method that simultaneously estimates the coefficients associated with the predictors and selects the important predictors to explain the response variable. The coefficients are calculated using computational algorithms. Despite its virtues, the Lasso method is forced to select at most n variables when we are in highdimensional contexts (p > n). Moreover, in a group of correlated variables, the Lasso selects a variable “at random”, without caring about the choice of the variable. To address these two problems, we turn to the Linear Lasso. The response vector is then seen as the focal point of the space and all other explanatory variables vectors orbit around the response vector. The angles formed between the response vector and the explanatory variables are assumed to be fixed, and will be used as a basis for constructing the method. The information contained in the explanatory variables is projected onto the response vector. The theory of normal linear models allows us to use ordinary least squares (OLS) for the coefficients of the Linear Lasso. The Linear Lasso (LL) is performed in two steps. First, variables are dropped from the model based on their correlation with the response variable; the number of variables dropped (or ordered) in this step depends on a tuning parameter γ. Then, an exclusion criterion based on the variance of the distribution of the response variable is introduced to remove (or order) the remaining variables. A repeated cross-validation guides us in the choice of the final model. Simulations are presented to study the algorithm for different values of the tuning parameter γ. Comparisons are made between the Linear Lasso and competing methods in small dimensions (Ridge, Lasso, SCAD, etc.). Improvements in the implementation of the method are suggested, for example the use of the 1se rule allowing us to obtain more parsimonious models. An implementation of the LL algorithm is provided in the function R entitled linlasso available at https://github.com/yanwatts/linlasso.
33

La baisse des coûts des tunnels. Mesures, causes et conséquences

Zhang, Chi 10 June 1994 (has links) (PDF)
L'objectif de cette thèse est de tenter de chercher la loi, de trouver les facteurs déterminants des coûts des tunnels de métros, de les expliquer, de construire des modèles de prévision d'ordres de grandeur des coûts. Cette étude est basée essentiellement sur la base de données établie en 1990 par le groupe de travail N°15 de l'Association Française des Travaux en Souterrain (AFTES) concernant les coûts des infrastructures des métros français. La base des données utilisées dans cette étude comporte les principales opérations françaises réalisées de 1975 à 1990 (90 observations qui représentent environ 61 000 mètres au total). La recherche porte uniquement sur les coûts des tunnels entre les stations, rapporté au mètre linéaire d'ouvrage à 2 voies. Les méthodes statistiques utilisées sont notamment les régressions linaires ou multiples. L'étude a permis de connaître le coût global, le coût hors équipements et le coût des équipements des tunnels de métros urbains et régionaux exécutés en souterrain, en tranchée couverte ainsi que sa composition, sa ventilation en pourcentage. L'analyse des facteurs quantitatifs et qualitatifs par des méthodes économétriques a permis de comprendre la complexité du problème des coûts, les facteurs déterminants des coûts et de construire des modèles pour la prévision du coût de grandeur. Cette étude a mis en évidence une tendance d'évolution des coûts en Francs constants des tunnels de métros français qui est de l'ordre de -3,5% par an en moyenne pendant la période 1975-1990, soit environ -50% au total. La recherche a montré que les évolutions constatées résultent des efforts conjugués des ingénieurs d'étude, des expériences et des progrès techniques (l'emploi de tunnelier, la réduction du volume de structure en béton etc.). Les conséquences de l'évolution des coûts pour les autorités publiques et les entreprises ainsi que les tendances du marché des travaux souterrains ont été également analysées.
34

Etude de l'organisation spatiale du tissu conjonctif par analyse d'images basée sur une approche multiéchelles. Application à la prédiction de la tendreté de la viande bovine

El Jabri, Mohammed 22 May 2008 (has links) (PDF)
L'objectif de ce travail est de caractériser le tissu musculaire en évaluant sa qualité à partir de données d'imagerie. Plus précisement, on se propose de développer des outils de prédiction de la tendreté de la viande bovine, basés sur le processus de vision artificielle, en étudiant le tissu conjonctif intramusculaire qui contribue de manière significative à la dureté intrinsèque de la viande. Les images des coupes de muscles, ont été acquises avec deux types d'éclairage : lumière blanche polarisée et ultraviolet. Notre contribution pour analyser ces images est basée sur une approche multiéchelle. Deux méthodes de segmentation ont été proposées, elles sont basées sur la transformée en ondelettes discrète, notamment l'algorithme "à trous". La première repose sur le seuillage universel et la seconde sur l'algorithme de K-moyennes appliqué à l'image résultante d'une sommation sur les plans d'ondelettes. Un autre volet de ce travail concerne l'extraction des paramètres et la décision. L'information retenue est la distribution des tailles d'objets éléments de la trame conjonctive de viande. Les outils statistiques que sont la régression linéaire et les réseaux de neurones ont été appliqués aux données issues des étapes de traitement des images. Le modèle final qui a été retenu pour la prévision de la tendreté a été déterminé selon un critère de maximisation du R2. Le choix du nombre de paramètres a été basé sur un critère de validation croisée (Leave one out). Les résultats de prédiction, issus de la base de données d'étude, sont très encourageants, mettant en évidence une corrélation certaine entre les paramètres d'images et la qualité sensorielle de la viande en particulier la tendreté.
35

Développement d’un modèle de classification probabiliste pour la cartographie du couvert nival dans les bassins versants d’Hydro-Québec à l’aide de données de micro-ondes passives

Teasdale, Mylène 09 1900 (has links)
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée. / Every day, decisions must be made about the amount of hydroelectricity produced in Quebec. These decisions are based on the prediction of water inflow in watersheds based on hydrological models. These models take into account several factors, including the presence or absence of snow. This information is critical during the spring melt to anticipate future flows, since between 30 and 40 % of the flood volume may come from the melting of the snow cover. It is therefore necessary for forecasters to be able to monitor on a daily basis the snow cover to adjust their expectations about the melting phenomenon. Some methods to map snow on the ground are currently used at the Institut de recherche d'Hydro-Québec (IREQ), but they have some shortcomings. This master thesis's main goal is to use remote sensing passive microwave data (the vertically polarized brightness temperature gradient ratio (GTV)) with a statistical approach to produce snow maps and to quantify the classification uncertainty. In order to do this, the GTV has been used to calculate a daily probability of snow via a Gaussian mixture model using Bayesian statistics. Subsequently, these probabilities were modeled using linear regression models on logits and snow cover maps were produced. The models results were validated qualitatively and quantitatively, and their integration at Hydro-Québec was discussed.
36

Contrôle des fausses découvertes lors de la sélection de variables en grande dimension / Control of false discoveries in high-dimensional variable selection

Bécu, Jean-Michel 10 March 2016 (has links)
Dans le cadre de la régression, de nombreuses études s’intéressent au problème dit de la grande dimension, où le nombre de variables explicatives mesurées sur chaque échantillon est beaucoup plus grand que le nombre d’échantillons. Si la sélection de variables est une question classique, les méthodes usuelles ne s’appliquent pas dans le cadre de la grande dimension. Ainsi, dans ce manuscrit, nous présentons la transposition de tests statistiques classiques à la grande dimension. Ces tests sont construits sur des estimateurs des coefficients de régression produits par des approches de régressions linéaires pénalisées, applicables dans le cadre de la grande dimension. L’objectif principal des tests que nous proposons consiste à contrôler le taux de fausses découvertes. La première contribution de ce manuscrit répond à un problème de quantification de l’incertitude sur les coefficients de régression réalisée sur la base de la régression Ridge, qui pénalise les coefficients de régression par leur norme l2, dans le cadre de la grande dimension. Nous y proposons un test statistique basé sur le rééchantillonage. La seconde contribution porte sur une approche de sélection en deux étapes : une première étape de criblage des variables, basée sur la régression parcimonieuse Lasso précède l’étape de sélection proprement dite, où la pertinence des variables pré-sélectionnées est testée. Les tests sont construits sur l’estimateur de la régression Ridge adaptive, dont la pénalité est construite à partir des coefficients de régression du Lasso. Une dernière contribution consiste à transposer cette approche à la sélection de groupes de variables. / In the regression framework, many studies are focused on the high-dimensional problem where the number of measured explanatory variables is very large compared to the sample size. If variable selection is a classical question, usual methods are not applicable in the high-dimensional case. So, in this manuscript, we develop the transposition of statistical tests to the high dimension. These tests operate on estimates of regression coefficients obtained by penalized linear regression, which is applicable in high-dimension. The main objective of these tests is the false discovery control. The first contribution of this manuscript provides a quantification of the uncertainty for regression coefficients estimated by ridge regression in high dimension. The Ridge regression penalizes the coefficients on their l2 norm. To do this, we devise a statistical test based on permutations. The second contribution is based on a two-step selection approach. A first step is dedicated to the screening of variables, based on parsimonious regression Lasso. The second step consists in cleaning the resulting set by testing the relevance of pre-selected variables. These tests are made on adaptive-ridge estimates, where the penalty is constructed on Lasso estimates learned during the screening step. A last contribution consists to the transposition of this approach to group-variables selection.
37

Intermittency of Global Solar Radiation over Reunion island : Daily Mapping Prediction Model and Multifractal Parameters / Intermittence du rayonnement solaire global sur l'île de la Réunion : modèle de prévision journalière et paramètres multifractaux

Li, Qi 17 July 2018 (has links)
Les îles tropicales sont soumises à un ennuagement hétérogène et changeant rapidement. Par ailleurs, elles ont une ressource solaire importante mais significativement variable d’un jour à l’autre. Dans le sud-ouest de l’océan indien (SWIO), La Réunion fait partie de ces îles tropicales ayant un potentiel solaire colossal mais fortement intermittent. Dans cette étude, nous proposons une nouvelle approche de prévision déterministe des cartes journalières rayonnement solaire (SSR), basée sur quatre modèles de régression linéaire : une régression linéaire multiple (MLR), une régression en composantes principales (PCR), une régression des moindres carrés (PLSR) et une régression pas à pas (stepwise--SR). Ces quatre régressions sont appliquées sur les données satellites SARAH-E (CM SAF) à 5km de résolution entre 2007 et 2016, en vue d’en effectuer la prévision. Pour obtenir de meilleures performances, nous proposons d'inclure les paramètres multi-fractale (H,C_1 et α) comme nouveaux paramètres prédictifs. Ceux-ci sont obtenus à partir de l'analyse de l'intermittence du SSR basée sur la méthode d’analyse d’ordre spectral arbitraire de Hilbert. Cette analyse qui est une extension de la transformation d’Hilbert Huang (HHT) est utilisée afin d’estimer l’exposant d’échelle ξ(q). On effectue la combinaison d’une décomposition en mode empirique et de l’analyse spectrale de Hilbert (EMD + HSA). Dans une première étape, l’analyse multi-fractale est appliquée sur une mesure du SSR d'une seconde échelle à partir d'un pyranomètre SPN1 à Moufia en 2016. La moyenne infra journalière, journalière et saisonnière de la structure multi-fractale a été dérivée, et la loi d’échelle d’exposants ξ(q) a été analysée. Dans une seconde partie, l’analyse de l’intermittence est effectuée sur les mesures du SSR, d'une période d’une minute, à partir le réseau de SPN1 contenant 11 stations en 2014. Les modèles spatiaux pour toutes les stations avec les paramètres multi-fractales H,C_1 et α sont mis en évidence. La variabilité de la largeur du spectre de singularité est considérée pour étudier l'intermittence spatiale et la multi-fractalité dans l'échelle quotidienne et l'échelle saisonnière. Sur la base de ces analyses d'intermittence faites sur les mesures de plusieurs stations, les paramètres multi-fractaux universels (H,C_1 et α) pourraient être choisis comme de nouveaux prédicteurs afin d’indiquer les propriétés multi-fractales du SSR. / Due to the heterogeneous and rapidly-changing cloudiness, tropical islands, such as Reunion Island in the South-west Indian Ocean (SWIO), have significant solar resource that is highly variable from day-to-day. In this study, we propose a new approach for deterministic prediction of daily surface solar radiation (SSR) maps based on four linear regression models: multiple linear regression (MLR), principal component regression (PCR), partial least squares regression (PLSR), and stepwise regression (SR), that we have applied on the SARAH-E@5km satellite data (CM SAF) for the period during 2007-2016. To improve the accuracy of prediction, the multifractal parameters (H,C_1 and α) are proposed to include as new predictors in the predictive model. These parameters are obtained from the analysis of SSR intermittency based on arbitrary order Hilbert spectral analysis. This analysis is the extension of Hilbert Huang Transform (HHT) and it is used to estimate the generalized scaling exponent ξ(q). It is the combination of the Empirical Mode Decomposition and Hilbert spectral analysis (EMD+HSA). In a first step, the multifractal analysis is applied onto one-second SSR measurements form a SPN1 pyranometer in Moufia in 2016. The mean sub-daily, daily and seasonal daily multifractal patterns are derived, and the scaling exponent ξ(q) is analyzed. In a second step, the intermittency study is conducted on one-minute SSR measurements from a SPN1 network with 11 stations in 2014. The spatial patterns for all the stations with the multifractal parameters H,C_1 and α are shown. The variability of singularity spectrum width is considered to study the spatial intermittency at the daily and seasonal scale. Based on this intermittency analysis from measurements at several stations, the universal multifractal parameters (H,C_1 and α) could be taken as new predictors for indicating the multifractal properties of SSR.
38

Optimisation de l'implantation glénoïdienne d'une prothèse d'épaule : de la reconstitution 3D à la réalité augmentée / Optimization of the glenoid component positioning of a shoulder prosthesis : from the 3D reconstruction to the augmented reality

Berhouet, Julien 03 October 2016 (has links)
Deux méthodes d’assistance opératoire, pour le positionnement du composant glénoïdien d’une prothèse d’épaule, sont explorées. Elles ont pour dénominateur commun une reconstruction 3D première de la glène pathologique à implanter. Une approche essentiellement clinique, avec des travaux d’application pratique, est proposée pour la technologie des Patients Specific Implants (PSI), dont l’utilisation en orthopédie est croissante. Une approche davantage technologique est ensuite proposée, de type Réalité Augmentée, jusqu’à maintenant encore inexploitée dans le champ de la chirurgie orthopédique. La faisabilité de cette approche, les conditions d’emploi des technologies inhérentes, ont été étudiées. En amont, un nouveau type d’information pour implémenter, sur le support connecté (lunettes électroniques), l’application de réalité, est proposé, avec la modélisation mathématique par régression linéaire multiple d’une glène normale. L’objectif secondaire est d’obtenir une banque de données dites de glènes génériques normales, pouvant servir de référence à la reconstitution d’une glène pathologique à traiter, après un processus de morphing. / In this thesis, two methods of operating assistance for the positioning of the glenoid component of a shoulder prosthesis, are addressed. They have in common a preliminary 3D reconstruction of the pathological glenoid to implant. A main clinical approach, with practice studies, is proposed for the Patient Specific Implants technology, which is currently used in orthopaedics. Then a main prospective and technological approach is proposed with the Augmented Reality, while it is so far untapped in the field of orthopaedic surgery. The feasibility of this last technology, as well as the tools and the manual for its use, were studied. Upstream, a new type of information to implement the augmented reality connected application support is offered, with mathematical modeling by multiple linear regression of a normal glenoid. The second goal is to build a normal generic glenoids database. It can be used as reference to the reconstruction of a pathological glenoid to treat, after a morphing process step.
39

Gestion du Handover dans les réseaux hétérogènes mobiles et sans fil / Handover management in heterogenous mobile and wireless networks

Rahil, Ahmad 12 March 2015 (has links)
Depuis les années 90, la technologie réseau et radio mobile a fait l'objet de progrès phénoménaux. Cette avancée technologique s'est faite en parallèle du côté réseau, du côté application et du coté besoin de l’utilisateur. L’évolution rapide de la technologie a eu pour conséquence l’existence d’un environnement hétérogène où la couverture est assurée par la coexistence de plusieurs types de réseaux. Le défi soulevé par cette architecture est de pouvoir naviguer entre plusieurs réseaux d’une façon transparente. La navigation entre réseaux de types différents est connue sous le nom du Handover vertical. Le standard IEEE 802.21 offre une composante appelée Media Independent Handover (MIH) qui contient une fonction capable de transmettre l’état des liens du nœud mobile depuis les couches inférieures vers les couches supérieures. MIH s’intercale entre le niveau 2 et le niveau 3 dans la pile protocolaire. Le rôle principal de MIH est d’aider le nœud mobile à faire un transfert sans coupure entre des réseaux de types différents, mais la logique de sélection est laissée sans implémentation.Dans ce contexte nous avons travaillé sur l’amélioration de la gestion du Handover en proposant une nouvelle architecture appelée VHMC et basée sur MIH offrant des nouvelles méthodes de sélection du réseau destination. La première proposition est un nouvel algorithme nommé Multiple Criteria Selection Algorithm (MCSA) basé sur plusieurs paramètres de qualité du service. Nous avons utilisé le simulateur Network Simulator (NS2) pour évaluer nos propositions en étudiant le nombre de paquets perdus et le temps de latence du Handover durant la période du transfert. La deuxième contribution est un nouveau modèle de sélection du réseau destination basé sur la technique de la logique floue. La base d’inférence, qui est l’élément central de la décision de ce modèle, est déduit grâce à une étude basée sur un nombre élevé de cas de Handover réels collectés des serveurs de la compagnie de télécommunication libanaise "Alfa". Une troisième solution est proposée à travers un nouveau modèle de sélection du réseau destination basé sur la théorie de la régression linéaire multiple. / Since 1990, networking and mobile technologies have made a phenomenal unprecedented progress. This progress has been experienced on multiple fronts in parallel; especially on the application level and the user's needs one. This rapid evolution of the technology imposed a need for the existence of heterogeneous environments where the coverage is ensured throughout the different available networks. The challenge with such architecture would be to provide the user with the ability to navigate through the different available networks in a transparent and seamless fashion. However, the navigation among different types of networks is commonly referred to as vertical Handover. The IEEE 802.21 standard offers a component that is called Media Independent Handover (MIH) which has a function that provides the capability of transmitting the state of the connection of the mobile nodes from the lower to upper layers. This layer would exist between layer 2 and layer 3 within the protocol architecture. The main role of MIH is to help the mobile node transfer without interrupt among different types of networks, but the logic of selection is left without implementation. In this context, we worked on the improvement of the Handover management by proposing a new architecture, called VHMC and based on MIH by offering new methods for selecting the destination network. The first solution is a new algorithm called Multiple Criteria Selection Algorithm (MCSA) based on multiple parameters of the quality of service. We used Network Simulator (NS2) for testing our approach and study the number of lost packets and lost time during Handover. The second solution is a new model for selecting the destination network based on fuzzy logic techniques. The distinctive characteristic of this model lies in the study of genuine Handover records taken from a Lebanese mobile operator called "Alfa". A third proposed solution for network selection is based on multiple linear regression theory.
40

Analyse des prédicteurs de l’attribution de caractéristiques humaines à l’intelligence artificielle dans un contexte criminologique

Tremblay, Juliette 09 1900 (has links)
L’omniprésence de l’intelligence artificielle (IA) est indéniable, que ce soit dans son utilisation de tous les jours jusqu’à son utilisation dans divers domaines comme la médecine ou le service à la clientèle. Cette technologie fera sans aucun doute partie intégrante de la vie de chaque individu dans un futur rapproché. Par conséquent, il est aussi indéniable de penser que ces technologies feront éventuellement partie intégrante du domaine de la criminologie, que ce soit par le biais de la police prédictive, d’algorithmes d’aide à la décision en termes de récidive, de l’utilisation de la reconnaissance faciale dans les tâches policières ou peut-être de l’accompagnement aux citoyens dans les processus judiciaires. En conséquence, il est important de comprendre comment les individus faisant partie du domaine perçoivent l’intelligence artificielle afin de mieux comprendre comment les individus percevront l’IA lors de l’implantation potentielle d’une telle technologie. Cette étude vise donc à mettre en lumière l’effet des facteurs sociodémographiques, des perceptions de l’intelligence artificielle en général ainsi que des facteurs reliés aux types de personnalités en relation avec le fait d’attribuer des caractéristiques humaines à l’IA. Pour y arriver, des données ont été colligées à l’aide d’un questionnaire en ligne posant des questions notamment sur les facteurs sociodémographiques, les différents aspects de la personnalité ainsi que sur l’utilisation et les perceptions générales des technologies d’intelligence artificielle. Les résultats ont permis de souligner que les facteurs sociodémographiques tels que le genre et le domaine d'activité professionnelle, soit de travailler dans la police, sont corrélés à l’échelle Attribution de caractéristiques humaines à l’IA (ACHIA). En effet, le genre est associé à une corrélation positive faible indiquant que le fait d’être un homme a une légère influence sur l’échelle ACHIA. Ensuite, le fait de travailler dans la police est inversement corrélé signifiant que ceux travaillant dans la police peuvent avoir une légère tendance à répondre en défaveur de l’échelle ACHIA. En revanche, les traits de personnalité n'ont pas montré d'effet significatif sur cette perception, ce qui permet de mettre en lumière que certaines recherches supplémentaires sont nécessaires pour approfondir cette relation complexe. De plus, l’analyse de régression linéaire multiple a permis d’obtenir un modèle de prédiction de l’attribution de caractéristiques humaines à l’IA. Le modèle de prédiction de l’ACHIA est présenté dans le tableau 9 du chapitre résultats. Ce modèle a permis de faire ressortir que seules les variables « Bonnes connaissances par rapport à l’intelligence artificielle » et « IA a le potentiel de remplacer les tâches professionnelles » sont capable de prédire le fait d’attribuer des caractéristiques humaines à l’IA. Ainsi, plus une personne a de bonnes connaissances par rapport à l’intelligence artificielle, plus celle-ci aura tendance à attribuer des caractéristiques humaines à l’intelligence artificielle. De même, plus une personne pense que l’IA a le potentiel de remplacer ses tâches professionnelles, plus celle-ci attribuera des caractéristiques humaines à l’IA. Enfin, la recherche sur l’attribution de caractéristiques humaines à l’intelligence artificielle devrait être explorée davantage dans le futur afin d’approfondir notre compréhension de la relation complexe entre les humains et cette technologie émergente. / The omnipresence of artificial intelligence (AI) is undeniable, whether in its everyday use or in various fields such as medicine or customer service. This technology will undoubtedly become an integral part of every individual's life in the near future. Therefore, it is also undeniable to think that these technologies will eventually become an integral part of the field of criminology, whether through predictive policing, decision-making algorithms regarding recidivism, the use of facial recognition in police tasks, or perhaps assisting citizens in judicial processes. Consequently, it is important to understand how individuals in the field perceive artificial intelligence to better understand how individuals will perceive AI during the potential implementation of such technology. This study aims to shed light on the effect of sociodemographic factors, perceptions of artificial intelligence in general, and personality-related factors in relation to attributing human characteristics to AI. To achieve this, data was collected using an online questionnaire, posing questions on sociodemographic factors, different aspects of personality, as well as the use and perceptions of artificial intelligence technologies. The results emphasized that sociodemographic factors such as gender and professional field, specifically working in the police, are correlated with the Attribution of Human-like Characteristics to AI (ACHIA) scale. Indeed, gender is associated with a weak positive correlation indicating that being a man slightly influences the ACHIA scale. Furthermore, working in the police is inversely correlated, meaning that those working in the police may have a slight tendency to respond unfavorably to the ACHIA scale. On the other hand, personality traits did not show a significant effect on this perception, highlighting the need for further research to deepen this complex relationship. Additionally, multiple linear regression analysis yielded a prediction model for attributing human characteristics to AI. The ACHIA prediction model is presented in Table 9 of the results chapter. This model revealed that only the variables "Good knowledge of artificial intelligence" and "AI has the potential to replace professional tasks" are capable of predicting the attribution of human characteristics to AI. Thus, the more a person has good knowledge of artificial intelligence, the more likely they are to attribute human characteristics to artificial intelligence. Similarly, the more a person thinks that AI has the potential to replace their professional tasks, the more they will attribute human characteristics to AI. Finally, research on attributing human characteristics to artificial intelligence should be further explored in the future to deepen our understanding of the complex relationship between humans and this emerging technology.

Page generated in 0.12 seconds