• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
841

La gestion de l'information comme base de développement d'une PME : (le Moulin agricole de Kénogami Inc.)

Cloutier, Yvon R January 1986 (has links) (PDF)
Ce mémoire a été rédigé dans le cadre d'un diagnostic-intervention dans l'entreprise Le Moulin Agricole de Kénogami Inc., échelonné sur une période de deux ans. L'objectif principal de l'auteur a été la conception et la mise en place d'un système de gestion de l'information adapté à la PME en vue de son développement futur. La méthodologie utilisée est inspirée des travaux de P.B. Checkland de l'Université Lancaster, en Angleterre, sur l'étude des systèmes. Le lecteur retrouvera, donc, dans les pages suivantes les grandes étapes telles: - L'élaboration de la problématique; - l'ancrage; - la conceptualisation; - la comparaison; - la conception des changements; - le contrôle. L'auteur de ce mémoire a occupé durant la réalisation de celui-ci le poste de contrôleur dans l'entreprise, le plaçant ainsi dans une situation avantageuse.
842

Méthodologie structurée de développement informatique pour gestionnaire de PME

Abel, Jean-Paul January 1985 (has links) (PDF)
No description available.
843

Étude d'un système de contrôle pour suspension automobile

Gosselin-Brisson, Samuel January 2006 (has links) (PDF)
L'objectif des travaux réalisés est de développer des stratégies de contrôle pour une suspension active de véhicule automobile. Pour atteindre cet objectif, différents modèles analytiques ont été mis au point pour simuler la réponse de la suspension à différentes perturbations. Ces modèles comprennent les éléments passifs représentant le véhicule, les actionneurs et les différentes lois de contrôle étudiées. Au cours des travaux, les principales stratégies utilisées dans la littérature ont été évaluées afin de cibler les avantages et les inconvénients leur étant reliés. Suite à ces résultats, un système actif incluant des capteurs de mouvement de suspension, des gains fixes et des filtres d'ordre limités a été développé en utilisant les algorithmes génétiques. Les résultats obtenus montrent une amélioration appréciable de la performance pour un modèle de véhicule à quatre degrés de liberté.
844

Les technologies de l'information et de la communication (TIC) comme moteur de l'innovation dans les économies territoriales

Darhouani, Lahcen January 2005 (has links) (PDF)
Dans un espace géographique donné, le développement, inégal des régions est la résultante de plusieurs facteurs qui ont historiquement désavantagé les régions périphériques par rapport aux pôles de croissance métropolitains. Cette situation n'est pourtant pas inéluctable. L'avènement des technologies de l'information et de la communication (TIC) a produit une nouvelle donne, où sont réinventés les modèles d'affaires et disparaissent les barrières spatiotemporelles existant entre fournisseurs d'information et de biens, distributeurs et consommateurs. La présente étude, réalisée dans quatre municipalités régionales de comté (MRC) du Québec, montre que les dirigeants d'entreprises y sont conscients de la puissance des TIC; qu'en les intégrant de mieux en mieux dans la conduite de leurs opérations, ils protègent l'avenir de leur organisation et concourent au renforcement du dynamisme économique et social de leur territoire. L'appropriation et l'usage des outils informatiques représentent une contribution essentielle au nécessaire rattrapage des territoires périphériques et à l'atteinte d'un développement satisfaisant.
845

Exploration de différentes architectures de réseaux de neurones pour la prédiction de la glace atmosphérique sur les conducteurs des réseaux électriques

Larouche, Éric January 2002 (has links) (PDF)
Dans le but d'établir un modèle informatique empirique visant à prédire l'évolution temporelle des charges mécaniques dues à l'accumulation de la glace atmosphérique sur les conducteurs de transport d'énergie électrique, cinq architectures de réseaux de neurones artificiels ont été étudiées et comparées. Deux réseaux de nature statique, soit le Perceptron multicouches (MLP) et le réseau à fonctions de base radiales (RBF), ainsi que deux réseaux orientés vers le traitement temporel, soit le réseau à réponse impulsionnelle finie (FIR) et le réseau récurrent Elman, ont été comparés à la régression linéaire multiple (ADALINE). Les données utilisées pour faire l'entraînement des modèles basés sur les réseaux de neurones proviennent du site instrumenté du Mont-Bélair qui fait partie du système de surveillance en temps réel SYGIVRE d'Hydro-Québec. On retrouve sur ce site une ligne de 315 kV dotée d'un capteur de force pour la mesure des forces mécaniques, plusieurs instruments météorologiques standards ainsi qu'un givromètre permettant d'évaluer l'intensité des conditions givrantes environnantes. Les modèles créés dans le cadre de cette recherche utilisèrent la température ambiante, la vitesse normale du vent et le signal du givromètre comme paramètres d'entrée et le signal de charge (ou son taux de variation) comme paramètre de sortie. Les résultats indiquent que les réseaux de neurones (le FIR par exemple) constituent un outil prédictif potentiellement avantageux ayant une puissance de représentation supérieure à des techniques statistiques simples comme la régression linéaire multiple. Les réseaux de neurones de nature statique donnent généralement de moins bons résultats que les réseaux orientés vers le traitement temporel et semblent donc moins adéquats. Toutefois, les performances affichées par les modèles montrent bien que la problématique de la prédiction des charges mécaniques de glace atmosphérique est plutôt difficile et qu'il ne faut pas considérer les réseaux de neurones comme une solution magique. L'utilisation de l'historique passé du signal de sortie comme variable d'entrée supplémentaire améliore notablement la situation cependant dans le cadre d'une prédiction en avance. Dans ce cas, les modèles fournissent une prédiction raisonnablement précise.
846

Application des réseaux neuronaux flous à l'identification et la protection d'un transformateur triphasé

Varkiani, Shahriar January 1998 (has links) (PDF)
Récemment, des systèmes avancés de reconnaissance et de prise de décision incorporant des éléments de logique floue et de réseaux de neurones artificiels ont été appliqués avec succès à l'identification, la commande et la protection des réseaux électriques. Le principal objectif de cette thèse consiste à explorer la capacité de systèmes neuro-flous, qui sont une combinaison des systèmes à réseaux de neurones et à logique floue, pour l'identification d'un transformateur triphasé, en vue de développer un modèle non-linéaire permettant de mieux protéger le transformateur contre les défauts internes. Deux modèles, l'un direct et l'autre indirect, sont développés afin de prédire les courants secondaires en fonction des courants primaires et réciproquement. Un algorithme hybride d'apprentissage est utilisé pour entraîner les modèles. Celui-ci procède en deux étapes; premièrement, dans la passe en sens direct (des entrées vers les sorties) il impose des paramètres des prémisses et emploie l'estimateur aux moindres carrés pour ajuster les paramètres des conclusions. Ensuite, procédant en sens rétrograde (des sorties vers les entrées), il fixe les paramètres des conclusions et emploie un algorithme du gradient pour ajuster les paramètres des prémisses, de manière à minimiser l'erreur total des modèles. Plusieurs fichiers de données d'apprentissage sont utilisés, afin de refléter toutes les conditions d'exploitation possibles: nominales, surcharges permanentes et transitoires, défauts externes et courants d'appel lors de la mise sous tension. Cependant, ces fichiers d'apprentissage n'incluent aucune donnée de défaut interne. Au terme de l'apprentissage, plusieurs nouveaux fichiers de données sont utilisés pour valider les modèles neuro-flous. On peut ainsi vérifier leur généralisation sur des données qu'ils n'ont pas vues durant leur entraînement. Au total, les modèles neuro-flous démontrent une bonne aptitude à prédire le comportement d'un transformateur de puissance de façon précise sous des conditions nominales, avec des erreurs de modèle direct et indirect relativement faibles. Cependant, ces erreurs augmentent substantiellement lors d'un défaut interne, ce qui permet de déterminer rapidement l'occurrence d'un tel défaut.
847

Une nouvelle approche d'aide à la conception par ordinateur en architecture basée sur la modélisation d'opérateurs sémantiques et la création de maquettes procédurales

De Paoli, Giovanni January 1999 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
848

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 09 November 2022 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
849

Disparate treatments discovery : disparate treatments discovery algorithm framework with no access to protected attribute values

Racicot, Taha 09 November 2022 (has links)
Les nouveaux algorithmes en intelligence artificielle offrent une opportunité d'améliorer la rapidité et l'efficacité de la prise de décision. Ceux-ci sont certainement bénéfique, lorsqu'ils permettent de prendre en compte plus de critères qu'un humain pourrait considérer et de prendre plus de décisions plus rapidement qu'un humain pourrait le faire. Cependant, l'utilisation d'algorithmes de décision mal conçus a un effet social majeur. En effet, ces algorithmes peuvent apprendre à baser leurs décisions sur des critères socialement inacceptables comme la race, le sexe, l'origine ethnique, ou l'orientation sexuelle, et ainsi formaliser et propager les discriminations du passé. Dans de tels cas, l'impact de ces algorithmes est de renforcer et propager à grande échelle les inégalités économiques, sociales, et d'opportunités, entre les diverses communautés composant notre société. On pourrait croire qu'il est facile d'examiner les règles de recommandation d'un algorithme pour vérifier quels critères sont considérés. Cependant, ce n'est pas le cas : plusieurs algorithmes d'intelligence artificielle, comme les réseaux de neurones profonds, sont des "boites noires" qui fournissent des résultats d'une manière incompréhensible aux humains. De plus, une discrimination sur un critère inacceptable n'a pas besoin de considérer explicitement ce critère dans ses facteurs de décision, mais peut être réalisée en utilisant uniquement des facteurs acceptables ou même anodins, mais qui sont corrélés au critère inacceptable. Ainsi à chaque fois que des systèmes intelligents sont utilisés, on se retrouve à se demander si le système va prendre la décision optimale sans discrimination malgré qu'aucun attribut sensible n'a été utilisé. Dans ce travail, nous explorons une nouvelles méthodes pour l'identification de la discrimination dans les décisions de systèmes intelligents sans avoir accès aux attributs sensibles. Nous commençons par explorer les métriques de mesures de discrimination utilisés communément et nous identifions leurs lacunes. Par la suite, étant donné ces lacunes, nous explorons de nouvelles méthodes émergeantes basés sur la causalité permettant de palier à celles-ci. Ensuite, nous étudions la possibilité d'utiliser des attributs corrélés avec les attributs sensibles manquants comme le nom et le prénom pour retrouver les attributs sensibles. Par la suite, nous explorons les méthodes de mesure d'incertitude dans les nouveaux algorithmes en IA afin d'évaluer à quel point nous pouvons être certain de la mesure de discrimination lors de l'utilisation d'attributs non protégés corrélés avec les attributs sensibles. Enfin, nous présentons notre méthode sur la discrimination raciale en utilisant le nom et de prénom comme proxy pour l'ethnicité et nous réalisons des tests à partir de données synthétiques. / New algorithms in artificial intelligence offer an opportunity to improve the speed and efficiency of decision-making. These are certainly beneficial, when they allow to take into account more criteria than a human could consider and to make more decisions more quickly than a human could. However, the use of poorly designed decision algorithms has a major social effect. Indeed, these algorithms can learn to base their decisions on socially unacceptable criteria such as race, gender, ethnic origin, or sexual orientation, and thus formalize and propagate the discriminations of the past. In such cases, the impact of these algorithms is to reinforce and propagate on a large scale economic, social and opportunity inequalities between the various communities that make up our society. One might think that it is easy to examine the recommendation rules of an algorithm to check which criteria are considered. However, this is not the case : many AI algorithms, such as deep neural networks, are "black boxes" that deliver results in ways that humans cannot understand. Moreover, discrimination on an unacceptable criterion does not need to explicitly consider this criterion in its decision factors, but can be achieved by using only acceptable or even innocuous factors, but which are correlated to the unacceptable criterion. So whenever intelligent systems are used, we find ourselves wondering if the system will make the optimal decision without discrimination despite the fact that no sensitive attribute has been used. In this work, we explore a new method for the identification of discrimination in decisions of intelligent systems without having access to sensitive attributes. We begin by exploring commonly used discrimination measurement metrics and identifying their shortcomings. Subsequently, given these shortcomings, we explore new emerging methods based on causality to overcome them. Then, we study the possibility of using attributes correlated with the missing sensitive attributes like the name and the first name to find the sensitive attributes. Subsequently, we explore methods for measuring uncertainty in new AI algorithms in order to assess how certain we can be of the discrimination measure when using unprotected attributes correlated with sensitive attributes. Finally, we present our method on racial discrimination using surname and first name as a proxy for ethnicity and we perform tests using synthetic data.
850

Automatisation des étapes informatiques du séquençage d'un génome d'organite et utilisation de l'ordre des gènes pour analyses phylogénétiques

Charlebois, Patrick 13 April 2018 (has links)
"Une très grande quantité de données est présentement générée par le séquençage de génomes et doit être analysée à l'aide d'outils informatiques. Il est donc nécessaire de développer certains programmes permettant de faire les analyses désirées et d'automatiser les tâches informatiques redondantes pour accélérer le processus d'analyse des génomes. Les données de séquençage obtenues se doivent également d'être classées efficacement et d'être facilement accessibles, de même que les outils informatiques nécessaires à leur analyse. Une base de données a donc été développée, ainsi qu'un site Web permettant de la consulter et d'utiliser les divers programmes requis. Finalement, des analyses phylogénétiques sont couramment effectuées sur les génomes séquences. Toutefois, peu d'outils permettent d'utiliser l'ordre de gènes de ces génomes à cette fin. Un programme permettant de déterminer les blocs de gènes conservés entre différents génomes et d'utiliser les paires de gènes communes pour construire des arbres phylogénétiques a donc été développé."

Page generated in 0.4757 seconds