• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
711

Subjectivation par l'abstraction du système internet

Lavertu, Martin 05 1900 (has links) (PDF)
Mon travail de recherche s'intéresse d'abord à l'abstraction géométrique et à son application dans le monde actuel de l'art. Il tente de définir en utilisant différents mtervenants théoriques l'abstraction géométrique dans une optique prenant en compte des intentions personnelles et le contexte dans lequel les oeuvres d'abstraction géométrique seront produites. Voulant créer des oeuvres inspirées du monde actuel, le sujet d'inspiration pour les oeuvres est internet et plus précisément la culture du web. Cherchant à travers divers écrits sur la culture web et à travers des travaux d'artistes issus de la pratique consciente du contexte web, des enjeux sont mis à jour pour tenter de décrire une mouvance de cette culture dans le but d'inspirer la création d'oeuvres. Par la recherche, la production et la réflexion, cette recherche aboutit sur la définition des grands thèmes servant de base au développement d'un langage plastique découlant des intentions de produire des oeuvres d'abstraction géométrique inspirées de la culture web. À ce mémoire s'ajoute l'exposition Bande Passante et système envahissant, présentée à la salle 2 de l'Espace Virtuel du centre Bang à l'été 2014. Les oeuvres de l'exposition sont le fruit de la recherche et sont discutées brièvement dans le dernier chapitre du présent mémoire. Les oeuvres sont le résultat final de la recherche, mais ne sont pas une finalité en soi. Ces oeuvres s'intéressent à certaines facettes des grands thèmes mis de l'avant par la recherche, mais d'autres possibilités restent à explorer.
712

Identification des concepts pour la ré-ingénierie des ontologies

Benaicha, Mohamed 04 1900 (has links) (PDF)
Des services élémentaires tels que la restructuration (Ang. refactoring), la fusion (Ang.merge), l’extraction de modules (Ang. modularization), etc., sont indispensables pour la mise en oeuvre d’une plateforme de génie ontologique dont l’un des objectifs essentiels est d’assurer la qualité d’une ontologie qui risque de se détériorer avec l’usage. INUKHUK est une plateforme de ré-ingénierie d’ontologies dont les services ci-haut sont basés sur un cadre formel, dit Analyse Relationnelle de Concepts (ARC). L’ARC a le pouvoir de créer de nouvelles abstractions sur n’importe quel type d’éléments ontologiques (concept, propriété, etc.). Ces abstractions factorisent des descriptions communes à plusieurs éléments et peuvent servir à corriger et/ou enrichir l’ontologie de façon à augmenter sa qualité. Toutefois, ces abstractions, qui sont le fruit d’un calcul mathématique, sont dépourvues de toute sémantique et par conséquent nécessitent un effort de conceptualisation afin d’être justifiées et intégrées à une ontologie. Le but de ce travail est de fouiller le bien fondé d’une abstraction et par la suite l’annoter avec un nom (En Anglais label) de concept. Les retombées sont multiples. D’abord, l’ontologie restructurée est beaucoup plus compréhensible par les experts et utilisateurs car l’enrichissement est autant structurel que sémantique. Ensuite, l’application des métriques de qualité basées sur l’analyse du vocabulaire ontologique pour l’estimation de la qualité de l’ontologie restructurée (Ang., refactored) est tout à fait justifiable. Pour ce faire, plusieurs méthodes de fouille ont été envisagées. La première méthode consiste à l’identification d’un nouveau concept ontologique à partir de la description de l’abstraction générée par l’ARC. La deuxième méthode consiste à confronter l’abstraction générée par l’ARC à des ressources linguistiques et/ou ontologiques existantes telles que WORDNET, structure catégorique de WIKIPEDIA, DBPEDIA, etc. Les deux approches ci-haut ont été implémentées au sein d’un outil, dit TOPICMINER, qui fait désormais partie de la plateforme INUKHUK. TOPICMINER a fait l’objet de plusieurs expérimentations et a retourné des résultats satisfaisants selon le protocole de validation mis en place.
713

Tests d'hypothèses et intervalles de confiance appliqués aux coefficients d'apparentement

Landry, Nancy January 2004 (has links) (PDF)
L'analyse des données généalogiques est un outil important pour comprendre la répartition du pool génétique d'une population sur un territoire ou pour établir si un trait (maladie ou autre) comporte une composante héréditaire majeure. La mesure des liens de parenté, utilisée dans notre étude, est le coefficient moyen d'apparentement. Il existe peu d'études sur les propriétés statistiques du coefficient d'apparentement dû principalement à la dépendance inhérente et à la complexité de calcul de cette mesure ainsi qu'à l'indisponibilité de bases de données généalogiques fiables. Un test d'hypothèses faisant intervenir le coefficient moyen d'apparentement a été proposé par Hauck et Martin mais ce dernier est basé sur des résultats de normalité asymptotique et il n'est applicable que pour des tailles d'échantillons très grandes. Le premier objectif de la recherche a été d'établir les limites des résultats de normalité asymptotique dont la statistique est le coefficient moyen d'apparentement dans un contexte plus réaliste : une population et des échantillons de tailles relativement petites. Le second objectif a été de construire des algorithmes permettant de calculer un intervalle de confiance et un test d'hypothèses sur cette statistique en utilisant des techniques de simulations spécifiques. Plusieurs méthodes de construction d'intervalles et de tests ont été comparées afin de dégager le meilleur estimateur par intervalle et le meilleur test. Les meilleures méthodes de construction d'intervalles et de tests ont été obtenues à partir des techniques de rééchantillonnage. Elles ont permis d'obtenir d'excellents tests de comparaison. Cependant, les résultats concernant la détermination d'un intervalle de confiance sont mitigés. Il serait intéressant, lors de recherches ultérieures, de se pencher davantage sur ces techniques afin d'optimiser l'estimateur par intervalle. Il n'existait pas de résultats de simulation portant sur les intervalles de confiance et les tests d'hypothèses faisant intervenir le coefficient moyen d'apparentement. Ces résultats sont un premier pas vers une meilleure compréhension des propriétés statistiques du coefficient moyen d'apparentement.
714

Parallélisation d'un algorithme d'optimisation par colonies de fourmis pour la résolution d'un problème d'ordonnancement industriel

Delisle, Pierre January 2002 (has links) (PDF)
Les problèmes d'optimisation combinatoire peuvent être retrouvés, sous différentes formes, dans un grand nombre de sphères d'activité économique au sein de notre société. Ces problèmes complexes représentent encore un défi de taille pour bon nombre de chercheurs issus de domaines scientifiques variés tels les mathématiques, l'informatique et la recherche opérationnelle, pour ne citer que quelques exemples. La nécessité de résoudre ces problèmes de façon efficace et rapide a entraîné le prolifération de méthodes de résolution de toutes sortes, certaines étant plus spécifiques à un problème et d'autres étant plus génériques. Ce mémoire réunit différentes notions du parallélisme et des métaheuristiques afin d'apporter une méthode de résolution performante à un problème d'optimisation combinatoire réel. Il démontre que l'introduction de stratégies de parallélisation à un algorithme d'Optimisation par Colonies de Fourmis permet à ce dernier d'améliorer considérablement ses facultés de recherche de solutions. Le succès de cette approche dans la résolution d'un problème d'ordonnancement industriel rencontré dans une entreprise de fabrication d'aluminium montre l'intérêt pratique de ces méthodes et leurs retombées économiques potentielles. Ce travail de recherche, loin d'être une fin en soi, représente plutôt une première exploration des possibilités offertes par deux domaines fort prometteurs de l'informatique et de la recherche opérationnelle. L'union de méthodes d'apprentissage intelligentes et d'une puissance de calcul imposante pourrait fort bien se révéler un outil performant pour la résolution de problèmes d'une telle envergure.
715

Élaboration d'un prototype de système expert en analyse financière pour la PME commerciale en phase de croissance ou de maturite

Roy, Vital January 1994 (has links) (PDF)
La présente recherche, de type instrumentale, porte sur la petite et moyenne entreprise (PME) commerciale, en phase de croissance ou de maturité. Elle étudie la conception d'un outil informatique spécialisé dans l'évaluation et le diagnostic de la gestion financière de la PME. La question de recherche s'énonce comme suit: est-il possible de développer un système expert en analyse financière dans un contexte de PME commerciale en phase de croissance ou de maturité? Dans l'affirmative, quelle est la bonne approche? Quels sont les outils les mieux adaptés pour y parvenir? Comment peut-on évaluer l'impact de l'utilisation d'un tel outil d'aide à la décision chez le gestionnaire? La démarche instrumentale est la méthodologie de recherche adaptée au sujet d'étude. Cette méthodologie exploratoire est centrée sur les découvertes technologiques et l'implantation d'innovations et de processus particuliers. La démarche s'articule en deux grandes phases: la perception et l'analyse d'une situation problématique dans une classe d'organisations (la phase intelligence) et le développement de méthodes de résolution de problème adaptées à cette problématique (l'hypothèse instrumentale), méthodes qui doivent être validées par la suite. Cette démarche nous a conduit, au moyen d'une revue de la littérature sur la PME, à préciser les difficultés que rencontre le chef de la PME dans la gestion de son entreprise. En grande partie, ces difficultés découlent d'un manque de ressources et de formation, particulièrement au niveau de la gestion financière. Le gestionnaire manque de formation, n'est pas enclin à consacrer beaucoup de temps et d'efforts à la planification et ne dispose pas d'outils adéquats pour sa prise de décision. Les outils et méthodes de gestion existants ont été développés pour la grande entreprise et sont mal adaptés aux conditions spécifiques de la PME. Comme solution possible, l'utilisation d'un outil informatique d'aide à la décision est proposée. Cet outil prendra la forme d'un système expert en analyse financière adapté au contexte de la PME. L'approche de développement retenue pour la création de l'outil est le prototypage(1). Les informations nécessaires à son fonctionnement proviennent de la littérature sur la gestion financière, de l'expertise de deux spécialistes du domaine et des données financières de l'entreprise ayant collaborée au projet. À chacune des étapes de la conception, l'évaluation du prototype a pu s'effectuer grâce à la collaboration des experts et des gestionnaires de 1'entreprise. Une validation subjective fut faite par les gestionnaires de l'entreprise participante à l'étude au moyen d'un questionnaire. L'outil obtenu au terme de la présente démarche est un prototype. Il démontre la faisabilité organisationnelle et technique du concept. Cependant, de nombreux aspects de la gestion financière n'ont pu être abordés, de même que l'intégration éventuelle d'un tel outil dans un système de gestion stratégique global. D'autres chercheurs pourront généraliser davantage la portée d'un outil comme celui-ci en reprenant la démarche et en la poussant plus loin. ______________________ Prototypage: Fabrication de prototypes. (Dictionnaire Larousse Informatique, 1991.)
716

Conception d'un système d'information pour une gestion plus efficace de la direction de la coopération externe du MPCEFP en Haïti

Manigat, Nesmy January 1993 (has links) (PDF)
Face à un constat d'échec relatif de la coopération externe en Haïti, le Ministère de la Planification de la Coopération Externe et de la Fonction Publique "MPCEFP" adopta plusieurs solutions dont principalement celle de "promouvoir la réforme du système administratif haïtien surtout pour ce qui a trait aux institutions chargées de la coopération ". Ces solutions que devra implanter la Direction de la Coopération Externe, principale responsable de ce dossier, furent arrêtées dans un document intitulé: Grandes orientations stratégiques pour les années 1990, dans lequel on retrouve un diagnostic sommaire de cet échec. En effet, la vision fragmentaire et la gestion en vase clos des partenaires tant nationaux qu'internationaux de la coopération, aggravées aussi par l'absence d'une politique nationale de coopération compliquent davantage la situation. La gestion du dossier de la coopération externe se retrouve donc noyée dans un fourmillement de petits projets épars, négociés ci et là, sans lien réel et véritable entre eux et naturellement sans résultat satisfaisant à la fin. Dès notre première rencontre avec les responsables de la Direction de la Coopération Externe (DCE), la situation problématique ainsi que le mandat d'intervention étaient clairement circonscrits et se résumaient en ces termes: "Notre système d'information est déficient et notre tâche de coordination et de contrôle des activités reliées à la coopération nous échappe de plus en plus au profit de nos partenaires, nous avons donc besoin d'un système d'information efficace pour redresser la situation". Pour apporter des éléments de réponse à cette problématique et réaliser efficacement le mandat qui nous est donné, nous avons retenu la méthodologie des systèmes souples comme démarche de recherche et comme méthodologie d'implantation du système d'information, ainsi que des outils de conception et d'intervention appropriés et complémentaires, comme le montre les digrammes de flux de données. L'intervention a permis de concevoir et d'initier l'implantation des solutions à trois niveaux différents: les structures, les processus et les attitudes. AU NIVEAU DES STRUCTURES . Réaménagement de la structure organisationnelle de façon à systématiser la collecte, le traitement et le stockage des données et informations et à standardiser leurs présentations. . Redéfinition des attributions des différentes unités et services à la DCE, dans le but de les rendre plus aptes à supporter le nouveau système d'information. . Définition du profil des postes, en fonction des tâches nécessaires à la DCE (le profil des postes était jusque là inexistant). Recrutement de personnel supplémentaire devant aider à faire fonctionner le nouveau système. AU NIVEAU DES PROCESSUS . Conception ou implantation de trois logiciels destinés à améliorer: - le suivi des programmes négociés - le suivi du programme de bourses - la gestion du courrier de la DCE AU NIVEAU DES ATTITUDES . Perfectionnement et formation du personnel de façon à réduire les appréhensions face au nouveau système. Il a été aussi recommandé à la DCE de préparer un plan guide en matière de politique nationale de coopération et de faire les démarches auprès des décideurs afin d'adopter un programme à ce sujet. L'intervention nous a démontré que la méthodologie des systèmes souples représente une démarche assez efficace pour intervenir dans les petites et moyennes organisations, mais également qu'il y a lieu d'améliorer son application afin d'en faire une méthode d'intervention beaucoup plus adaptée aux réalités temporelles et budgétaires des PMO.
717

Réflexion méthodologique relative à l'étude des besoins d'information des entreprises du groupe Harel, Drouin ; Description, analyse et développement d'un système d'information comptable pour les entreprises du groupe Harel, Drouin

Faucher, Suzy January 1990 (has links) (PDF)
Le mémoire de recherche-action mentionné ci-dessus est présenté en deux volumes. Le premier vous présente la méthodologie employée pour réaliser l'étude. Le second vous décrit le système d'information comptable des entreprises du groupe Harel, Drouin. Dans ce volume, nous analysons le système et développons un système d'information répondant aux besoins identifiés au cours de la recherche. Cette recherche-action a été réalisée avec la méthodologie de Davis et les diagrammes de flux de données développés par Gane et Sarson. La méthodologie de Davis nous permet de déterminer le risque associé au développement d'un système d'information. Le risque associé au développement du système d'information comptable des entreprises du groupe Harel, Drouin est moyennement faible. Dans ce cas, Davis nous propose d'utiliser la méthodologie basée sur l'analyse des caractéristiques du système opérant. L'analyse de ces caractéristiques a été réalisée à l'aide de la méthode de l'analyse des entrées-traitements-sorties. Nous avons utilisé les diagrammes de Gane et Sarson pour faire cette analyse. La recherche-action est complétée par une réflexion sur l'utilisation de cette méthodologie dans les petites et moyennes entreprises.
718

Utilisation d'un modèle variationnel pour l'inspection des dimensions à l'aide de la vision par ordinateur

Fournier, Réjean January 1992 (has links) (PDF)
Le développement de la vision par ordinateur a amené son utilisation pour l'inspection dimensionnelle. Dans le domaine de la conception assistée par ordinateur (CAO), une nouvelle méthode de modélisation a été développée: la géométrie variationnelle. Le présent mémoire fait le lien entre un modèle variationnel et l'inspection des dimensions à l'aide de la vision par ordinateur. Le modèle est enregistré dans une base de données paramétriques équivalente à celle que pourrait produire un logiciel de CAO. La première partie porte sur l'élaboration d'un modèle variationnel simple en deux dimensions. La deuxième partie porte sur l'utilisation du processus de vision par ordinateur permettant d'extraire l'information voulue d'une image. L'image utilisée est celle produite par une caméra CCD. Un progiciel a été développé qui fait le lien entre le modèle et les données obtenues avec la vision par ordinateur. Le système développé est utilisable pour des objets de type polygone à n côtés. Des résultats expérimentaux ont été obtenus avec différents exemples. Ils ont permis de démontrer que le système est très bien adapté pour la vérification des paramètres du modèle. L'utilisation du modèle lors du processus de vision permet le calcul des paramètres réels et de leur précision. Si le modèle contient les paramètres et leurs tolérances, la comparaison peut être faite avec les données obtenues par la vision. Le modèle variationnel est utilisable pour la vérification dimensionnelle à l'aide de la vision par ordinateur. Un des avantages est d'utiliser le même modèle pour la vision que celui utilisé pour la conception. La vérification des dimensions se fait alors sur les paramètres du modèle.
719

Systèmes de pavage pour l'échantillonnage / .

Wachtel, Florent 30 June 2015 (has links)
Avec l’avènement du calcul numérique, l’échantillonnage est devenu un outil crucial pour l’évaluation de fonctions dans de nombreux domaines. Il est employé dans le traitement de signaux unidimensionnels, pour le remaillage de surfaces et de volumes, ou encore pour le rendu d’images virtuelles par lancer de rayons avec l’évaluation de fonctions multidimensionnelles de brdf. Dans le domaine de l’informatique graphique, depuis les années 1980, de nombreux algorithmes d’échantillonnage ont été proposés afin d’améliorer la qualité d’évaluation à nombre d’échantillons constant, notamment dans des applications de lancer de rayons. La qualité des distributions générées par ces méthodes a progressivement convergé vers des propriétés spectrales dites blue-noise. À partir de 2012, de nouvelles méthodes d’échantillonnage ont été proposées, permettant de générer des distributions ayant des caractéristiques spectrales prédéterminées par l’utilisateur. Ce nouveau type d’approche donne la possibilité de contrôler les caractéristiques de la distribution générée afin d’obtenir un échantillonnage optimal pour un type d’application donné. Cependant, la plupart de ces méthodes sont difficilement utilisables dans des cas pratiques du fait de leur complexité. Les méthodes d’échantillonnage basées pavage introduites en 2004 pallient à ce problème en utilisant un pavage pour stocker des distributions d’échantillons pré-calculées de bonne qualité. L’échantillonnage est ensuite réalisé efficacement en construisant un pavage grâce à un ensemble de règles déterministes. Le problème majeur de ces méthodes basées pavage provient du fait que les défauts (régularités, anisotropie, etc) présents dans le pavage influent beaucoup sur la qualité de la distribution, conduisant à une dégradation systématique de la qualité d’échantillonnage. Ces défauts ce traduisent principalement par la présence de pics spectraux qui favorisent l’apparition de phénomènes d’aliasing. Dans cette thèse, nous nous sommes intéressés à la génération de systèmes de pavage destinés aux méthodes d’échantillonnage basées pavage. La mise au point d’un pavage doté de bonnes propriété spectrales permet de réduire drastiquement les défauts des précédentes méthodes d’échantillonnage basées pavage et ainsi de construire un système d’échantillonnage de complexité quasi-linéaire et de qualité équivalente aux meilleures méthodes d’échantillonnage actuelles. Pour parvenir à ce résultat, dans un premier temps, nous proposons une méthode algorithmique de génération de pavages qui permet de produire simplement une grande variété de pavages. Ceci nous permet d’explorer les différentes caractéristiques du pavage ayant un impact majeur sur la qualité finale de l’échantillonnage. Enfin, à partir de ces analyses, nous proposons un nouveau système de pavage adapté à l’échantillonnage, présentant de très bonne propriétés spectrales. Dans un deuxième temps, nous proposons une approche de construction d’un système d’échantillonnage à partir d’un système de pavage. Pour cela, nous définissons un indice structurel permettant d’associer un échantillon à chaque tuile du pavage et permettant d’obtenir une cohérence spatiale entre les échantillons. Cet indice structurel permet d’optimiser la position de chaque échantillon de manière cohérente avec une méthode externe. Finalement, le système conçu permet ainsi de générer des distributions d’échantillons avec contrôle spectral de manière quasi-linéaire à plus d’un million d’échantillons par seconde / .
720

Ordonnancement de tâches sous contraintes sur des métiers à tisser

Mercier-Aubin, Alexandre 01 February 2021 (has links)
Dans une usine de production de textile, il y a des métiers à tisser. Ces métiers à tisser peuvent être configurés de différentes façons. Des tâches doivent être exécutées sur ces métiers à tisser et le temps d’exécution d’une tâche est fonction du métier sur lequel elle est effectuée. De plus, chaque tâche est seulement compatible avec les métiers à tisser étant configurés de certaines façons. Un temps de mise en course peut permettre de configurer ou préparer un métier à tisser pour l’exécution d’une tâche. Le temps de mise en course est dépendant de la tâche qui précède et de celle qui suit. Nous souhaitons alors créer un horaire pour minimiser les temps de fabrication et les retards. Toutefois, certaines contraintes doivent être respectées. Lorsque des préparations surviennent sur des métiers différents en même temps, le nombre d’employés doit être suffisant. Un métier ne peut faire qu’une seule action à la fois. L’ordonnancement d’une seule machine est un problème NP-Difficile. Dans ce projet, il faut ordonnancer environ 800 tâches sur 90 machines dans un horizon de deux semaines, tout en respectant les contraintes de personnel. Des évènements stochastiques doivent être pris en compte pour obtenir un meilleur horaire. Le bris d’un fil n’étant pas un évènement rare, l’occurrence des bris est donnée sous la forme d’une loi de Poisson. Nous proposons alors une approche de résolution utilisant une heuristique de branchement basée sur le problème du commis voyageur. Cette approche permet d’obtenir de bonnes solutions pour le problème d’ordonnancement exploré. Les solutions trouvées sont 5 à 30% meilleures en termes de fonction objectif qu’une heuristique semblable à celle utilisée par l’équipe de planification de notre partenaire industriel. Nous présentons aussi un algorithme pour garantir la robustesse d’un horaire. Notre algorithme permet de générer des horaires plus réalistes et qui résistent bien aux évènements imprévus. La combinaison de ces deux pratiques mène à l’intégration et l’utilisation du produit final par notre partenaire industriel. / In a textile factory, there are looms. Workers can configure the looms to weave different pieces of textiles. A loom can only weave a piece of textiles if the piece of textiles is compatible with its loom configuration. To change its configuration, a loom requires a setup. The setups are performed manually by workers. There are also sequence-dependent setups to prepare a loom for the upcoming piece of textiles. We wish to minimize the setups duration and the lateness. A solution must satisfy some constraints. The problem is subject to cumulative resources. The quantity of workers simultaneously configuring machines can’t exceed the total number of employees. A loom can only weave a piece of textiles at a time. Scheduling tasks on a single loom is an NP-Hard problem. In this project, we must schedule tasks an average of 800 tasks on 90 looms with a two-week horizon. Stochastic events might occur and must be accounted for. We must design an algorithm to create robust schedules under uncertainty. As a thread breaking during the weaving process isn’t a rare occurrence, a better schedule could greatly impact the performances of a company when applying the schedule to a real situation. We formulate that the number of breaks per task follows a Poisson distribution. First, we propose a branching heuristic based on the traveling salesperson problem in order to leverage computation times. The solutions found are 5 to 30% better according to their objective function than the ones of a greedy heuristic similar to what our industrial partner uses. We also present a filtering algorithm to guarantee robustness of solutions in respect to a confidence level. This algorithm improves robustness and creates more realist schedules. The algorithm is also efficient in computation time by achieving bound consistency in linear time. Combining both these techniques leads to the integration of our research in the decision system of our industrial partner.

Page generated in 0.1251 seconds