211 |
Design of uniform campus identity authentication system based on LDAPGuo, Hongpei January 2006 (has links) (PDF)
With the development of campus network, many kinds of applications based on campus network get a rapid development in recent years. For management and expansion requirements, many of these applications need functionality provided by a uniform identity authentication system. On the other hand, LDAP (Lightweight Directory Accessing Protocol) and related technologies, taking advantage of distributed Directory Service architecture, organize and manage resources in network effectively and provide availability and security of system accessing, can be used for designing of a uniform identity authentication system.
This thesis discusses a design of uniform campus identity authentication system based on LDAP. The thesis analyzes the common situation of campus network application in China, describes what a uniform identity authentication system is and the necessity of designing a uniform identity authentication system, introduces the LDAP and related technologies in brief and designs a framework of uniform campus identity authentication system.
|
212 |
The research of the error analysis algorithm with 3D scanning dataDou, Yanmei January 2006 (has links) (PDF)
With the increase in the automatization level of industrial production, the three-dimensional laser scanning system has been applied in industrial production more and more widely with its advantages of high identification rate, non-destructive capability, and so on. In order to increase the product quality, product testing becomes an important and indispensable link in the industrial production. The research aim of this thesis is, to develop an automatic on-line testing system, based on 3D laser scanner technology. Such a system can contribute to the realization of a complete automatic process from measuring the product to calculating its form error and further judging whether the product is satisfactory or not.
This thesis, starting from the data points obtained from a from 3D scanner, after filtering the noise points in the right and left CCD, makes use of NURBS surface to fit these point data, and reconstruct the surface of the measured object. Based on the principle of the Least Region to assess the form error of the surface, we obtain a mathematic model of the form error of the surface, and further making use an improved Genetic Algorithm, calculate the form error of the object. According to the given acceptable scale of the error, we can judge whether the product is satisfactory or not. Finally, the program design work of the whole system is realized through the use of VC++6.0, with a user interface to calculate form error being implemented.
This research can be applied in the industrial production in order to increase the product quality and the level of automatization. Other potential applications include artificial intelligence, medicine, etc.
|
213 |
Data of scanned points' pre-process and curved surface's reconstructionWang, Haiyan January 2009 (has links) (PDF)
Basing on the whole processing of color three-dimensional model laser scanning data, the algorithms and software development was analyzed and researched. The whole procedure includes two parts. One is the pre-processing of point clouds and the other is surface reconstruction. It is the main purpose of this thesis to establish the color three-dimensional model and implement the data interface with other applications. The purpose has been achieved partly, and the software for processing is designed at the same time, which has the standard interface with the laser scanning system. So the processing system and software can be applied in the manufacturing and virtual reality technique, such as the network museum.
The main research work of this thesis is:
1. The main procedure and key algorithms of the pre-processing for color three-dimensional model point clouds has been analyzed, and the integrated method of system judgment and manual selection is used to delete the noise data effectively (Chapter 2).
2. The point clouds data reduction algorithm with the color-boundary preservation in RGB color space is proposed in this paper. The algorithm can avoid both the shape and color distortion (Chapter 3).
3. The smoothing algorithm based on the B-Spline surface fitting is implemented. It is proved by the theory and experiments that this smoothing algorithm has the favorably controllable ability (Chapter 3).
4. In the processing of color surface reconstruction, the mesh algorithm is implemented using the half-edge structure. And it can realize easily the post processing, such as mesh smoothing and mesh reduction (Chapter 4).
5. The key problems on the display of color model in the OpenGL platform are solved (Chapter 5). The robust processing software, 3D Color Surf Verl.O, is developed using C++ language. The framework is layered, that fulfills the function partition lightly. So the software can be revised and updated flexibly (Chapter 6).
|
214 |
An intelligent tutoring system based on agentLi, Long January 2009 (has links) (PDF)
In this paper, the author reviews the history of Intelligent Tutoring System (ITS) and discusses their development in the context of Artificial Intelligence (AI) and educational theory.
This paper also introduces the relatively knowledge of Intelligent Agent ( IA ) and Multi-Agent system, such as the background of the appearance of Multi-Agent system, the commutation language and system of agents, the correspondence model of Multi-Agent system and the collaboration model of Multi-Agent system. And introduces a Multi-Agent system on the base of WWW, the structure of the system and the design of each components are also mentioned in this paper.
Based on this Multi-Agent system, the author brings in an example an intelligent tutoring system based on agent. In this part, the component and the structure of the system are presentation, especially the core of the system tutor agent's function and it's realization.
At the end of this paper, the author concludes the thesis and analyses the use of agent in ITS. And finally talks about the future trend of the ITS.
|
215 |
The vehicle routing problem based on the immune algorithmXu, Jiangang January 2009 (has links) (PDF)
The Vehicle Routing Problem has been a popular research topic in logistics (Physical distribution) which is of much practical value. This thesis studies has the research technique toward vehicle routing problem and the advantage that the immune algorithm has over other algorithms. It also puts forward the method of solving vehicle routing problem by the immune algorithm. In the solution procedure, this thesis creates a new encoded model which can increase the operational efficiency of the algorithm presented by decreasing the encoding length. Through the design of immune memory data and the accelerating or restraining mechanism of the density between the antibodies, this algorithm enables the multiformity of the solution, avoids convergence to partial optimal solution and at the same time effectively avoids the optimal solution in the process of evolution. The experimental result shows that this algorithm is one effective algorithm solving the problem of vehicle routing which makes it possible to get the optimal solution fast.
|
216 |
Ordonnancement de projet sous contraintes de ressources à l'aide d'un algorithme génétique à croisement hybride de type OEPLemamou, Eunice Adjarath January 2009 (has links) (PDF)
Le problème de gestion de projet sous contraintes de ressources (Resource Constrained Project Scheduling Problem) consiste en l'ordonnancement de tâches, également appelées activités, à l'aide d'une ou plusieurs ressources renouvelables ou non, en quantité limitée. Le but visé par la résolution de ce problème est la détermination des dates d'exécution des activités en fonction de la disponibilité des ressources et de façon à satisfaire des objectifs fixés. Les activités sont liées entre elles par des contraintes de préséance qui doivent être respectées lors de l'ordonnancement.
Depuis plus de 30 ans, de nombreuses études ont été consacrées au RCPSP qui est un problème NP-difficile au sens fort. L'aspect pratique de ce problème dans des contextes industriels divers a conduit à de nombreuses recherches et ainsi à des résolutions par des méthodes heuristiques et métaheuristiques. Les algorithmes génétiques (AG) figurent parmi les métaheuristiques qui perforaient le mieux pour la résolution de ce problème. L'optimisation par essaims particulaire (OEP), quant à elle, est une méthode émergente qui intéresse de plus en plus de chercheurs dans le domaine de l'optimisation discrète et qui donne d'assez bons résultats.
Ce mémoire propose une hybridation de ces.deux méthodes dans le but d'améliorer leurs performances individuelles sur des instances de taille moyenne. L'hybridation se fait au niveau du croisement en combinant deux méthodes de croisement, l'une étant le croisement classique à deux points largement répandu au sein de la littérature. La seconde méthode de croisement est nouvelle et se base sur un concept de distances entre deux solutions emprunté à un algorithme d'OEP de la littérature traitant du problème de minimisation du retard total pondéré sur une machine unique. Cet algorithme a d'abord été reproduit et adapté au RCPSP. La comparaison des performances obtenues avec celles des deux autres algorithmes d'OEP connus dans la littérature du RCPSP a été favorable à cette adaptation. Cela a donné lieu à la conception d'une méthode de croisement qui s'inspire des principes de l'OEP et du concept de distances pour générer de nouvelles solutions. Les performances observées lors de l'hybridation des deux méthodes de croisement ci-dessus énumérées montrent bien l'apport de cette technique innovatrice que constitue l'OEP discrète pour la résolution du RCPSP.
Ce travail de recherche représente surtout une première exploration du potentiel offert par la technique de l'OEP et sa combinaison avec deux autres champs de recherche en évolution continue : le RCPSP et les AG. L'association de ces trois domaines de recherche laisse entrevoir des possibilités intéressantes pouvant mener à la conception de nouveaux algorithmes plus performants pour la résolution du RCPSP. Ce mémoire constitue une contribution non seulement vers une meilleure connaissance de l'OEP mais aussi vers l'amélioration des outils d'optimisation en gestion de projet.
|
217 |
Conception d'algorithmes probabilistes pour l'estimation des génotypes d'un corpus de généalogie par chaînes de MarkovCoulibaly, Ismaël January 2009 (has links) (PDF)
La fréquence d'un trait génétique dans une population contemporaine dépend de la fréquence de ce trait chez les ancêtres. Cependant, la seule information génotypique disponible sur ces ancêtres est essentiellement constituée des analyses d'ADN sur un échantillon de contemporains. Aussi, l'intégration des données moléculaires et des données généalogiques se heurtent naturellement à un problème de complétude. L'un des principaux problèmes en génétique des populations est alors d'inférer sur les génotypes de ces ancêtres en se basant sur un échantillon d'individus contemporains. On ne peut cependant reproduire de façon exacte les génotypes des individus. En effet, les lois de transmission des gènes sont telles qu'il est rarement possible d'obtenir un génotype certain pour un ancêtre ; au mieux il est possible d'obtenir qu'une estimation de la loi de probabilité des génotypes ancestraux. L'utilisation d'algorithmes déterministes permet dans des cas simples de trouver les solutions à ce problème. Néanmoins, certains algorithmes probabilistes, particulièrement les méthodes de Monte Carlo par Chaînes de Markov (MCMC), sont particulièrement adaptés à l'analyse des génotypes liée à une structure généalogique. Elizabeth A. Thompson utilise cette technique pour effectuer des analyses de liaisons génétiques (linkage) sur des noyaux familiaux étendus (Wijsman et al. [28]). Le contexte général d'un algorithme probabiliste en informa11 tique étant l'utilisation d'un générateur de nombres pseudo aléatoires, la mise en place de tels algorithmes est donc relativement facile et s'adapte très bien à des problèmes d'inférence. Notre objectif est alors de concevoir des algorithmes efficaces pour l'estimation des génotypes d'un corpus de généalogie en utilisant la technique des MCMC. Le caractère théorique de ces algorithmes et leur efficacité ont été largement étudiés dans plusieurs ouvrages sur lesquelles nous nous sommes basés. Dans ce mémoire, nous nous appliquons principalement à utiliser les méthodes de Monte Carlo par chaînes de Markov (MCMC) à l'analyse de corpus de généalogie. Nous montrons comment nous réussissons à adapter la méthode de l'échantillonnage de Gibbs à l'élaboration d'algorithmes efficaces pour l'inférence des distributions de probabilité génotypique dans le contexte de généalogies profondes.
|
218 |
Algorithmes de génération de musique pour application dans les jeux vidéoGilbert, Jean-Michel January 2008 (has links) (PDF)
Ce mémoire porte sur les algorithmes de génération de musique et leurs applications dans les jeux vidéo. Nous avons choisi ce domaine d'application car, en tant que média interactif complexe, les jeux vidéo représentent un défi de taille pour les compositeurs de musique. Nous commencerons donc par une introduction générale au domaine d'application pour poursuivre avec une présentation ciblée de la problématique. Ensuite, nous passerons en revue une série d'algorithmes de génération de musique issus de la littérature scientifique et basés sur différents modèles mathématiques et nous expliquerons pourquoi aucun d'entre eux ne convient à nos besoins. Nous passerons aussi en revue un éventail d'outils de composition et de mise en séquence de musique interactive. Parmi ces outils, certains ciblent spécifiquement l'industrie du jeu vidéo. Nous expliquerons aussi pourquoi ceux-ci ne correspondaient pas à nos besoins.
Afin de répondre à nos besoins, la troisième partie de ce mémoire présente un nouveau modèle d'automates que nous avons introduit pour la première fois à la conférence Futureplay 2007 : les automates étendus probabilistes. Ce modèle combine la flexibilité des automates étendus et la variabilité des automates probabilistes. Nous décrirons ces modèles d'automates en détails au cours de ce mémoire.
En dernière partie du mémoire, nous présenterons notre outil de composition, introduit aux côtés de notre modèle d'automates étendus probabilistes : IMTool. Cet outil permet à l'utilisateur d'exploiter toute la puissance des automates étendus probabilistes dans un contexte de composition et de mise en séquence de musique pour un jeu vidéo (ou pour toute autre application interactive). En ce sens, celui-ci peut associer des séquences musicales aux états de l'automate, créer des conditions de transition, créer des fonctions de mise-à-jour et associer des probabilités aux transitions. Les conditions de transition et les fonctions de mise-à-jour sont des propriétés des automates étendus et seront expliquées en détails plus loin dans ce mémoire.
|
219 |
Un modèle de reconnaissance d'activités temporelles : extension du modèle de WeidaAjroud, Amir January 2010 (has links) (PDF)
Le vieillissement de la population représente une préoccupation grandissante des gouvernements en raison de l'ampleur qu'il prendra au cours des prochaines décennies et de la rapidité de son évolution. Une des évolutions préconisées pour répondre à cette transformation de la société concerne l'assistance technologique aux personnes âgées en perte d'autonomie à l'intérieur d'un habitat dit intelligent. L'une des problématiques clé inhérente à l'habitat intelligent émane du besoin intrinsèque, pour fournir un service utile, de reconnaître les activités de la vie quotidienne réalisées par le patient à l'intérieur de son habitat. Cette difficulté correspond en fait à une forme particulière d'une problématique bien connue du domaine de l'intelligence artificielle qui est appelée la reconnaissance de plans. Celle-ci réfère au fait qu'on suppose l'existence d'une structure d'activité (ensemble d'actions organisées dans le temps) planifiée au départ par l'entité observée, et qui constitue le résultat que l'agent observateur cherche à reconnaître à partir de sa base de connaissances (librairie de plans). En effet, l'ensemble des informations collectés reliées au temps comme l'ordonnancement des actions, durée d'une action, laps de temps entre deux actions, etc., se révèle d'une très grande importance afin de minimiser les hypothèses plausibles et identifier les erreurs de réalisation : une activité peut être exécutée de manière erronée si la durée acceptable entre deux étapes du plan est dépassée ou bien insuffisante, de même, le patient peut effectuer deux actions en parallèle d'où l'importance du facteur temps.
Ce mémoire de maîtrise apporte des pistes de solutions à la problématique énoncée, qui porte sur la reconnaissance temporelle des activités de la vie quotidienne d'une personne en perte d'autonomie. Il propose une extension à un modèle de reconnaissance d'activités existant, développé par Weida, en incorporant la notion de concepts d'action en logique de description et en introduisant une nouvelle structuration temporelle augmentée permettant de tenir compte de l'aspect quantitatif lié aux durées et aux délais des actions, qui était absent du modèle original. Cette addition d'une couche temporelle numérique offre un moyen efficace d'exploiter les intervalles de temps dans le processus de reconnaissance et permet d'augmenter la performance et la précision du modèle de Weida. Elle permet également la détection de nouvelles anomalies liées au comportement d'un individu en perte d'autonomie. Enfin, le modèle présenté a été implémenté et validé lors de simulations effectuées à l'aide d'un ensemble de scénarios de cas réels tirés d'une étude clinique. Les résultats ont été analysé et comparé à ceux obtenus avec le modèle original de façon à bien montrer l'apport de notre proposition.
|
220 |
Mode de construction à rebours dans un algorithme d'optimisation par colonie de fourmis pour la minimisation du retard totalGomes Monteiro, Stefan Manuel January 2010 (has links) (PDF)
Le problème de machine unique avec temps de réglage dépendants de la séquence est un problème d'ordonnancement industriel où il y a une machine qui peut exécuter différentes tâches. Le changement de tâches à exécuter entraîne un réglage de la machine comme c'est le cas pour les industries de transformation de papier ou les industries pharmaceutiques. De plus, le temps pour réaliser ce réglage dépend de la tâche courante et de la tâche suivante. Le but du problème d'ordonnancement à l'étude est de déterminer l'ordre des tâches de façon à minimiser le retard total.
Ce problème est de nature NP - difficile et sa résolution passe par l'utilisation des métaheuristiques. Plusieurs métaheuristiques ont été proposées dans la littérature comme les algorithmes d'optimisation par colonie de fourmis (OCF), plus précisément les ACS. Ce mémoire propose un nouveau mode de construction de solutions pour l'ACS pour le problème de machine unique avec temps de réglage dépendants de la séquence pour la minimisation du retard total. En effet, compte tenu de la nature de l'objectif à optimiser, nous privilégions un mode de construction de solution à rebours. Pour amorcer une construction à rebours de la séquence, un nouveau concept de visibilité est proposé, avec l'utilisation d'une marge arrière qui permet de favoriser le placement des tâches en retard à la fin de la séquence. Cette nouvelle visibilité a été intégrée à une version ACS existant dans la littérature et a été nommée ACS à rebours. Des modifications ont été apportées à l'ACS à rebours pour améliorer son efficacité. La première modification a pour objectif de rendre l'ACS à rebours plus intelligent au niveau du choix des paramètres associés à la règle de transition et de rendre ainsi son utilisation plus facile. La seconde modification consiste à utiliser une règle de priorité au moment où les tâches restantes à placer ne sont plus en retard pour tenter d'accélérer la construction d'une solution.
Des expérimentations numériques ont été réalisées pour comparer la performance de l'ACS à rebours avec celle de l'un des ACS présentés dans la littérature pour le problème à l'étude. Pour les instances de problème de petite taille, la performance de l'ACS à rebours est semblable à celle de l'ACS classique. Ceci nous porte à croire que l'idée de base ouvre une voie intéressante pour le développement des travaux futurs avec les ACS qui utilisent un mode de construction à rebours de la séquence. Pour les instances de problème de grande taille, un avantage doit être accordé à l'ACS classique, ce qui atteste que des améliorations peuvent être apportées à l'ACS à rebours surtout au niveau de la diversification des solutions produites.
Ce travail de recherche représente une première exploitation du concept de construction de solutions à rebours de la séquence pour les ACS. Le présent mémoire est une contribution non seulement à une meilleure connaissance des ACS, mais aussi à la connaissance de nouveaux modes de construction pour les ACS.
|
Page generated in 0.0265 seconds