• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 20
  • 5
  • 1
  • 1
  • Tagged with
  • 65
  • 22
  • 14
  • 14
  • 13
  • 12
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Usages et pratiques socio-(re)éducommunicationnels pour les personnes handicapées mentales : outils informatiques et média Internet / Socio-(re)educommunicational manners and practices for mentally deficient persons : data processing tools and Internet media

Bonjour, Audrey 04 November 2011 (has links)
L’utilisation croissante de l’informatique et de l’Internet ne cesse de se démentir. Si des études d’usage(s) se multiplient en France, elles sont très inégales selon les publics. Notre recherche interroge les usages et les pratiques d’interventions spécialisées avec les outils informatiques et le média Internet pour des personnes handicapées mentales en institution. Pour ce faire, nous déployons une méthodologie mixte combinant une enquête par questionnaires, des entretiens et des observations in situ. Avant de traiter de la problématique transversale des usages et pratiques, nous menons une méta-réflexion sur le "comment faire" de la recherche sur et pour le handicap mental. Notre description des usages apporte un éclairage sur les logiques organisationnelles, sociales et économiques (offre commerciale et industrielle). Elle nous amène à reconsidérer ces usages et pratiques à l’aune de leur hybridité. Marqués par un brouillage disciplinaire, nous les (re)qualifions de socio-(ré)éducommunicationnels pour rendre compte d’une tension entre interventions sociales, rééducatives, éducatives et communicationnelles. Des logiques d’usages, émerge aussi la question de la "médiatisation des instances de médiation" selon un processus de construction et de changement des pratiques (actualisation, régularité et cristallisation). In fine, ces outils et/ou médias condensent des tensions tout en révélant des enjeux : transformation des formes organisationnelles du "milieu clos" à l’ "auto-éco-organisation", "mutation des postures, compétences et légitimités professionnelles" ainsi qu’amélioration des situations de vie des personnes handicapées (énovation et "processus de personnalisation") / The increasing use of computers and the Internet does not stop contradicting itself. If practical studies multiply in France, they are very uneven according to the public. Our research questions the manners and the practices of interventions in connection with data processing tools and the Internet media and conceived for mentally deficient persons. Therefore, we adopted a mixed methodology combining a survey through questionnaires, interviews and observations in situ. Before dealing with the transverse problem of manners and practices, we lead a large brainstorming on how to conduct the research on and for the mental handicap. Our description of the manners highlights the organizational, social and economic logics (commercial and industrial offer). It brings us to reconsider these manners and practices in the alder of their hybridity. Marked by a disciplinary jamming, we (re)qualify them of socio-(re)educommunicational to report a tension between interventions qualified as social, re-educational, educational and communicational. These results order us to question the mediatization of the mediation authorities according to a process of construction and modification of current practices (updating, regularity and crystallization). In fine, these tools and\or media condense tensions while revealing stakes: transformation of the organizational forms of the closed environment in the auto-eco-organization, the mutation of the postures, the skills and the professional legitimacies as well as improvement of the situations of life of the disabled persons (énovation and personalization process)
2

Reconnaissance dynamique de personnes dans les émissions audiovisuelles / Dynamic person recognition in audiovisual broadcasts

Auguste, Rémi 09 July 2014 (has links)
L'analyse automatique de contenu des vidéos en vue de leur annotation est un domaine de recherche en plein essor. Reconnaître les personnes apparaissant dans des émissions audiovisuelles permet une structuration automatique d'une quantité grandissante d'archives audiovisuelles. Nous présentons une approche dynamique originale de reconnaissance de personnes dans les flux vidéo. Cette approche est dynamique car elle tire avantage de la richesse des informations contenues dans la vidéo, contrairement aux approches statiques basées uniquement sur les images. L'approche proposée comprend deux volets. Le premier volet consiste à isoler toutes les occurrences de personnes d'une émission, et à les regrouper en clusters en se basant sur un descripteur original : les histogrammes spatio-temporels, ainsi que sur une mesure de similarité dédiée. L'originalité vient de l'intégration d'informations temporelles dans le descripteur, qui permet une estimation plus fiable de la similarité entre les occurrences de personnes. Le second volet propose la mise en oeuvre d'une méthode de reconnaissance faciale. Différentes stratégies sont envisagées, d'une part pour identifier les occurrences de personnes selon les trames qui composent la séquence, et d'autre part pour propager les identités au sein des groupes selon leurs membres. Ces deux aspects de notre contribution ont été évalués à l'aide de corpus de données réelles contenant des émissions issues des chaînes BFMTV et LCP. Les résultats des expérimentations menées indiquent que l'approche proposée permet d'améliorer notablement la précision de reconnaissance en prenant en compte la dimension temporelle. / The annotation of video streams by automatic content analysis is a growing field of research. The possibility of recognising persons appearing in TV shows allows to automatically structure ever-growing video archives. We present an original and dynamic approach to person recognition from video streams. This approach is dynamic as it benefits from the motion information contained in videos, whereas the static approaches are solely based on still images. The proposed approach is composed of two parts. In the first one, we extract persontracks from the shows and cluster them using a new descriptor and its associated similarity measure : space-time histograms. The originality of our approach is the integration of temporal data into the descriptor. Experiments show that it provides a better estimation of the similarity between persontracks. In the second part of our approach, we propose to use a facial recognition method which aims at "naming" the clusters. Various strategies are considered to assign an identity to a persontrack using its frames and to propagate this identity to members of the same cluster. These two aspects of our contribution have been evaluated using a corpus of real life TV shows broadcasted on BFMTV and LCP TV channels. The results of our experiments show that our approach significantly improves the precision of the recognition process thanks to the use of the temporal dimension.
3

Détermination du site de ré-enveloppement des capsides de HSV-1

Turcotte, Sophie January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Ré-identification de personne dans un réseau de cameras vidéo

Bak, Slawomir 05 July 2012 (has links) (PDF)
Ce manuscrit de thèse a pour sujet la ré-identification de personne basée sur leur apparence à partir d'images et de vidéos. La ré-identification de personne consiste à déterminer si un individu donné est déjà apparu sur un réseau de caméras. Ce problème est particulièrement difficile car l'apparence change significativement entre les différentes vues de caméra, où les variations de points de vue, d'illumination et de position de l'objet, rendent le problème difficile. Nous nous concentrons sur le développement de modèles d'apparence robustes qui sont en mesure de faire correspondre les apparences humaines enregistrées dans des vues de caméra disjointes. Comme la représentation de régions d'image est fondamentale pour la mise en correspondance d'apparence, nous étudions différents types de descripteurs d'images. Ces différents descripteurs impliquent des stratégies différentes pour la mise en correspondance d'apparence, impliquant des modèles différents pour la représentation des apparences de personne. En appliquant des techniques d'apprentissage automatique, nous générons des modèles descriptifs et discriminatoires, qui améliorent la distinction des caractéristiques extraites, améliorant ainsi la précision de la ré-identification. Cette thèse a les contributions suivantes. Nous proposons six techniques de ré-identification humaine. Les deux premières appartiennent aux approches single-shot, dans lesquelles une seule image est suffisante pour extraire une signature fiable de personne. Ces approches divisent le corps humain en différentes parties de corps prédéfinies, puis extraient les caractéristiques de l'image. Cela permet de mettre en correspondance les différentes parties du corps en comparant les signatures. Les quatre autres méthodes abordent le problème de ré-identification à l'aide de signatures calculées à partir de plusieurs images (multiple-shot). Nous proposons deux techniques qui apprennent en ligne le modèle d'apparence humaine en utilisant un schéma de boosting. Les approches de boosting améliorent la précision de la reconnaissance, au détriment du temps de calcul. Les deux dernières approches assument un modèle prédéfini, ou un apprentissage hors ligne des modèles, pour réduire le temps de calcul. Nous constatons que le descripteur de covariance est en général le meilleur descripteur pour la mise en correspondance des apparences dans des vues de caméras disjointes. Comme l'opérateur de distance de ce descripteur nécessite un calcul intensif, nous proposons également une nouvelle implémentation utilisant le GPU qui accélère considérablement les temps de calcul. Nos expériences suggèrent que la moyenne Riemannienne des covariances calculée à partir de plusieurs images améliore les performances par rapport aux techniques de ré-identification de personne de l'état de l'art. Enfin, nous proposons deux nouvelles bases d'images d'individus pour évaluer le scénario multiple-shot.
5

Le dispositif posthumain comme vanité contemporaine / The posthuman device as contemporary vanity

Verdier, Antoine 19 November 2014 (has links)
La figure de l’homme a traversé l’histoire de la représentation, mais les valeurs signifiantes du mondecontemporain ne sont plus compatibles avec les conditions d’une histoire de l’idéal humain classique. Eneffet , face à l’évidence des changements induits par les avancées technologiques, nano et biotechnologiques,numériques, cognitives et génétiques, l’apparition d’une humanité augmentée semble irréversible. Entrel’angoisse d’un avenir profondément détérioré par les assauts d’un ultra libéralisme et le messianisme destechnoprohètes , l’expression d’un corps autre, « posthumain », conjugue émancipation narcissique, recherchescientifique, et hybridation corporelle. Le dispositif posthumain, qui émerge comme une des manifestations de«l’esprit du temps » dominant, peut se comprendre comme une « Vanité contemporaine ». Ce dispositif entenddépasser l’humain, construire un nouvel imaginaire, et chemin faisant, inventer une nouvelle représentationfigurative de l’individu.Dans le champ des arts plastiques, « le dispositif posthumain » donne lieu à de multiples expressionsqui en soulignent les incohérences, et surtout dénoncent certains déterminismes scientifiques. Conscient del’importance de ces enjeux scientifiques, culturels et idéologiques et souhaitant demeurer dans la logiqueinterrogative qui définit le champ des arts plastiques, / In front of the changes inferred by technological breakthroughs, nano and biotechnological, digital,cognitive and genetic, the appearance of a « increased » humanity seems inflexible. Between the anxiety of afuture profoundly damaged by the assaults of ultra liberalism, and the messianism of « technoprohets », theexpression of an other body, « posthuman « , conjugates narcissistic emancipation, scientific research, andphysical hybridization. The figure of the man crossed the history of the representation, but the significantvalues of the contemporary world are not compatible any more with the conditions of a history of the idealclassic human being. The « posthuman plan », which emerges as « spirit of the times », can understand as a« contemporary Vanity ». This device intends to overtake the human being, to build a new imagination, andcertainly to invent a new history of the representation of the individual. In the field of the plastic arts, « theposthuman device » give rise to multiple expressions who underlines the incoherence, and especially denouncescertain scientific determinisms. Aware of the importance of these scientific problems, but wishing to remainin this inquiring logic which defines the field of the plastic arts, I wanted to propose a plastic expression inall these questions. Three attitudes were respected to succeed for confining this question of the representationof the posthuman being. These attitudes could correspond in a kind of declension of the time : the end of thehumanism, the birth of a « increased » humanity, and finally, the appearance of a « posthuman being ».
6

Détection et ré-identification de piétons par points d'intérêt entre caméras disjointes

Hamdoun, Omar 16 December 2010 (has links) (PDF)
Avec le développement de la vidéo-protection, le nombre de caméras déployées augmente rapidement. Pour exploiter efficacement ces vidéos, il est indispensable de concevoir des outils d'aide à la surveillance qui automatisent au moins partiellement leur analyse. Un des problèmes difficiles est le suivi de personnes dans un grand espace (métro, centre commercial, aéroport, etc.) couvert par un réseau de caméras sans recouvrement. Dans cette thèse nous proposons et expérimentons une nouvelle méthode pour la ré-identification de piétons entre caméras disjointes. Notre technique est fondée sur la détection et l'accumulation de points d'intérêt caractérisés par un descripteur local. D'abord, on propose puis évalue une méthode utilisant les points d'intérêts pour la modélisation de scène, puis la détection d'objets mobiles. Ensuite, la ré-identification des personnes se fait en collectant un ensemble de points d'intérêt durant une fenêtre temporelle, puis en cherchant pour chacun d'eux leur correspondant le plus similaire parmi tous les descripteurs enregistrés précédemment, et stockés dans un KD-tree. Enfin, nous proposons et testons des pistes d'amélioration, en particulier pour la sélection automatique des instants ou des points d'intérêt, afin d'obtenir pour chaque individu un ensemble de points qui soient à la fois les plus variés possibles, et les plus discriminants par rapport aux autres personnes. Les performances de ré-identification de notre algorithme, environ 95% d'identification correcte au premier rang parmi 40 personnes, dépassent l'état de l'art, ainsi que celles obtenues dans nos comparaisons avec d'autres descripteurs (histogramme de couleur, HOG, SIFT).
7

Igor Stravinsky: Concerto en Ré pour Violon et  Orchestre Sats 1 : en analys och instudering av Stravinskys notation i relation till Duskhins och Hahns interpretationer

Gärskog, Torun January 2016 (has links)
Syftet med studien är att utvecklas som interpret och violinist. Det sker genominstudering och jämförande analys av Igor Stravinskys notation i Concerto en Répour Violon et Orchestre sats 1 (1931) i relation till två inspelningar: SamuelDushkis grammofoninspelning från 1931 med Stravinsky som dirigent samtHilary Hahns inspelning från 2012. Därigenom fördjupas bilden av hur denmusikaliska tolkningen har förändrats över drygt åttio år.En betydande del av studien består av analyser av Dushkins och Hahnsinspelningar av första satsen, samt Stravinskys anvisningar och min egentolkning. Verktyg i analysprocessen är musikapplikationen Spotify, Scott Music’snotupplaga av Concerto en Ré och metronomapplikationen Metronome.Slutsatser av analyserna påvisar att Hahns inspelning har ett betydligt livligaretempo än Dushkins. Dushkin använder ofta glissando, vilket Hahn inte gör.Dushkin spelar också i regel med en mjukare ton än Hahn, som gärna framhäveroch lägger till egna accenter. Kvaliteten på inspelningarna är en väsentlig detaljatt ta hänsyn till då Hahn har alla fördelar vad gäller dagens inspelningsteknik. Iinspelningsprocessen 1931 fanns det förmodligen endast en eller möjligen ett parmikrofoner som tog upp ljudet.Ett viktigt resultat i studien är upptäckten att Stravinsky som dirigent vid ettflertal tillfällen gjorde helt andra musikaliska val på inspelningen än vad han somkompositör angav i partituret. Personligen ger det mig uppmuntran och inspirationatt göra egna konstnärliga val i min tolkning av verket.
8

Suivi multi-caméras de personnes dans un environnement contraint

Aziz, Kheir Eddine 11 May 2012 (has links)
La consommation est considérée comme étant l'une des formes simples de la vie quotidienne. L'évolution de la société moderne a entraîné un environnement fortement chargé d'objets, de signes et d'interactions fondées sur des transactions commerciales. À ce phénomène s'ajoutent l'accélération du renouvellement de l'offre disponible et le pouvoir d'achat qui devient une préoccupation grandissante pour la majorité des consommateurs et oú l'inflation des prix est un sujet récurrent. Compte tenu de cette complexité et de ces enjeux économiques aussi consé- quents, la nécessité de modéliser le comportement d'achat des consommateurs dans les diffé- rents secteurs d'activité présente une phase primordiale pour les grands acteurs économiques ou analystes. En 2008, la société Cliris s'est lancée dans le projet de suivi multi-caméras de trajectoires des clients. En effet, le projet repose sur la mise au point d'un système d'analyse automatique multi-flux basé sur le suivi multi-caméras de clients. Ce système permet d'analy- ser la fréquentation et les parcours des clients dans les surfaces de grandes distributions. Dans le cadre de cette thèse CIFRE, nous avons abordé l'ensemble du processus de suivi multi-caméras de personnes tout en mettant l'accent sur le côté applicatif du problème en apportant notre contribution à la réponse aux questions suivantes :1. Comment suivre un individu à partir d'un flux vidéo mono-caméra en assurant la gestion des occultations ?2. Comment effectuer un comptage de personnes dans les surfaces denses ?3. Comment reconnaître un individu en différents points du magasin à partir des flux vidéo multi-caméras et suivre ainsi son parcours ? / ...
9

Reengineering Object Oriented Software Systems for a better Maintainability / Ré-ingénierie des applications à objets pour une amélioration de leurs attributs de qualité

Zellagui, Soumia 05 July 2019 (has links)
Les systèmes logiciels existants représentent souvent des investissements importants pour les entreprises qui les développent avec l’intention de les utiliser pendant une longue période de temps. La qualité de ces systèmes peut être dégradée avec le temps en raison des modifications complexes qui leur sont incorporées. Pour faire face à une telle dégradation lorsque elle dépasse un seuil critique, plusieurs stratégies peuvent être utilisées. Ces stratégies peuvent se résumer en: 1) remplaçant le système par un autre développé à partir de zéro, 2) poursuivant la maintenance(massive) du système malgré son coût ou 3) en faisant une réingénierie du système. Le remplacement et la maintenance massive ne sont pas des solutions adaptées lorsque le coût et le temps doivent être pris en compte, car elles nécessitent un effort considérable et du personnel pour assurer la mise en œuvre du système dans un délai raisonnable. Dans cette thèse, nous nous intéressons à la solution de réingénierie. En général, la réingénierie d’un système logiciel inclut toutes les activités après la livraison à l’utilisateur pour améliorer sa qualité. Cette dernière est souvent caractérisé par un ensemble d’attributs de qualité. Nous proposons trois contributions pour améliorer les attributs de qualité spécifiques, que soient:la maintenabilité, la compréhensibilité et la modularité. Afin d’améliorer la maintenabilité, nous proposons de migrer les systèmes logiciels orientés objets vers des systèmes orientés composants. Contrairement aux approches existantes qui considèrent un descripteur de composant comme un cluster des classes, chaque classe du système existant sera migré en un descripteur de composant. Afin d’améliorer la compréhensibilité, nous proposons une approche pour la reconstruction de modèles d’architecture d’exécution des systèmes orientés objet et de gérer la complexité des modèles résultants. Les modèles, graphes, générés avec notre approche ont les caractéristiques suivantes: les nœuds sont étiquetés avec des durées de vie et des probabilités d’existence permettant 1) une visualisation des modèles avec un niveau de détail. 2) de cacher/montrer la structure interne des nœuds. Afin d’améliorer la modularité des systèmes logiciels orientés objets, nous proposons une approche d’identification des modules et des services dans le code source de ces systèmes.Dans cette approche, nous croyons que la structure composite est la structure principale du système qui doit être conservée lors du processus de modularisation, le composant et ses composites doivent être dans le même module. Les travaux de modularisation existants qui ont cette même vision, supposent que les relations de composition entre les éléments du code source sont déjà disponibles ce qui n’est pas toujours évident. Dans notre approche, l’identification des modules commence par une étape de reconstruction de modèles d’architecture d’exécution du système étudié. Ces modèles sont exploités pour d’identification de relations de composition entre les éléments du code source du système étudié. Une fois ces relations ont été identifiées, un algorithme génétique conservatif aux relations de composition est appliqué sur le système pour identifier des modules. En dernier, les services fournis par les modules sont identifiés à l’aide des modèles de l’architecture d’exécution du système logiciel analysé. Quelques expérimentations et études de cas ont été réalisées pour montrer la faisabilité et le gain en maintenabilité, compréhensibilité et modularité des logiciels traités avec nos propositions. / Legacy software systems often represent significant investmentsfor the companies that develop them with the intention of using themfor a long period of time. The quality of these systems can be degraded over time due to the complex changes incorporated to them.In order to deal with these systems when their quality degradation exceeds a critical threshold, a number of strategies can be used. Thesestrategies can be summarized in: 1) discarding the system and developinganother one from scratch, 2) carrying on the (massive) maintenance of the systemdespite its cost, or 3) reengineering the system. Replacement and massive maintenance are not suitable solutions when the cost and time are to be taken into account, since they require a considerable effort and staff to ensurethe system conclusion in a moderate time. In this thesis, we are interested in the reengineering solution. In general, software reengineering includes all activities following the delivery to the user to improve thesoftware system quality. This latter is often characterized with a set of quality attributes. We propose three contributions to improve specific quality attributes namely: maintainability, understandability and modularity.In order to improve maintainability, we propose to migrateobject oriented legacy software systems into equivalent component based ones.Contrary to exiting approaches that consider a component descriptor as a clusterof classes, each class in the legacy system will be migrated into a componentdescriptor. In order to improve understandability, we propose an approach forrecovering runtime architecture models of object oriented legacy systems and managing the complexity of the resulted models.The models recovered by our approach have the following distinguishing features: Nodes are labeled with lifespans and empirical probabilities of existencethat enable 1) a visualization with a level of detail. 2) the collapsing/expanding of objects to hide/show their internal structure.In order to improve modularity of object-oriented software systems,we propose an approach for identifying modulesand services in the source code.In this approach, we believe that the composite structure is the main structure of the system that must be retained during the modularization process, the component and its composites must be in the same module. Existing modularization works that has this same vision assumes that the composition relationships between the elements of the source code are already available, which is not always obvious. In our approach, module identification starts with a step of runtime architecture models recovery. These models are exploited for the identification of composition relationships between the elements of the source code. Once these relationships have been identified, a composition conservative genetic algorithm is applied on the system to identify modules. Lastly, the services provided by the modules are identified using the runtime architecture models of the software system. Some experimentations and casestudies have been performed to show the feasibility and the gain inmaintainability, understandability and modularity of the software systems studied with our proposals.
10

ELKAR - Ré-Ingénierie d'applications pour la mise en oeuvre de la coopération : Méthodologie et Architecture

Roose, Philippe 14 December 2000 (has links) (PDF)
Il émerge des entreprises une forte demande d'évolution de leurs applications informatiques vers plus de coopération. Le problème est de réaliser cette migration tout en gardant la qualité de l'existant rompu aux difficultés rencontrées. Ceci suppose une ré-ingénierie de ces applications. Dans certains cas, des solutions provisoires et non satisfaisantes ont été apportées sous forme de coopération externe. Celle-ci consiste par des moyens humains, logiciels et matériels, à mettre en relation certaines entités produisant de l'information à celles la nécessitant. Cette coopération externe présente divers inconvénients : souvent lente, peu efficace, peu souple, et demandant des moyens parfois disproportionnés par rapport aux gains obtenus. En automatisant la coopération nous pensons pouvoir éliminer l'ensemble des problèmes énumérés ci-dessus tout en améliorant tant du point de vue qualitatif que quantitatif la part prise par la coopération. <br />Nous allons pour cela proposer une méthode basée sur une organisation de modules opératoires en groupes de travail dynamiques dont la composition peut évoluer au cours du temps. Cette méthode permettra également de mettre en évidence les éléments de coopération, de les mettre en relation et de les composer éventuellement afin d'en créer de nouveaux plus riches sémantiquement et donc plus à même d'être utilisés dans un environnement coopératif. <br />Afin de rendre opérationnelle notre méthode, la dernière étape proposée va permettre d'obtenir des règles de type ÉCA à partir d'un langage de spécification associé à la méthode. Ces règles permettront la mise en œuvre concrête de la coopération. Elles seront exécutées par la plate-forme coopérative distribuée que nous avons développée et qui permet à la fois la gestion des groupes de travail dynamiques et la circulation des éléments de coopération.<br />Notre approche globale permet la mise en œuvre de la coopération par ré-ingénierie de l'application sans modifier les modules opératoires existants. Nous proposons une méthode intégralement dérivable (après vérification formelle) en règles, elles même intégrées à une plate-forme qui permet la mise en coopération.

Page generated in 0.073 seconds