Spelling suggestions: "subject:"computers anda society"" "subject:"computers ando society""
21 |
Modèles et algorithmes pour l'optimisation robuste dans les Self-Organizing Network (SON) des réseaux mobiles 4G (LTE)Tabia, Nourredine 13 December 2013 (has links) (PDF)
La norme 3G/UMTS a permis de développer les premières applications multimédia pour téléphones et tablettes mobiles. Le nouveau standard 4G/LTE (Long Term Evolution) a pour objectif le très haut débit mobile. Dans ce standard, beaucoup d'efforts ont portés sur la reconfiguration automatique des réseaux en fonction de la demande des clients dans un processus appelé Self-Organizing Network (SON). Le travail de cette thèse s'inscrit dans cette direction. La reconfiguration de réseaux est comprise principalement dans le sens des modèles, des méthodes et des outils pour analyser les indicateurs remontés du réseau et configurer automatiquement les paramètres. Nous avons essentiellement travaillé sur les paramètres des aériens, l'allocation des fréquences, des puissances d'émission et des inclinaisons verticales.Dans cette optique, étant donné la forte variabilité des données d'entrée de l'optimisation issues des remontées de réseau, cette thèse porte sur les modèles et algorithmes d'optimisation robuste dans le contexte de l'optimisation sous contraintes. L'optimisation robuste fait référence à un ensemble de procédés pour proposer des solutions à des problèmes combinatoires dans un contexte de données incertaines et de scénarios variables dans le temps. Une première partie est dédiée à l'état de l'art et présente les principes des Self-Organizing Network (SON). La deuxième partie est consacrée à l'état de l'art des méthodes en optimisation robuste. En troisième partie nous présentons la modélisation mathématique du problème d'optimisation pour lequel les données de trafic (répartitions des clients sur la zone de service et leurs demandes respectives) prennent des valeurs variables dans le temps. Une phase de diagnostic sur le fonctionnement du réseau à partir des données, et une étude de sensibilité des solutions vis-à-vis des variations dans la réalisation des données ont été faites en quatrième partie avec des algorithmes de recherche locale. La cinquième partie présente le travail de conception, développement et test sur scénarios, d'une Recherche Tabou ainsi qu'une analyse approfondie sur les méthodes de pilotage envisagées pour les SON en 4G.
|
22 |
Recherche des objets complexes dans le Web structuréDerouiche, Nora 20 March 2012 (has links) (PDF)
Nous assistons aujourd'hui à un développement continu et rapide du Web Structuré, dans lequel les documents (les pages Web) ne sont plus composés que du texte non structuré mais sont centrés sur les données, présentant des contenus structurés et des objets complexes. Ces pages Web sont générées le plus souvent de façon dynamique à partir d'une base de données accessible via des formulaires (Web caché), et sont organisées selon une structure régulière et prédéfinie. Les plates-formes de recherche actuelles ne permettent d'obtenir que des pages en utilisant des méthodes traditionnelles de recherche par des mots-clés, qui sont inadaptées pour interroger le Web structuré. En effet, la recherche par mots-clés est sémantiquement pauvre et ignore les liens structurels existant entre les différents contenus des objets complexes (ex. dans une page Web d'un site commercial, constituée d'une liste de livres, les entités élémentaires "titre" et "auteur" composant chaque "livre" sont présentées selon une disposition qui illustre leurs relations. De nouveaux moyens de recherche sur le Web sont donc nécessaires, pour permettre à l'utilisateur de cibler des données complexes avec une sémantique précise. L'objectif de cette thèse est de fournir des algorithmes efficaces pour l'extraction et la recherche des objets structurées (un livre, un concert de musique, etc.) de façon automatique, à l'aide de méthodes adaptées allant au-delà de la recherche par mots-clés. Nous avons proposé une approche d'interrogation du Web en deux étapes, qui permet à l'utilisateur de décrire le schéma des objets ciblés, de façon souple et précise. Les deux problématiques principales adressées sont : (1) la sélection de sources Web structurées les plus pertinentes pour un schéma fourni par l'utilisateur (c-à-d, contenant les objets, instances de ce schéma), et (2) la construction de wrappers (extracteurs) pour l'extraction des objets complexes ciblés à partir des sources sélectionnées, en exploitant la régularité des structures des pages et la sémantique des données. Notre approche est générique, dans le sens où elle nŠest pas spécifique à des sources ou des objets d'un domaine particulier. Elle a été implantée (système ObjectRunner) et testée sur des sources Web appartenant à des domaines variés. Les résultats obtenus montrent, en particulier, une pertinente élevée au niveau de la sélection de sources et un gain significatif au niveau de la qualité de l'extraction par rapport aux approches existantes.
|
23 |
Attelage de systèmes de transcription automatique de la paroleBougares, Fethi 23 November 2012 (has links) (PDF)
Nous abordons, dans cette thèse, les méthodes de combinaison de systèmesde transcription de la parole à Large Vocabulaire. Notre étude se concentre surl'attelage de systèmes de transcription hétérogènes dans l'objectif d'améliorerla qualité de la transcription à latence contrainte. Les systèmes statistiquessont affectés par les nombreuses variabilités qui caractérisent le signal dela parole. Un seul système n'est généralement pas capable de modéliserl'ensemble de ces variabilités. La combinaison de différents systèmes detranscription repose sur l'idée d'exploiter les points forts de chacun pourobtenir une transcription finale améliorée. Les méthodes de combinaisonproposées dans la littérature sont majoritairement appliquées a posteriori,dans une architecture de transcription multi-passes. Cela nécessite un tempsde latence considérable induit par le temps d'attente requis avant l'applicationde la combinaison.Récemment, une méthode de combinaison intégrée a été proposée. Cetteméthode est basée sur le paradigme de décodage guidé (DDA :Driven DecodingAlgorithm) qui permet de combiner différents systèmes durant le décodage. Laméthode consiste à intégrer des informations en provenance de plusieurs systèmes dits auxiliaires dans le processus de décodage d'un système dit primaire.Notre contribution dans le cadre de cette thèse porte sur un double aspect : d'une part, nous proposons une étude sur la robustesse de la combinaison par décodage guidé. Nous proposons ensuite, une amélioration efficacement généralisable basée sur le décodage guidé par sac de n-grammes,appelé BONG. D'autre part, nous proposons un cadre permettant l'attelagede plusieurs systèmes mono-passe pour la construction collaborative, à latenceréduite, de la sortie de l'hypothèse de reconnaissance finale. Nous présentonsdifférents modèles théoriques de l'architecture d'attelage et nous exposons unexemple d'implémentation en utilisant une architecture client/serveur distribuée. Après la définition de l'architecture de collaboration, nous nous focalisons sur les méthodes de combinaison adaptées à la transcription automatiqueà latence réduite. Nous proposons une adaptation de la combinaison BONGpermettant la collaboration, à latence réduite, de plusieurs systèmes mono-passe fonctionnant en parallèle. Nous présentons également, une adaptationde la combinaison ROVER applicable durant le processus de décodage via unprocessus d'alignement local suivi par un processus de vote basé sur la fréquence d'apparition des mots. Les deux méthodes de combinaison proposéespermettent la réduction de la latence de la combinaison de plusieurs systèmesmono-passe avec un gain significatif du WER.
|
24 |
Utilization of Personal Health Informatics Through IntermediariesKatule, N.A 01 July 2018 (has links)
Personal informatics are important tools in health self-management as they support individuals to quantify and self-reflect on their lifestyle. Human-computer interaction researchers have devoted resources on studying how to design such tools. Various motivational strategies have been explored for their capabilities in improving user engagement. However, such strategies are developed with an assumption that the targeted consumer of information is the one directly manipulating user interfaces of the system that has information. This may not always be the case for users in developing regions. As a result, such systems may not scale well in contexts where a targeted consumer (beneficiary) may use technology through the facilitation of another person (intermediary) whom is responsible for manipulating user interfaces, because such facilitators are not recognized as part of the system, hence motivational strategies don't cater for them.
In order to uncover design implications for intermediated technology use in the context of personal health informatics (PHI), the researcher started with the theoretical framing of the work followed by a contextual enquiry which led to development of mobile applications' prototypes for tracking nutrition and physical activity. Evaluation of the prototypes revealed that a familial relationship is a prerequisite for such an intervention. The most promising combination involves family members, possibly a child and a parent working together. The study used self-determination theory to understand how a collaborative gamified system can increase engagement. The result revealed that gamification as the source of a significant increase in perceived competence in intermediary users whom also tended to consider themselves as co-owners of the interaction experience. Therefore, gamification was found to be a catalyst for increasing collaboration between an intermediary and beneficiary user of technology, provided that the two users that formed a pair had a prior social relationship. In the absence of gamification, intermediary users tended to be less engaged in the intervention. The study highlights both the positive and negative aspects of gamification in promoting collaboration in intermediated use and its general implications in health settings. Design considerations required in order to improve the overall user experience of both users involved are proposed. In general, this work contributes to both theory and empirical validation of factors for, supporting proximate-enabled intermediated use of personal health informatics.
|
25 |
Représentations visuelles de concepts textuels pour la recherche et l'annotation interactives d'imagesNguyen, Nhu Van 09 September 2011 (has links) (PDF)
En recherche d'images aujourd'hui, nous manipulons souvent de grands volumes d'images, qui peuvent varier ou même arriver en continu. Dans une base d'images, on se retrouve ainsi avec certaines images anciennes et d'autres nouvelles, les premières déjà indexées et possiblement annotées et les secondes en attente d'indexation ou d'annotation. Comme la base n'est pas annotée uniformément, cela rend l'accès difficile par le biais de requêtes textuelles. Nous présentons dans ce travail différentes techniques pour interagir, naviguer et rechercher dans ce type de bases d'images. Premièrement, un modèle d'interaction à court terme est utilisé pour améliorer la précision du système. Deuxièmement, en se basant sur un modèle d'interaction à long terme, nous proposons d'associer mots textuels et caractéristiques visuelles pour la recherche d'images par le texte, par le contenu visuel, ou mixte texte/visuel. Ce modèle de recherche d'images permet de raffiner itérativement l'annotation et la connaissance des images. Nous identifions quatre contributions dans ce travail. La première contribution est un système de recherche multimodale d'images qui intègre différentes sources de données, comme le contenu de l'image et le texte. Ce système permet l'interrogation par l'image, l'interrogation par mot-clé ou encore l'utilisation de requêtes hybrides. La deuxième contribution est une nouvelle technique pour le retour de pertinence combinant deux techniques classiques utilisées largement dans la recherche d'information~: le mouvement du point de requête et l'extension de requêtes. En profitant des images non pertinentes et des avantages de ces deux techniques classiques, notre méthode donne de très bons résultats pour une recherche interactive d'images efficace. La troisième contribution est un modèle nommé "Sacs de KVR" (Keyword Visual Representation) créant des liens entre des concepts sémantiques et des représentations visuelles, en appui sur le modèle de Sac de Mots. Grâce à une stratégie d'apprentissage incrémental, ce modèle fournit l'association entre concepts sémantiques et caractéristiques visuelles, ce qui contribue à améliorer la précision de l'annotation sur l'image et la performance de recherche. La quatrième contribution est un mécanisme de construction incrémentale des connaissances à partir de zéro. Nous ne séparons pas les phases d'annotation et de recherche, et l'utilisateur peut ainsi faire des requêtes dès la mise en route du système, tout en laissant le système apprendre au fur et à mesure de son utilisation. Les contributions ci-dessus sont complétées par une interface permettant la visualisation et l'interrogation mixte textuelle/visuelle. Même si pour l'instant deux types d'informations seulement sont utilisées, soit le texte et le contenu visuel, la généricité du modèle proposé permet son extension vers d'autres types d'informations externes à l'image, comme la localisation (GPS) et le temps.
|
26 |
Optimisation sous contraintes par intelligence collective auto-adaptativeKhichane, Madjid 26 October 2010 (has links) (PDF)
Dans le cadre de cette thèse, nous nous sommes intéressés à la mise en œuvre d'algorithmes auto-adaptatifs d'Intelligence Collective pour la résolution de problèmes d'optimisation modélisés dans un langage de Programmation par contraintes (PPC). Nous avons porté une attention particulière à la famille d'algorithmes de type " Ant Colony Optimization " (ACO). Nous avons développé trois contributions, à savoir : (1) Intégration des algorithmes de type ACO dans un langage de programmation par contraintes pour la résolution de problèmes de satisfaction de contraintes; (2) Proposition d'un algorithme hybride et générique où ACO est couplé à une approche complète pour résoudre des problèmes d'optimisation combinatoires (3) Proposition d'une stratégie capable d'adapter dynamiquement les paramètres de ACO.
|
27 |
Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l'apprentissage humainPham Thi Ngoc, Diem 25 November 2011 (has links) (PDF)
Notre travail de recherche s'inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l'indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d'indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d'un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l'automatisation du calcul d'indicateurs. Pour cela, nous avons élaboré une nouvelle version d'UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l'enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d'indicateurs à partir des traces collectées par un EIAH, (2) d'intégrer des fonctions externes (qui proviennent d'autres outils d'analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d'indicateurs. Nous avons également développé un outil d'analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d'une analyse de l'état de l'art, mais aussi de travaux exploratoires sur la modélisation d'indicateurs et l'analyse de traces. L'approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants.
|
28 |
Plateformes collaboratives et logiques processuelles dans l'évolution des formes organisationnelles : pour une conception étendue de l'information organisationnelleChaudet, Bruno 01 December 2011 (has links) (PDF)
La question de la mobilisation des compétences, des informations, des connaissances, des savoirs, des intelligences, appuyée par un ensemble de technologies est aujourd'hui devenue centrale. Dans un contexte où l'information et la connaissance sont des éléments qui participent à l'avantage concurrentiel, leur capitalisation et la création d'un dispositif permettant de les mobiliser en situation sont au cœur des problématiques actuelles qui pourraient alors se résumer autour de la question suivante : Quelle méthode ou quel dispositif pourrions-nous mettre en œuvre pour tenter de décrire et d'accompagner l'intelligence organisationnelle ? Notre thèse propose une méthode de description de l'intelligence organisationnelle. Elle s'inspire des méthodes professionnelles de description des processus et s'est enrichie du séminaire de recherche " Entre normes et formes ", développé par le PREFics, laboratoire de recherche de l'université Rennes 2
|
29 |
Passations papier/crayon et informatisées : quelle influence sur les stratégies d'autoprésentation ?Bigot, Ophélie 30 November 2011 (has links) (PDF)
Cette thèse se donne pour ambition la compréhension des mécanismes autoprésentationnels et plus particulièrement ceux liés à l‟expression de la désirabilité sociale en tant que stratégie de présentation de soi, mis en place en fonction du format de passation (i.e. papier/crayon vs. informatisé). Le format de passation informatisé est, en effet, susceptible d‟affecter la manière dont les individus s‟autoprésentent en participant à une perception spécifique du contexte de passation : celui-ci serait perçu comme plus anonymant que le format de passation traditionnel (Kiesler et Sproull, 1986). Alors que la plupart des études ont choisi d‟aborder la question de l‟équivalence des formats de passation traditionnels versus informatisés d‟un point de vue psychométrique, nous tenterons d‟y répondre en interrogeant tant des facteurs dispositionnels tels que l‟attitude envers l‟informatique (expérimentations 1, 2 et 5) que contextuels comme, par exemple, l‟anonymat (expérimentations 3,4 et 5). Deux études se focaliseront sur l‟usage des formats traditionnels et informatisés (expérimentations 5 et 6). Au sein de ce programme de recherche, nous distinguerons également les formats de passation les plus traditionnels (i.e. papier/crayon) des plus récents (i.e. formats offline et online). De manière générale, les résultats valident l‟intérêt d‟une approche psychosociale de l‟équivalence des formats de passation traditionnels versus informatisés. Indépendamment du format de passation auquel les individus sont confrontés (i.e. traditionnel, offline ou online), les stratégies d‟autoprésentation sont influencées par la manière dont les individus perçoivent la situation de passation.
|
30 |
Compression progressive et tatouage conjoint de maillages surfaciques avec attributs de couleurLee, Ho 21 June 2011 (has links) (PDF)
L'utilisation des modèles 3D, représentés sous forme de maillage, est sans cesse croissante dans de nombreuses applications. Pour une transmission efficace et pour une adaptation à l'hétérogénéité des ressources de ces modèles, des techniques de compression progressive sont généralement utilisées. Afin de protéger le droit d'auteur de ces modèles pendant la transmission, des techniques de tatouage sont également employées. Dans ces travaux de thèse, nous proposons premièrement deux méthodes de compression progressive pour des maillages avec ou sans information de couleurs et nous présentons finalement un système conjoint de compression progressive et de tatouage. Dans une première partie, nous proposons une méthode d'optimisation du compromis débit-distorsion pour des maillages sans attribut de couleur. Pendant le processus de l'encodage, nous adoptons la précision de quantification au nombre d'éléments et à la complexité géométrique pour chaque niveau de détail. Cette adaptation peut s'effectuer de manière optimale en mesurant la distance par rapport au maillage original, ou de façon quasi-optimale en utilisant un modèle théorique pour une optimisation rapide. Les résultats montrent que notre méthode donne des résultats compétitifs par rapport aux méthodes de l'état de l'art. Dans une deuxième partie, nous nous focalisons sur l'optimisation du compromis débit-distorsion pour des maillages possédant l'information de couleur attachée aux sommets. Après avoir proposé deux méthodes de compression pour ce type de maillage, nous présentons une méthode d'optimisation du débit-distorsion qui repose sur l'adaptation de la précision de quantification de la géométrie et de la couleur pour chaque maillage intermédiaire. Cette adaptation peut être effectuée rapidement selon un modèle théorique qui permet d'évaluer le nombre de bits de quantification nécessaire pour chaque maillage intermédiaire. Une métrique est également proposée pour préserver les éléments caractéristiques durant la phase de simplification. Finalement, nous proposons un schéma conjoint de compression progressive et de tatouage. Afin de protéger tous les niveaux de détails, nous insérons le tatouage dans chaque étape du processus d'encodage. Pour cela, à chaque itération de la simplification, nous séparons les sommets du maillage en deux ensembles et nous calculons un histogramme de distribution de normes pour chacun d'entre eux. Ensuite, nous divisons ces histogrammes en plusieurs classes et nous modifions ces histogrammes en décalant les classes pour insérer un bit. Cette technique de tatouage est réversible et permet de restaurer de manière exacte le maillage original en éliminant la déformation induite par l'insertion du tatouage. Nous proposons également une nouvelle méthode de prédiction de la géométrie afin de réduire le surcoût provoqué par l'insertion du tatouage. Les résultats expérimentaux montrent que notre méthode est robuste à diverses attaques géométriques tout en maintenant un bon taux de compression
|
Page generated in 0.1007 seconds