• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Développement d'outils analytiques innovants pour le suivi des populations de Vibrio dans les environnements aquatiques / Development of innovative analytical tools for the monitoring of Vibrio populations in aquatic environments

Silva, Elise Da 08 December 2017 (has links)
Les épisodes de mortalité massive de l’huître creuse Crassostreae gigas observés sur les côtes françaises depuis 2008 ont été associés à certaines espèces appartenant au genre bactérien Vibrio. Ces mortalités, particulièrement intenses et rapides au cœur des lagunes méditerranéennes, atteignent 80 à 100% de la production ostréicole remettant ainsi en cause la pérennité de cette activité. Une surveillance environnementale de ces bactéries apparait donc essentielle et nécessite la mise au point de méthodes d’analyse innovantes, alternatives aux techniques couramment employées, afin de permettre un suivi rapide et en temps réel des Vibrio dans les milieux aquatiques côtiers.Dans ce contexte, l’objectif de cette thèse a été de concevoir des outils analytiques de type génocapteurs pour la détection et la quantification des Vibrio dans les écosystèmes aquatiques. Dans un premier temps, un système basé sur un format d’hybridation « sandwich » reposant sur l’intercalation des acides nucléiques cibles entre une sonde capture immobilisée et une sonde signal marquée, couplé à une détection optique, a été élaboré. Après optimisation des conditions expérimentales, le test développé s’est avéré très sensible avec une limite de détection de 5 ng.µL-1 d’acides nucléiques, ainsi qu’hautement spécifique du genre Vibrio. La méthode a ensuite été appliquée avec succès à la détection des Vibrio dans des échantillons environnementaux, collectés dans la lagune de Salses-Leucate. Un second format d’hybridation, basé sur la compétition entre les acides nucléiques cibles et la sonde capture pour la sonde signal, a ensuite été envisagé en utilisant aussi bien une transduction optique qu’électrochimique. En parallèle, des méthodes de PCR quantitative en temps réel ont été mises au point afin de servir de références pour la validation des génocapteurs. / Mass mortality events affecting the Pacific oyster Crassostreae gigas on French coasts since 2008 have been associated to some Vibrio species. These mortalities, particularly severe and sudden in the mediterranean lagoons, can reach 80 to 100% of the oyster production threatening the sustainability of this activity. An environmental monitoring of these bacteria appears essential and, for this purpose, innovative analytical methods have to be developed as alternative to classical techniques, in order to allow the rapid and in real time monitoring of Vibrio in the coastal aquatic environments. In this context, the objective of the thesis was to design genosensors as analytical tools for Vibrio detection and quantification in aquatic ecosystems. In a first step, a system based on a « sandwich » hybridization format, in which nucleic acid targets were bound between an immobilized capture probe and a labeled signal probe, coupled with an optical detection method, was developed. After experimental condition optimization, the test showed high sensitivity with a limit of detection of 5 ng.µL-1 of nucleic acids and was highly specific to Vibrio spp. The method was then successfully applied to Vibrio detection in environmental samples collected in Salses-Leucate lagoon. A second hybridization format, based on a competition between the targeted nucleic acids and the capture probe for the signal probe has been considered using both optical and electrochemical transductions. Concurrently with the development of genosensors, quantitative real-time PCR have been designed as reference methods.
402

Online fabric inspection by image processing technology / Détection de défauts de tissage en ligne par le traitement d'images

Malek, Abdel Salam 16 May 2012 (has links)
Le présent travail de thèse a pour but d'automatiser la détection des défauts de tissage, à l'aide d'un système informatisé fondé sur le traitement d'image. La structure du tissu, de par sa fabrication, est périodique par répétition de l'armure (dessin d'entrecroisement). L'apparition d'un défaut dans le tissu entraîne la destruction de cette périodicité. de ce fait, le défaut de tissage peut être détecté par la surveillance en continu de la structure du tissu pendant le tissage. Dans notre travail, les techniques de transformée rapide de Fourier et la corrélation croisée sont d'abord mises en œuvre, afin d'examiner les caractéristiques de régularité de la structure de l'image du tissu dans le domaine fréquentiel. Dans un deuxième temps, afin d'améliorer l'efficacité de la technique et d'éviter le problème d'erreur de détection, une opération de seuillage a été implémentée en utilisant un filtre de sélection de niveau. Au moyen de ce filtre, la technique mise en place est capable de détecter uniquement les défauts réels et de mettre en évidence leurs dimensions exactes. L'ensemble de cette procédure a été implémentée au moyen du progiciel Matlab ou Scilab. Puis l'ensemble des procédures a été mis en œuvre sur un tissu simulé, afin de comprendre le comportement du spectre de fréquences, de déterminer et d'optimiser les paramètres de détection les plus importants. Dans toutes ces procédures, le niveau de bruit a bien sûr été pris en compte. L'efficacité des procédures ayant été testée sur des tissus simulés dans un premier temps, elles ont été appliquées aux tissus sortant de machines à tisser. Ainsi, des échantillons contenant divers défauts ainsi que des échantillons écrus, unis ou de diverses couleurs ont pu être testés. Les techniques proposées ont aussi dans ces divers cas montré leur efficacité. En conclusion, un prototype fondé sur un dispositif de vision pour l'inspection des tissus sur métier à tisser en temps réel est proposé. / The purpose of this thesis is to automate the online detection of weaving defects by a computerized system based on image processing software. Obviously, fabric inspection has an importance to prevent risk of delivering inferior quality product. Until recently, the visual defect detection is still under taken offline and manually by humans with many drawbacks such as tiredness, boredom, and, inattentiveness. Fortunately, the continuous development in computer technology introduces the online automated fabric inspection as an effective alternative. Because the defect-free fabric has a periodic regular structure, the occurrence of a defect in the fabric breaks the regular structure. Therefore, the fabric defects can be detected by monitoring fabric structure. In our work, Fast Fourier Transform and Cross-correlation techniques, i.e. linear operations, are first implemented to examine the structure regularity features of the fabric image in the frequency domain. To improve the efficiency of the technique and overcome the problem of detection errors, further thresholding operation is implemented using a level selection filter. Through this filter, the technique is able to detect only the actual or real defects and highlight their exact dimensions. A software package such as Matlab or Scilab is used for this procedure. It is implemented firstly on a simulated plain fabric to determine the most important parameters during the process of defect detection and then to optimize each of them even considering noise. To verify the success of the technique, it is implemented on real plain fabric samples with different colours containing various defects. Finally, a vision-based fabric inspection prototype that could be accomplished on-loom to inspect the fabric under construction with 100% coverage is proposed.
403

Etude et réduction d'ordre de modèles linéraires structurés : application à la dynamique du véhicule / Study and order reduction of linear structured models : application to vehicle dynamics

Guillet, Jérôme 27 October 2011 (has links)
Cette thèse traite de modélisation des systèmes complexes. Dans ce cadre, l'approche est basée sur les Modèles Structurés en Second Ordre (MSSO). Afin d'utiliser cette classe de modèles, les propriétés telles que l'atteignabilité, l'observabilité et les grammiens, bien connues pour les réalisations d'états, sont étendues aux MSSO.Lors de la co-simulation d'un système, des éléments de natures différentes (physiques et logicielles) sont intégrés et la simulation est effectuée en temps réel. Or, les modèles d'ordre élevés sont couteux en temps de calcul, ce qui rend difficile ce type de simulation. Ainsi, des méthodes de réduction de modèle sont explorées. En particulier, de nouvelles méthodes, permettant de préserver la structure des modèles avec une bonne erreur d'approximation sont présentées.Ces développements sont appliqués à la co-simulation de modèles véhicules sous forme de MSSO. Le modèle créé est un modèle par blocs, complexe et non-linéaire. Afin d'appliquer les méthodes de réduction de modèle il est nécessaire de le linéariser. La structure par blocs permet de linéariser l'ensemble du modèle ou de ne linéariser que certaines sous parties du modèle.Ensuite, l'identification des paramètres est effectuée pour chaque sous-systèmes du véhicule. Une méthode d'interconnexion est ensuite proposée pour créer une représentation monobloc du modèle afin de réduire ce dernier. Au final, des essais en co-simulation de la partie arrière du véhicule sous forme de modèle interconnectée avec la partie avant du véhicule physiquement présente sur un banc de test, valide notre approche pour effectuer de la co-simulation temps réel avec matériel.x / This thesis studies the modeling of complex systems. In this framework, the approach is based on Second Order Form Model (SOFM). In order to use this kind of models, properties such as the reachability, the observability, the gramians and the Markov parameters, well known for state-space representation, are extended to the SOFM. During the co-simulation of a system, its physical parts are interconnected to models which simulate the system environement and the simulation is performed in real time. However, the simulation of high order models consumes to much time to be performed in real time. Therefore, model order reduction methods are studied. Particularly, new methods preserving SOFM structure with a good approximation error are presented. These developments are applied to the vehicle dynamic. Hence, a vehicle SOFM model is developed. The created model is a blockwise model where each blocks describes a part of the vehicle. This model is complex and non-linear. In order to apply the model order reduction methods, model linearisation is necessary. The block modeling allows to linearise the full model or allows to linearise some part of the model. Then, the identification of the model parameters is done by vehicle sub-system. In addition, an interconnection method is proposed to build a monobloc model in order to reduce it. Finally, co-simulations of the model vehicle rear part interconnected to the physical front part of the vehicle show the capacity to make co-simulation with the reduced models.
404

Analyse of real-time systems from scheduling perspective / Analyse des systèmes temps réel de point de vue ordonnancement

Chadli, Mounir 21 November 2018 (has links)
Les logiciels sont devenus une partie importante de notre vie quotidienne, car ils sont maintenant utilisés dans de nombreux périphériques hétérogènes, tels que nos téléphones, nos voitures, nos appareils ménagers, etc. Ces périphériques sont parsemés d’un certain nombre de logiciels intégrés, chacun gérant une tâche spécifique. Ces logiciels intégrés sont conçus pour fonctionner à l’intérieur de systèmes plus vastes avec un matériel varié et hétérogène et des ressources limitées. L'utilisation de logiciels embarqués est motivée par la flexibilité et la simplicité que ces logiciels peuvent garantir, ainsi que par la réduction des coûts. Les Cyber-Physical System (CPS) sont des logiciels utilisés pour contrôler des systèmes physiques. Les CPS sont souvent intégrés et s'exécutent en temps réel, ce qui signifie qu'ils doivent réagir aux événements externes. Un CPS complexe peut contenir de nombreux systèmes en temps réel. Le fait que ces systèmes puissent être utilisés dans des domaines critiques tels que la médecine ou les transports exige un haut niveau de sécurité pour ces systèmes. Les systèmes temps réel (RTS), par définition, sont des systèmes informatiques de traitement qui doivent répondre à des entrées générées de manière externe. Ils sont appelés temps réel car leur réponse doit respecter des contraintes de temps strictes. Par conséquent, l'exactitude de ces systèmes ne dépend pas seulement de l'exactitude des résultats de leur traitement, mais également du moment auquel ces résultats sont donnés. Le principal problème lié à l'utilisation de systèmes temps réel est la difficulté de vérifier leurs contraintes de synchronisation. Un moyen de vérifier les contraintes de temps peut consister à utiliser la théorie de la planification, stratégie utilisée pour partager les ressources système entre ses différents composants. Outre les contraintes de temps, il convient de prendre en compte d'autres contraintes, telles que la consommation d'énergie ou la sécurité. Plusieurs méthodes de vérification ont été utilisées au cours des dernières années, mais avec la complexité croissante des logiciels embarqués, ces méthodes atteignent leurs limites. C'est pourquoi les chercheurs se concentrent maintenant sur la recherche de nouvelles méthodes et de nouveaux formalismes capables de vérifier l'exactitude des systèmes les plus complexes. Aujourd'hui, une classe de méthodes de vérification bien utilisées est les techniques basées sur des modèles. Ces techniques décrivent le comportement du système considéré à l'aide de formalismes mathématiques, puis, à l'aide de méthodes appropriées, permettent d'évaluer l'efficacité du système par rapport à un ensemble de propriétés. Dans ce manuscrit, nous nous concentrons sur l'utilisation de techniques basées sur des modèles pour développer de nouvelles techniques de planification afin d'analyser et de valider la satisfiabilité d'un certain nombre de propriétés sur des systèmes temps réel. L'idée principale est d'exploiter la théorie de l'ordonnancement pour proposer ces nouvelles techniques. Pour ce faire, nous proposons un certain nombre de nouveaux modèles afin de vérifier la satisfiabilité d'un certain nombre de propriétés telles que l'ordonnancement, la consommation d'énergie ou la fuite d'informations. / Software’s become an important part of our daily life as they are now used in many heterogeneous devices, such as our phones, our cars, our home appliances … etc. These devices are dotted with a number of embedded software’s, each handling a specific task. These embedded software’s are designed to run inside larger systems with various and heterogeneous hardware and limited resources. The use of embedded software is motivated by the flexibility and the simplicity that these software can guarantee, and to minimize the cost. Cyber-Physical System (CPS) are software used to control physical systems. CPS are often embedded and run in real-time, which means that they must react to external events. A complex CPS can contains many real-time systems. The fact that these systems can be used in critical domains like medicine or transport requires a high level of safety for these systems. Real-Time Systems (RTS) by definition are processing information systems that have to respond to externally generated inputs, and they are called real-time because their response must respect a strict timing constraints. Therefore, the correctness of these systems does not depend only on the correctness of their treatment results, but it also depends on the timings at which these results are given. The main problem with using real-time systems is the difficulty to verify their timing constraints. A way to verify timing constraints can be to use Scheduling theory which is a strategy used in order to share the system resources between its different components. In addition to the timing constraints, other constraints should be taken in consideration, like energy consumption or security. Several verification methods have been used in the last years, but with the increasing complexity of the embedded software these methods reach their limitation. That is why researchers are now focusing their works on finding new methods and formalisms capable of verifying the correctness of the most complex systems. Today, a well-used class of verification methods are model-based techniques. These techniques describe the behavior of the system under consideration using mathematical formalisms, then using appropriate methods they give the possibility to evaluate the correctness of the system with respect to a set of properties. In this manuscript we focus on using model-based techniques to develop new scheduling techniques in order to analyze and validate the satisfiability of a number of properties on real-time systems. The main idea is to exploit scheduling theory to propose these new techniques. To do that, we propose a number of new models in order to verify the satisfiability of a number of properties as schedulability, energy consumption or information leakage.
405

Legible Visualization of Semi-Transparent Objects using Light Transport / Visualisation d'objets semi-transparents basée sur le transport lumineux

Murray, David 10 December 2018 (has links)
Explorer et comprendre des données volumétriques ou surfaciques est un des nombreux enjeux du domaine de l'informatique graphique. L'apparence de telles données peut être modélisée et visualisée en utilisant la théorie du transport lumineux. Afin de rendre une telle visualisation compréhensible, le recours à des matériaux transparents est très répandu. Si des solutions existent pour simuler correctement la propagation de la lumière et ainsi afficher des objets semi-transparents, offrir une visualisation compréhensible reste un sujet de recherche ouvert. Le but de cette thèse est double. Tout d'abord, une analyse approfondie du modèle optique pour le transport de la lumière et ses implications sur la génération d'images par ordinateur doit être effectuée. Ensuite, cette connaissance pourra être utilisée pour proposer des solutions efficaces et fiables pour visualiser des milieux transparents et semi-transparents. Dans ce manuscrit, premièrement, nous présentons le modèle optique communément utilisé pour modéliser le transport de la lumière dans des milieux participatifs, sa simplification si l'on réduit la situation à des surfaces et la manière dont ces modèles sont utilisés en informatique graphique pour générer des images. Deuxièmement, nous présentons une solution pour améliorer la représentation des formes dans le cas particulier des surfaces. La technique proposée utilise le transport lumineux comme base pour modifier le processus d'éclairage et modifier l'apparence et l'opacité des matériaux. Troisièmement, nous nous concentrons sur la problématique de l’utilisation de données volumétriques au lieu du cas simplifié des surfaces. Dans ce cas, le fait de ne modifier que les propriétés du matériau a un impact limité. Nous étudions donc comment le transport lumineux peut être utilisé pour fournir des informations utiles à la compréhension de milieux participatifs. Enfin, nous présentons notre modèle de transport lumineux pour les milieux participatifs, qui vise à explorer une région d'intérêt d’un volume. / Exploring and understanding volumetric or surface data is one of the challenges of Computer Graphics. The appearance of these data can be modeled and visualized using light transport theory. For the sake of understanding such a data visualization, transparent materials are widely used. If solutions exist to correctly simulate the light propagation and display semi-transparent objects, offering a understandable visualization remains an open research topic. The goal of this thesis is twofold. First, an in-depth analysis of the optical model for light transport and its implication on computer generated images is performed. Second, this knowledge can be used to tackle the problematic of providing efficient and reliable solution to visualize transparent and semi-transparent media. In this manuscript, we first introduce the general optical model for light transport in participating media, its simplification to surfaces, and how it is used in computer graphics to generate images. Second, we present a solution to improve shape depiction in the special case of surfaces. The proposed technique uses light transport as a basis to change the lighting process and modify the materials appearance and opacity. Third, we focus on the problematic of using full volumetric data instead of the simplified case of surfaces. In this case, changing only the material properties has a limited impact, thus we study how light transport can be used to provide useful information for participating media. Last, we present our light transport model for participating media that aims at exploring part of interest of a volume.
406

Approche optimisée du diagnostic moléculaire des infections virales : application à la pandémie de grippe A/H1N1 / Optimized approach of molecular diagnosis of viral infections : application to the pandemic influenza H1N1

Ninove, Laetitia 13 January 2011 (has links)
Les techniques de biologie moléculaire ont pris au cours des 20 dernières années une place importante dans le diagnostic direct des pathogènes viraux. Notre travail a porté sur la mise en place et le développement d’une plate-forme de biologie moléculaire, au sein du laboratoire de virologie de l’hôpital de la Timone, pour répondre aux demandes et contraintes du diagnostic en milieu hospitalier. L’organisation de cette plate-forme a nécessité plusieurs étapes : la prévention des risques de contamination, l’aliquotage et le stockage des réactifs, l’automatisation des techniques d’extraction des acides nucléiques, la mise au point de témoins positifs synthétiques et de témoins internes et l’optimisation des protocoles de PCR. Cette approche optimisée du diagnostic moléculaire des infections virales a été appliqué notamment à la détection de la grippe pandémique A/H1N1v dans les laboratoires de routine hospitalière et d’urgence « Point Of Care ». La mise en place de cette plate-forme a fait progresser de manière considérable le diagnostic moléculaire du laboratoire. Elle nous permet actuellement de détecter un grand nombre de pathogènes (>80) et de réaliser des tests dans un format à haut débit (≈40 000 tests/an). Au total, cette plateforme est au coeur de la capacité du laboratoire pour réagir de manière rapide aux évènements d'émergence en mettant en place rapidement des procédures diagnostiques standardisées. Ces techniques ont été transférées à de nombreux autres laboratoires de virologie partenaires nationaux et internationaux. Nous envisageons maintenant son utilisation dans une approche syndromique avec notamment, le développement du diagnostic des virus respiratoires. / Molecular biology techniques have taken an important role in the direct diagnosis of viral pathogens over the last 20 years. Our work focused on establishing and developing a platform for molecular diagnosis in the laboratory of Virology (Timone Hospital) to meet the demands and constraints of diagnosis in hospitals. The organization of this platform required several steps: prevention of contamination risks, aliquoting and storage of reagents, automation techniques of nucleic acid extraction, development of synthetic positive controls and internal controls and optimization of PCR protocols. This optimized approach of the molecular diagnosis of viral infections has particularly been applied to the detection of pandemic influenza A/H1N1v in hospital laboratories for routine and emergency "Point Of Care." The implementation of this platform has significantly improved molecular diagnosis in our laboratory. It currently allows us to detect a large number of pathogens (> 80) and perform tests in a high-throughput (≈ 40,000 tests per year). In total, this platform is at the heart of the laboratory capacity to react quickly to emerging events by rapidly implementing standardized procedures. These techniques have been transferred to many other partners’ laboratories nationally and internationally. We are now considering its use in a syndromic approach including the development of the diagnosis of respiratory viruses.
407

Développement d'architectures innovantes associant capteurs acoustiques et matériaux polymères à empreintes moléculaires pour la détection de biomarqueurs de cancer / Association of a Love wave sensor to molecularly imprinted polymer for real time detection of colorectal cancer biomarkers

Lebal, Naîma 14 December 2015 (has links)
Les chiffres des statistiques du cancer colorectal en France et dans le mondemontrent la nécessité de développement de plateformes technologiques plus rapides,sensibles et spécifiques pour assurer le diagnostic du cancer. Un diagnostic rapide va ainsiaider à améliorer l’état de santé et réduire le temps d’attente des résultats qui peut être ungrand facteur de stress pour les patients. L’analyse des biomarqueurs dans le sang, lesurines et autres fluides corporels est l’une des méthodes appliquées pour la détectionprécoce de la maladie. Dans le cadre de ce projet des nucléosides urinaires ont été identifiéscomme biomarqueurs pour le cancer colorectal. Financée par l’Agence Nationale de laRecherche (ANR), à travers le projet CancerSensor (programme TECSAN), cette thèse s’estdéroulée au sein de l’équipe MDA (Microsystèmes de Détection Acoustique) du laboratoireIMS. Dans le cadre de ce projet, nous avons proposé une solution technologique dedétection et de suivi de biomarqueurs du cancer colorectal. Notre choix de la stratégie dedétection s’est porté sur les polymères à empreintes moléculaires comme élément dereconnaissance des biomarqueurs. Celui-ci sera associé à un transducteur acoustique àondes de Love mis au point lors de travaux précédents au sein de l’équipe MDA. Lebiocapteur ainsi développé va cibler les nucléosides mis en évidence pour le cancercolorectal. / Colorectal cancer statistics in France and all over the world demonstrate theneed for fast, sensitive and specific technological platforms development for cancerdiagnosis. A rapid diagnosis will improve the patients’ health status and reduce the resultswaiting time which could be a great stress factor. Biomarkers analysis in blood, urine andother body fluids is recognized as one of the applied methods for early cancer detection. Inframe of this project, urinary nucleosides have been identified as colorectal cancerbiomarkers. Funded by the National Research Agency (ANR), through the cancer sensorproject (TECSAN program), this thesis was carried out in IMS laboratory. Hence, a colorectalcancer biomarkers detection and monitoring technological solution has been proposed. Inour detection strategy, Molecularly Imprinted Polymers (MIP) has been identified asbiomarker recognition element. The MIP layer has been associated to Love Wave acoustictransducer. This biosensor will sense the identified colorectal cancer nucleosides.
408

Contributions à la Commande Prédictive Non Linéaire pour les Systèmes à Dynamiques Rapides

Murilo, André 02 December 2009 (has links) (PDF)
Cette thèse adresse le problème de la commande prédictive non linéaire (CPNL) appliquée aux systèmes à dynamiques rapides. Pour ces systèmes, le temps de calcul disponible peut s'avérer insuffisant pour la résolution des problèmes d'optimisation fortement non linéaires et contraints. Dans ce contexte, l'approche paramétrique utilisée dans cette thèse peut s'avérer un choix pertinent pour résoudre ce type de problèmes. Deux exemples d'application sont présentés pour souligner les avantages de la méthode paramétrique: le circuit d'air d'un moteur diesel et le système des pendules jumeaux sur un chariot. Une validation expérimentale sur les deux procédés est aussi proposée pour montrer l'efficacité des solutions proposées.
409

Cophasage de télescopes multi-pupilles sur point source : application à l'interféromètre en frange noire Persée

Houairi, Kamel 16 October 2009 (has links) (PDF)
Moins de 20 ans après la découverte de HD114762b, l'exoplanétologie est déjà très riche en découvertes et elle le sera encore très certainement dans les années à venir. L'interférométrie en frange noire, ou nulling, est une des rares méthodes permettant l'observation directe des planètes extrasolaires en s'affranchissant du très fort contraste existant entre la planète et son étoile hôte. Cette méthode exige cependant une égalisation des chemins optiques, ou cophasage, avec une précision nanométrique. Mon manuscrit traite principalement de PERSEE, un banc ayant pour objectif de valider les problématiques de l'interférométrie en frange noire et du cophasage en présence de perturbations réalistes. Ma contribution au dimensionnement de PERSEE a permis de positionner au mieux la pupille et d'optimiser le choix des deux bandes spectrales. Les estimateurs de cophasage s'appuient sur une modulation spatiale codant l'interférogramme sur 4 points. Les algorithmes de démodulation exploitant la quasi-quadrature présentent deux retombées majeures : l'estimation photométrique de chaque bras et le contrôle des dérives internes. En outre, j'ai développé un estimateur de la différence de marche conjuguant grande dynamique et précision basé sur les mesures de la différence de marche dans deux bandes spectrales. Enfin, je présente les performances expérimentales du système de cophasage que j'ai intégré puis mis en œuvre. Les premiers résultats de PERSEE ont montré une précision sur la stabilisation des faisceaux égale à 0.8 nm rms, ce qui a permis d'obtenir une profondeur de l'extinction en lumière monochromatique égale à N=6.2x10−5±6.3x10−6. Ceci démontre ainsi que l'utilisation des 4 sorties d'un interféromètre de Mach-Zehnder modifié, commun au nuller et au système de cophasage, est une solution prometteuse pour les futurs instruments puisqu'elle permet de minimiser les aberrations différentielles entre ces deux systèmes. Enfin, ma contribution à la définition du système de cophasage de GRAVITY, un instrument de seconde génération du Very Large Telescope Interferometer, a permis de choisir la recombinaison interférométrique la plus performante pour le système de cophasage de GRAVITY.
410

Transport Adaptatif et Contrôle de la Qualité des Services Vidéo sur les Réseaux Pair-à-Pair

Mushtaq, Mubashar 12 December 2008 (has links) (PDF)
Actuellement, nous constatons une augmentation de demande de services vidéo sur les réseaux P2P. Ces réseaux jouent un rôle primordial dans la transmission de contenus multimédia à grande échelle pour des clients hétérogènes. Cependant, le déploiement de services vidéo temps réel sur les réseaux P2P a suscité un grand nombre de défis dû à l'hétérogénéité des terminaux et des réseaux d'accès, aux caractéristiques dynamiques des pairs, et aux autres problèmes hérités des protocoles TCP/IP, à savoir les pertes de paquets, les délais de transfert et la variation de la bande passante de bout-en-bout. Dans ce contexte, l'objectif de cette thèse est d'analyser les différents problèmes et de proposer un mécanisme de transport vidéo temps réel avec le provisionnement de la qualité de Service (QoS). Ainsi, nous proposons trois contributions majeures. Premièrement, il s'agit d'un mécanisme de streaming vidéo adaptatif permettant de sélectionner les meilleurs pair émetteurs. Ce mécanisme permet de structurer les pairs dans des réseaux overlay hybrides avec une prise en charge des caractéristiques sémantiques du contenu et des caractéristiques physiques du lien de transport. Nous présentons ensuite un mécanisme d'ordonnancement de paquets vidéo combiné à une commutation de pairs et/ou de flux pour assurer un transport lisse. Finalement, une architecture de collaboration entre les applications P2P et les fournisseurs de services / réseaux est proposée pour supporter un contrôle d'admission de flux.

Page generated in 0.057 seconds