151 |
Positionnement robuste et précis de réseaux dimages.Moulon, Pierre 10 January 2014 (has links) (PDF)
Calculer une représentation 3D d'une scène rigide à partir d'une collection d'images est aujourd'hui possible grâce aux progrès réalisés par les méthodes de stéréo-vision multi-vues, et ce avec un simple appareil photographique. Le principe de reconstruction, découlant de travaux de photogrammétrie, consiste à recouper les informations provenant de plusieurs images, prises de points de vue différents, pour identifier les positions et orientations relatives de chaque cliché. Une fois les positions et orientations de caméras déterminées (calibration externe), la structure de la scène peut être reconstruite. Afin de résoudre le problème de calcul de la structure à partir du mouvement des caméras (Structure-from-Motion), des méthodes séquentielles et globales ont été proposées. Par nature, les méthodes séquentielles ont tendance à accumuler les erreurs. Cela donne lieu le plus souvent à des trajectoires de caméras qui dérivent et, lorsque les photos sont acquises autour d'un objet, à des reconstructions où les boucles ne se referment pas. Au contraire, les méthodes globales considèrent le réseau de caméras dans son ensemble. La configuration de caméras est recherchée et optimisée pour conserver au mieux l'ensemble des contraintes de cyclicité du réseau. Des reconstructions de meilleure qualité peuvent être obtenues, au détriment toutefois du temps de calcul. Cette thèse propose d'analyser des problèmes critiques au cœur de ces méthodes de calibration externe et de fournir des solutions pour améliorer leur performance (précision, robustesse, vitesse) et leur facilité d'utilisation (paramétrisation restreinte). Nous proposons tout d'abord un algorithme de suivi de points rapide et efficace. Nous montrons ensuite que l'utilisation généralisée de l'estimation robuste de modèles paramétriques a contrario permet de libérer l'utilisateur du réglage de seuils de détection, et d'obtenir une chaine de reconstruction qui s'adapte automatiquement aux données. Dans un second temps, nous utilisons ces estimations robustes adaptatives et une formulation du problème qui permet des optimisations convexes pour construire une chaine de calibration globale capable de passer à l'échelle. Nos expériences démontrent que les estimations identifiées a contrario améliorent de manière notable la qualité d'estimation de la position et de l'orientation des clichés, tout en étant automatiques et sans paramètres, et ce même sur des réseaux de caméras complexes. Nous proposons enfin d'améliorer le rendu visuel des reconstructions en proposant une optimisation convexe de la consistance colorée entre images.
|
152 |
Tout est dans le regard : reconnaissance visuelle du comportement humain en vue subjectiveMartinez, Francis 09 July 2013 (has links) (PDF)
Dans ce manuscrit, nous nous intéressons à l'analyse visuelle du comportement humain à partir de l'information du regard. A l'inverse des caméras statiques et externes, nous adoptons un point de vue subjectif, ce qui permet de placer le contexte d'étude au centre de l'être humain et de ses interactions avec l'environnement. Pour atteindre cet objectif, nous avons développé un eye-tracker porté, ainsi que des outils d'analyse associés, en particulier la reconnaissance d'attention dans le cadre d'interactions sociales et la reconnaissance d'activités subjectives. Dans la première partie de cette thèse, nous présentons un eye-tracker binoculaire tête porté à partir duquel nous estimons le regard du sujet. Contrairement à la plupart des systèmes basés sur l'éclairage infrarouge, notre approche fonctionne en éclairage visible. Pour cela, nous nous inspirons des méthodes basées apparence qui, au lieu, d'extraire des caractéristiques géométriques (par exemple, la pupille), exploitent l'image de l'oeil dans sa globalité et elles permettent donc de prendre en compte toutes les caractéristiques de l'oeil. Pour apprendre la relation entre les caractéristiques d'apparence et les coordonnées du point de regard dans l'image de la caméra scène, deux modèles de régression sont comparés : le Support Vector Regression et le Relevance Vector Regression. Nous proposons, ensuite, une nouvelle méthode de reconnaissance d'attention en vue subjective. Le regard subjectif est obtenu à l'aide de notre eye-tracker, tandis que le regard d'autrui est construit à partir de l'estimation de l'orientation de la tête par régression à noyaux multiples localisés. En combinant ces deux types de regard, nous calculons alors des scores d'attention qui permettent d'identifier des motifs attentionnels dyadiques tels que le regard mutuel, mais aussi des motifs d'ordre supérieur émanant de la nature triadique de notre expérience. Notre outil final d'analyse concerne la reconnaissance d'activités basée sur le regard et l'égo-mouvement. Ces mouvements sont quantifiés en fonction de leur direction et de leur amplitude et encodés sous forme de symboles. Des caractéristiques statistiques sont alors extraites via un codage multi-échelle et un partitionnement temporel. Pour la classification et la segmentation d'activités, nous décrivons une approche par apprentissage contextuel en intégrant des scores de prédiction d'un voisinage à longue portée. Une étude détaillée permet également de comprendre quelles caractéristiques jouent un rôle prédominant dans la représentation d'une activité.
|
153 |
Mieux comprendre le sentiment de filiation chez les parents qui accueillent un enfant en vue de l'adopter par le biais du programme québécois Banque-mixtePagé, Geneviève 12 1900 (has links)
Devenir parent en accueillant un enfant en vue de l’adopter en contexte de protection de la jeunesse, dans le cadre du programme Banque-mixte, est une expérience particulière, puisque l’enfant arrive dans la famille sans aucune garantie qu’il pourra être adopté. Également, les parents Banque-mixte, en tant que famille d’accueil, ont l’obligation d’amener l’enfant à des visites avec ses parents d’origine et doivent composer avec la présence d’intervenants dans leur vie privée. À l’aide d’une démarche de théorisation enracinée, la présente étude vise à comprendre comment le parent Banque-mixte développe son sentiment de filiation, c’est-à-dire le sentiment d’être le parent de l’enfant qu’il accueille, alors qu’il n’est ni le parent légal, ni le parent biologique. Des entrevues semi-dirigées ont été réalisées avec 25 parents afin d’aborder des thèmes tels que les motivations sous-jacentes à leur projet parental, l’expérience du processus pour devenir une famille Banque-mixte et la relation avec l’enfant. Les résultats permettent de jeter les bases d’une nouvelle théorie, selon laquelle le sentiment de filiation précède la filiation légale dans ces circonstances. Ainsi, le parent Banque-mixte ne devient pas un parent au moment du jugement d’adoption; il le devient bien avant, à partir du moment où il atteint un point de non-retour, c’est-à-dire où il constate de manière rationnelle ou émotionnelle que cet enfant est le sien. En l’absence d’un lien de sang et d’un lien légal, le parent Banque-mixte construit son sentiment de filiation sur la base de son profond désir d’enfant et de trois piliers qui lui permettent de justifier son sentiment d’être le parent, soit l’exercice du rôle parental, la construction d’une relation significative avec l’enfant, ainsi que la reconnaissance par autrui de son rôle de parent. Lorsque le parent Banque-mixte n’est pas confronté à l’incertitude de voir l’enfant retourner dans son milieu d’origine, il doit patienter en attendant la concrétisation de l’adoption, mais l’absence de filiation légale ne remet pas en question son sentiment d’être le parent. Par contre, le fait de se sentir le parent avant de le devenir légalement peut générer des tensions dans l’expérience du parent Banque-mixte, puisque le statut de famille d’accueil est en dissonance avec le sentiment de filiation. Afin de minimiser les effets indésirables de l’incertitude, les intervenants de l’adoption et de l’enfant développent différentes stratégies pour rassurer et protéger les parents Banque-mixte, en plus de minimiser l’inquiétude quant à la probabilité du retour de l’enfant dans son milieu familial d’origine. Finalement, guidés par leur besoin de vivre leur filiation de manière exclusive, les parents Banque-mixte font l’effort de mettre à distance les parents d’origine, tout en conservant une certaine ouverture uniquement dans le but de permettre à l’enfant d’intégrer sainement ses origines. En conclusion, les retombées pour l’avancement des connaissances, l’amélioration des pratiques et l’élaboration de nouvelles législations sont discutées. / Becoming a foster-to-adopt parent through the mixed-bank program is a particular experience because the child joins the family with no guarantee that an adoption will take place. In addition, mixed-bank parents, as foster parents, are obligated to take the child to visitations with his or her biological parents and have to deal with the presence of social workers who intervene in their private lives. Using a grounded theory approach, this study aims to understand how foster-to-adopt parents develop a sense of parentage, i.e. the sense of being the child’s parent, in a situation when they are neither the legal guardian nor the biological parent. Semi-structured interviews were conducted with 25 parents in order to explore subjects such as the underlying motivations for their parental project, their experience of the process of becoming a mixed-bank family and their relationship with the child. The results can be used to lay the groundwork for a new theory according to which the sense of parentage appears before legal parentage is declared in such circumstances. Thus, the foster-to-adopt parent does not become a parent when the adoption decree comes into effect; he or she becomes a parent well before that moment, starting at the point of no-return, or, the moment when an individual realizes that the child is theirs through reasoning or as the result of an emotional response. In the absence of a blood or legal relationship, the foster-to-adopt parent builds his or her sense of parentage on the basis of a profound desire to have a child as well as on three pillars that allow him or her to justify the feeling of being the child’s parent: occupying the parental role, building a significant relationship with the child and being recognized as the parent by others. When a foster-to-adopt parent does not have to face the uncertainty that the child might be returned to his biological environment, he or she must patiently wait for the adoption to be finalized but the absence of legal parentage does not challenge his or her sense of being the child’s parent. However, feeling like a child’s parent before legally being recognized as such can create tensions for foster-to-adopt parents since the foster family status clashes with their sense of parentage. In order to minimize the unwanted effects of uncertainty, adoption and child social workers develop different strategies to reassure and protect mixed-bank parents as well as minimize the anxiety caused by the possibility that the child might be returned to his or her biological family environment. Lastly, guided by their need to have an exclusive kinship, foster-to-adopt parents try to distance biological parents while maintaining a certain degree of openness for the sole purpose of allowing the child to accept his or her origins in a healthy manner. In conclusion, the implications of this study on the advancement of knowledge, the improvement of practices and the drafting of new legislation will be discussed.
|
154 |
Le cinéma d'animation : avènement d'une institution et naissance d'une industrieNoujeim, Dominique 04 1900 (has links)
Les premiers comptes rendus de l’histoire du cinéma ont souvent considéré les premiers dessins animés, ou vues de dessins animés, comme des productions différentes des films en prise de vue réelle. Les dessins animés tirent en effet leurs sources d’inspiration d’une gamme relativement différente d’influences, dont les plus importantes sont la lanterne magique, les jouets optiques, la féérie, les récits en images et les comics. Le dessin animé n’en demeure pas moins fondamentalement cinématographique. Les vues de dessins animés de la décennie 1900 ne se distinguent ainsi guère des scènes à trucs sur le plan de la technique et du style. D’abord le fait de pionniers issus de l’illustration comique et du croquis vivant comme Émile Cohl, James Stuart Blackton et Winsor McCay, le dessin animé s’industrialise au cours de la décennie 1910 sous l’impulsion de créateurs venant du monde des comics, dont John Randolph Bray, Earl Hurd, Paul Terry et Max Fleisher. Le processus d’institutionnalisation par lequel le dessin animé en viendra à être considéré comme une catégorie de film à part entière dépend en grande partie de cette industrialisation. Les studios de dessins animés développent des techniques et pratiques managériales spécifiquement dédiées à la production à grande échelle de films d’animation. Le dessin animé se crée ainsi sa propre niche au sein d’une industrie cinématographique dont il dépend toutefois toujours entièrement. Ce phénomène d’individuation repose sur des formules narratives et des personnages récurrents conçus à partir de modèles issus des comics des années 1910. / This dissertation focuses on the institutionalization and industrialization of drawn animation. Animated cartoons are usually seen as being quite different from live action films. They were modelled on traditions found in the realm of magic lantern, opitcal toys, phantasmagoria and comics. Yet, cartoons were fundamentally filmic by nature. Technically and aesthetically, animated films were considered as a category of trick films. In the 1910s, after the pioneering work of Emile Cohl, James Stuart Blackton and Winsor McCay, who were also famous for their work as cartoonists and lightning sketch artists, the nascent industry of animated cartoons recruited talent from the comic strip and the illustration industries, including John Randolph Bray, Earl Hurd, Paul Terry and, later, Max Fleischer. The institutionalization of animated cartoons — that is, the process through which cartoons gained enough visibility so they could be legitimately considered a new category of films — is the result of their industrialization. Animated cartoons studios developed techniques and work management practices that were specific to their needs. While largely dependent on the moving picture industry, animated cartoons created their own niche. This phenomenon of individuation relied heavily on narrative formulas and recurring characters modelled after famous comics of the 1910s.
|
155 |
Les mondes du Lindy Hop : appropriation culturelle et politiques de la joieSékiné, Anaïs Leï 05 1900 (has links)
No description available.
|
156 |
Les nouvelles méthodes de navigation durant le Moyen Age / New navigational Methods during the Middle AgesCom'Nougue, Michel 29 November 2012 (has links)
Les nouvelles méthodes de navigation durant le Moyen Age. Le navire de commerce à voile est propulsé par le vent et doit donc suivre cette direction générale. La navigation peut se définir selon un aspect d’abord stratégique comme le choix d’une route en tenant compte des contraintes imposées par le vent et un aspect tactique concernant le tracé et le contrôle, en cours d’exécution de cette route. 1-Dans un premier temps, la navigation antique ne se réfère qu’au seul vent qui est le moteur mais aussi le guide du navigateur pour suivre la route fixée par l’observation des traces qu’il imprime sur la mer. C’est la navigation à vue. La limite de la méthode est atteinte quand le vent devient changeant au large, ce qui oblige alors une vérification de la direction par l’observation des astres. 2- L’apparition de l’aiguille aimantée résout en partie ce problème. L’orientation géographique entraine la mise au point, à la fin du XIIIe siècle, d’une nouvelle méthode : l’estime. L’estime est la résolution graphique des problèmes que pose le contrôle de la route choisie. Cette résolution suppose, d’une part, l’usage de la boussole et d’une orientation géographique et, d’autre part, une analyse vectorielle sur un support la carte marine qui est donc indissociable de la méthode. Le plus gros défaut de l’estime est que les positions sont définies par projection dans le futur de paramètres, cap et distances parcourues actuels. Des différences sont donc à prévoir qui entrainent une zone d’incertitude sur le point estimé. 3- Lorsqu’au début du XVe siècle les navigateurs se lancent dans l’inconnu, obligés de suivre le vent qui décrit des boucles, les voyages s’allongent sans voir la terre pour une confrontation avec des positions avérées. La taille des zones d’incertitude obligent le navigateur a préciser sa position finale par d’autres méthodes basées sur des observations astronomiques. On peut distinguer deux méthodes : Tout d’abord, la méthode des hauteurs de polaire, de 1433 à 1480 environ, qui permet de finaliser la volta et d’effectuer un atterrissage selon une route Est-Ouest. L’analyse de la technique nautique de Colomb, qui utilise cette méthode, est très semblable à celle décrite par Ibn Majid dans son traité de navigation. Il est probable qu’il y a eu transmission sans pouvoir préciser les circonstances exactes.Mais dès que les navigateurs franchissent l’équateur la polaire devient indisponible, les navigateurs doivent observer le soleil. Cette deuxième méthode est plus délicate car les paramètres du soleil changent chaque jour. Ils obligent donc le navigateur à calculer la latitude, à partir de l’observation de la méridienne de soleil et par l’usage de tables des données solaire : os regimentos do sol. C’est cette méthode qui permet à Vasco da Gama de doubler le cap de Bonne Esperance, en 1498, ce qui marque la fin de la période étudiée. Pour conclure il faut remarquer que ces deux derniers méthodes sont le fruit d’une coopération entre les usagers et les scientifiques sous l’égide du pouvoir, décidé à atteindre le but fixé. C’est donc le fruit d’une véritable recherche scientifique. En second lieu, il faut également noter que les progrès de la navigation accompagnent des progrès parallèles en architecture navale, le gouvernail d’étambot, ainsi que de nouvelles procédures dans le commerce maritime. L’étude des interactions entre ces divers domaines reste à faire. / New navigational methods during the Middle Ages.A sailing vessel is pushed forwards by the wind in the general direction towards it is blowing. Navigation should comply with strategic goals: i.e. the choice of a route to a port of destination, taking into account this wind constraint. A tactical aspect is involved when following this route and checking, the entire voyage long, the good guidance of the ship. 1-In the first ages of navigation, the mariner is referring to the sole element at his disposal: the wind. It gives him elements for the direction to choose, if it is a convenient time for sailing and also it supplies the means of checking and controlling the course of the ship, by observation of the marks it is printing on the surface of the sea. Variable wind is the limit of this method. In this case, only sky observation can give an indication of the direction to follow.2- The finding of the magnetic needle solves this problem and from this new tool, a new navigation method is implemented, around the end of the XIII.th century. Dead reckoning is a way to determinate ship’s position at any moment, using a vector analysis for solving graphically the problems that checking the chosen course can induce. This graphical method is using the compass indications and needs necessarily using a marine chart. The main problem of dead reckoning is that, using present data to reckon future positions , any error in assessing these data supposes an uncertainty in this position. Correction of the route is necessary by verifying with actual land falls. Longer the voyage without such confrontation and bigger the uncertainty zone to be faced.3-In the beginning of the XV.th century, Portuguese mariners started to run the open ocean. They had to follow the wind which runs along a long loop across the ocean, la volta. Therefore running in the open seas, without any land to be seen, in order to check the actual position, obliged mariners to elaborate new methods based on astronomical observations in order to reduce the size of this uncertainty zone, when arriving to the landing point. A first method is based on the observation of the pole star depth; between the years 1433 to 1480. It is based on observation of the pole star depth. Analysis of C. Columbus nautical art shows similarities with the written work of Ibn Majid, his contemporaneous Arab nautical expert. Crossing the equator line made the polar star not available any more. Therefore, the method had to be changed and the second method involved sun observations. This is more complex as the sun data are changing every day. Therefore mariners had to reckon the latitude, using the observations of the meridian line and using of sun data tables: the so called regimentos do sol. Through this method Vasco da Gama was able to reach the Indian Ocean after passing the Cape of Good Hope. This closes the period of this study.The conclusion should take into account the fact that these astronomical methods were not entirely empiric but the result of a joint research of users, mariners and scientists. This endeavor was made possible because a central power, the Infant first , then King Joao II, were willing to proceed more south and gave their mariners the technical means to do so.A second conclusion observes that progress of navigation were accompanied by parallels progresses in naval construction and maritime new contracts and ways of handling commercial matters. There are surely interactions between these three domains, but we have still to put them into evidence.
|
157 |
Reconstruction de scène dynamique à partir de plusieurs vidéos mono- et multi-scopiques par hybridation de méthodes « silhouettes » et « multi-stéréovision » / 3D scene reconstruction by silhouette and multi-baseline stereovisionIsmael, Muhannad 12 July 2016 (has links)
La reconstruction précise d’une scène 3D à partir de plusieurs caméras offre un contenu synthétique 3D à destination de nombreuses applications telles que le divertissement, la télévision et la production cinématographique. Cette thèse propose une nouvelle approche pour la reconstruction 3D multi-vues basée sur l’enveloppe visuelle et la stéréovision multi-oculaire. Cette approche nécessite en entrée l’enveloppe visuelle et plusieurs jeux d’images rectifiées issues de différentes unités multiscopiques constituées chacune de plusieurs caméras alignées et équidistantes. Nos contributions se situent à différents niveaux. Le premier est notre méthode de stéréovision multi-oculaire qui est fondée sur un nouvel échantillonnage de l’espace scénique et fournit une carte de matérialité exprimant la probabilité pour chaque point d’échantillonnage 3D d’appartenir à la surface visible par l’unité multiscopique. Le second est l’hybridation de cette méthode avec les informations issues de l’enveloppe visuelle et le troisième est la chaîne de reconstruction basée sur la fusion des différentes enveloppes creusées tout en gérant les informations contradictoires qui peuvent exister. Les résultats confirment : i) l’efficacité de l’utilisation de la carte de matérialité pour traiter les problèmes qui se produisent souvent dans la stéréovision, en particulier pour les régions partiellementoccultées ; ii) l’avantage de la fusion des méthodes de l’enveloppe visuelle et de la stéréovision multi-oculaire pour générer un modèle 3D précis de la scène. / Accurate reconstruction of a 3D scene from multiple cameras offers 3D synthetic content tobe used in many applications such as entertainment, TV, and cinema production. This thesisis placed in the context of the RECOVER3D collaborative project, which aims is to provideefficient and quality innovative solutions to 3D acquisition of actors. The RECOVER3Dacquisition system is composed of several tens of synchronized cameras scattered aroundthe observed scene within a chromakey studio in order to build the visual hull, with severalgroups laid as multiscopic units dedicated to multi-baseline stereovision. A multiscopic unitis defined as a set of aligned and evenly distributed cameras. This thesis proposes a novelframework for multi-view 3D reconstruction relying on both multi-baseline stereovision andvisual hull. This method’s inputs are a visual hull and several sets of multi-baseline views.For each such view set, a multi-baseline stereovision method yields a surface which is usedto carve the visual hull. Carved visual hulls from different view sets are then fused iterativelyto deliver the intended 3D model. Furthermore, we propose a framework for multi-baselinestereo-vision which provides upon the Disparity Space (DS), a materiality map expressingthe probability for 3D sample points to lie on a visible surface. The results confirm i) theefficient of using the materiality map to deal with commonly occurring problems in multibaselinestereovision in particular for semi or partially occluded regions, ii) the benefit ofmerging visual hull and multi-baseline stereovision methods to produce 3D objects modelswith high precision.
|
158 |
Méthodologie d'estimation des métriques de test appliquée à une nouvelle technique de BIST de convertisseur SIGMA / DELTA / Methodology for test metrics estimation built-in design flow of hard-to-simulate analog/mixed-signal circuitsDubois, Matthieu 23 June 2011 (has links)
L'expansion du marché des semi-conducteurs dans tous les secteurs d'activité résulte de la capacité de créer de nouvelles applications grâce à l'intégration de plus en plus de fonctionnalités sur une surface de plus en plus faible. Pour chaque entreprise, la compétitivité dépend du coût de fabrication mais aussi de la fiabilité du produit. Ainsi, la phase de test d'un circuit intégré, et plus particulièrement des circuits analogiques et mixtes, est le facteur prédominant dans les choix d'un compromis entre ces deux critères antagonistes, car son coût est désormais proche du coût de production. Cette tendance contraint les acteurs du marché à mettre en place de nouvelles solutions moins onéreuses. Parmi les recherches dans ce domaine, la conception en vue du test (DfT) consiste à intégrer pendant le développement de la puce, une circuiterie additionnelle susceptible d'en faciliter le test, voire d'effectuer un auto-test (BIST). Mais la sélection d'une de ces techniques nécessite une évaluation de leur capacité de différencier les circuits fonctionnels des circuits défaillants. Ces travaux de recherche introduisent une méthodologie d'estimation de la qualité d'une DfT ou d'un BIST dans le flot de conception de circuits analogiques et mixtes. Basée sur la génération d'un large échantillon prenant en compte l'impact des variations d'un procédé technologique sur les performances et les mesures de test du circuit, cette méthodologie calcule les métriques de test exprimant la capacité de chaque technique de détecter les circuits défaillants sans rejeter des circuits fonctionnels et d'accepter les circuits fonctionnels en rejetant les circuits défaillant. Ensuite, le fonctionnement d'un auto-test numérique adapté aux convertisseurs sigma-delta est présenté ainsi qu'une nouvelle méthode de génération et d'injection du stimulus de test. La qualité de ces techniques d'auto-test est démontrée en utilisant la méthodologie d'estimation des métriques de test. Enfin, un démonstrateur développé sur un circuit programmable démontre la possibilité d'employer une technique d'auto-test dans un système de calibrage intégré. / The pervasiveness of the semiconductor industry in an increasing range of applications that span human activity stems from our ability to integrate more and more functionalities onto a small silicon area. The competitiveness in this industry, apart from product originality, is mainly defined by the manufacturing cost, as well as the product reliability. Therefore, finding a trade-off between these two often contradictory objectives is a major concern and calls for efficient test solutions. The focus nowadays is mainly on Analog and Mixed-Signal (AMS) circuits since the associated testing cost can amount up to 70% of the overall manufacturing cost despite that AMS circuits typically occupy no more than 20% of the die area. To this end, there are intensified efforts by the industry to develop more economical test solutions without sacrificing product quality. Design-for-Test (DfT) is a promising alternative to the standard test techniques. It consists of integrating during the development phase of the chip extra on-chip circuitry aiming to facilitate testing or even enable a built-in self-test (BIST). However, the adoption of a DFT technique requires a prior evaluation of its capability to distinguish the functional circuits from the defective ones. In this thesis, we present a novel methodology for estimating the quality of a DfT technique that is readily incorporated in the design flow of AMS circuits. Based on the generation of a large synthetic sample of circuits that takes into account the impact of the process ariations on the performances and test measurements, this methodology computes test metrics that determine whether the DFT technique is capable of rejecting defective devices while passing functional devices. In addition, the thesis proposes a novel, purely digital BIST technique for Sigma-Delta analog-to-digital converters. The efficiency of the test metrics evaluation methodology is demonstrated on this novel BIST technique. Finally, a hardware prototype developed on an FPGA shows the possibility of adapting the BIST technique within a calibration system.
|
159 |
Bourdieu face à la littérature / Bourdieu and LiteratureYoucef, Fatima 01 April 2010 (has links)
Dans Les Règles de l'art, Bourdieu propose une science des œuvres. A l'aide des concepts de champ, d'habitus, d’espace des possibles, il tente de faire le lien entre la littéraire et le social. Son approche récuse toute tentation psychologisante et ferme la porte à toute explication du processus créatif en termes de génie, de sensibilité ou d’inspiration. La littérature est d’abord au carrefour des faits sociaux. Les textes sont des faits sociaux, comme apparition mais aussi comme expression. Ils ne sont ni à sacraliser ni à désacraliser. Bourdieu tente de rendre intelligible l’espace littéraire des auteurs. Il veut mettre en lumière ce qui rend l’œuvre d’art nécessaire, c’est-à-dire sa formule informatrice, son principe générateur, sa raison d’être. Il affirme qu'au fond l'écrivain, quelle que soit son orientation, n'a pas d'autres choix que d'être traversé par la sociologie de son époque. Il suggère même que tout effort de distanciation formelle, supposant que l'œuvre soit un ailleurs du réel, est signe de cette connaissance intuitive du réel lui-même. L’Education Sentimentale de Flaubert se prête particulièrement bien à ce paradigme analytique. En s’arrêtant sur la deuxième moitié du XIXe siècle, Bourdieu décrit la genèse et le processus d’autonomisation de l’espace littéraire qui entérine le fonctionnement du champ. Il essaie alors de montrer comment les règles sont articulées par/dans une configuration sociale, politique, économique, culturelle et quelle place nouvelle occupe, dans cette modernité, l'artiste. / I have used Pierre Bourdieu’s sociological approach as a critical tool for the study of literary texts. As a sociologist, Bourdieu is not satisfied with the notion that the literary text would be isolated from the world and considers the writer as a product of economic, social, religious or political circumstances that may be recovered through analysis. According to Bourdieu, the development of literature as an independent field goes hand in hand with the expansion of a liberal politics, a connection critics refuse to recognize as they will believe in the myth of inspired creation. Bourdieu retraces to the nineteenth century the moment when literature became independent and describes how twentieth-century literature is but a perpetuation of nineteenth-century literary myths. I also look at the ways the specialists of Flaubert responded to the publication of Les Règles de l’art as the book provoked heated debates when it was issued. I have especially examined the arguments of critics hostile to Bourdieu in order to demonstrate how such an emblematic figure as Flaubert embodies what is at stake when one questions the notion of literature. How can Bourdieu fit in literary studies? One has to be careful interpreting the title of Bourdieu’s book. Les Règles de l’art is no prescriptive book : Bourdieu is not the one who sets the rule nor does he suggest that there were no rules before the advent of the modern age. He is simply trying to show how, from the start of this period, the literary world is determined by specific social, political, economic and cultural conditions and questions the particular role played by the artist in this new state of things.
|
160 |
Tensiones entre las narrativas de ficción y no ficción en la cinematografía contemporanea de Argentina, Chile y Colombia / Des tensions entre les narrations de fiction et de non-fiction dans la cinématographie contemporaine de l'Argentine, du Chili et de la Colombie / Tensions between Fiction and Nonfiction Narratives in Argentine, Chilean and Colombian Contemporary CinemaLópez, Ana Maria 04 June 2014 (has links)
Le cinéma de l'Argentine, le Chili et la Colombie entre 1990 et 2005 a dû faire face à divers changements liés aux modèles politique, économique et culturel. En particulier, les lois relatives à la production du cinéma ont changées dans les années ci-dessous, ce qui a permet de configurer un cinéma hétérogène par rapport aux thèmes et moyens de raconter. Dans cette thèse, nous nous proposons d’étudier un phénomène particulier situé temporellement dans un moment de transition et envisagé à travers un corpus clairement sélectionné. Le dit phénomène se présente à travers la relation que le cinéma entretient avec la réalité, relation qui, à cette époque, se caractérise par une grande ambigüité. Il s’agit principalement d’un élargissement des frontières de classifications des productions en vertu de sa relation avec la réalité qui, traditionnellement fut séparée en deux grands groupes définis comme fiction et non fiction. Pour cette raison, nous avons développés un cadre théorique autour du réalisme comme une catégorie d'analyse du corpus. Aussi, nous avons fait une analyse basée sur les approches des Études Culturelles d'Amérique Latine, l’Analyse Critique du Discours et l'Analyse de Cinéma. Notre travail a été de systématiser et de mettre en relation les processus qui ont permis la consolidation du cinéma contemporain d'Amérique Latine. Également, nous avons confirmés le besoin de contextualiser et de nourrir l'analyse de film avec la connaissance de l'histoire sociale, politique et économique comme une condition pour 'interpréter et analyser le récit de l'Amérique Latine. / Argentine, Chilean and Colombian Cinema of the period between1990-2005 had to face several changes related to political, economic and cultural models. In particular, laws related to film production changed over the years, allowing the configuration of a heterogeneous cinematography regarding its topics and ways of narrating. The main problem of this research is studying the relationship between cinema and reality and how the strategies of construction of fiction and nonfiction narratives are put into tension during the period above mentioned. For this reason, we developed a theoretical framework around the realism as a category to get an approach to the corpus. Additionally, we carried out an analysis of our corpus based on the Latin American Cultural Studies, Critical Discourse Analysis and Film Analysis approaches. We systematized and correlated the processes that have allowed contemporary Latin American films to consolidate as a reference. In this project, we have been able to confirm the need to contextualize and nourish film analysis using knowledge of the social, political and economic history as a condition to interpret and study Latin American Narratives.
|
Page generated in 0.0173 seconds