• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 9
  • 9
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

幼児期における表情の理解と意図的な表出

枡田, 恵 26 March 2018 (has links)
付記する学位プログラム名: デザイン学大学院連携プログラム / 京都大学 / 0048 / 新制・課程博士 / 博士(教育学) / 甲第20849号 / 教博第222号 / 新制||教||176(附属図書館) / 京都大学大学院教育学研究科教育科学専攻 / (主査)准教授 野村 理朗, 教授 齊藤 智, 教授 吉川 左紀子, 教授 松原 厚 / 学位規則第4条第1項該当 / Doctor of Philosophy (Education) / Kyoto University / DGAM
2

自閉症兒童臉孔情緒處理之研究

蔡佳津 Unknown Date (has links)
臨床上我們觀察到:自閉症患者在社會互動上有明顯障礙。因此,我們企圖在這個大問題下,以社會互動中最主要的訊息來源—臉部表情為出發點,探討自閉症者所知覺的世界中,他們如何處理臉部表情所展現的情緒訊息及社會意義。 根據文獻回顧,我們知道:臉孔辨識歷程與一般物體辨識歷程不盡相同而有其特性。相較於一般物體,臉孔辨識更需依賴對輪廓構型訊息的有效掌握。因此,本研究企圖回答以下問題:「自閉症患者在辨識他人臉部表情上是否有所缺陷」?如果是的話,(1)「自閉症患者在辨識他人臉部表情上的缺陷係因臉孔辨識的機制上有所缺陷嗎」?還是(2)「自閉症患者在辨識他人臉部表情上的缺陷是因從他人臉部表情讀取情緒訊息上有所困難」?本研究試圖以人臉辨識與表情辨識的差異性,並改良過去研究在方法學上的爭議以回答這兩個問題。 實驗一「人臉辨識」作業以立即比對作業與延宕配對作業,檢驗自閉症組、發展遲緩組、一般兒童組及成人組其在物體與臉孔之倒立效果。研究結果顯示:除了自閉症組外,三組受試者在人臉辨識的作業表現上,都有相當穩定的臉孔倒立效果,自閉症組的臉孔倒立效果顯著地較其它三組小,而在物體辨識上與常人無異,此與「中樞連貫缺陷」假設相符應:自閉症患者在高層次知覺的困難在於他們無法從環境中將訊息加以整合,擅於以局部特徵來理解,並認為這是使他們產生較小的臉孔倒立效果之因。實驗一顯示:自閉症患者的確「在辨識他人臉部表情上有所困難」,卻「並非因其在臉孔辨識的機制上有所缺陷」。 因此,我們第二個研究問題即是:「自閉症患者在辨識他人臉部表情上的缺陷是因從他人臉部表情讀取情緒訊息上有所困難嗎」?因此,實驗二以同一組臉孔刺激材料,以人臉辨識與情緒辨識作業,以探討自閉症組、一般兒童組與發展遲緩組的作業表現。從實驗二所得到的結果也支持這樣的看法。在實驗二的「人臉辨識」作業中,要求受試者對目標人臉進行辨識時,三組受試者所受到的「臉部表情干擾效果」並無顯著差異。但在實驗二的「表情辨識」作業中,當要求受試者對目標情緒進行辨識時便發現:自閉症組在辨識臉部表情上的缺陷,極大部分是發生在辨識不同人的表情變化情境下。而之所以自閉症患者在辨識同一人的表情相同與否表現較佳,依據「中樞連貫缺陷」假設的看法則認為,自閉症患者使用他們擅長以局部特徵瞭解整體的能力克服在他們在處理作業上的困難。此外,實驗二對兩作業表現的比較結果亦支持:大腦對於辨識人臉以及辨識情緒顯示是由不同的系統進行處理。 因此從本研究的兩個實驗,我們可以清楚地回答:自閉症患者在辨識他人臉部表情上的困難確實非因臉孔辨識的機制上有所缺陷而是從他人臉部表情讀取並理解情緒訊息上有所困難,尤其是發生在辨識不同人的表情變化情境下。而之所以自閉症患者在辨識同一人的表情表現較佳,是因為自閉症患者使用其擅長以局部特徵瞭解整體的能力克服在他們在處理作業上的困難。而自閉症患者在這些作業中的種種行為表現,都可以運用「中樞連貫缺陷」假設得到不錯的解釋。
3

Attending to negative affect : the premier expression serves as the source of initial output / ネガティブ感情の最初の反応としてのPremier Expressionに関する検討 / ネガティブ カンジョウ ノ サイショ ノ ハンノウ トシテノ Premier Expression ニカンスル ケントウ

朱 映菡, Yinghan Zhu 22 March 2018 (has links)
本論文は,われわれの感情が表情として表出されるとき, 通常の顕在化した表出に先行して,刺激に対する無意識,かつ"真"の感情を反映すると考えられる"premier expressions"の存在を探ることを目的として行われたものである。本論文では,感情喚起刺激による表情表出過程を,刺激に対しまず現れる反応と,第1反応に続く,誇張や,抑制など様々な心理的調整を反映した第2の反応に分けてとらえている。この最初の反応を"premier expressions"と呼ぶ。この語は本論文提出者の造語である。"premier expressions"の理論的根拠はTomkins(1961)の感情理論の中に見られるが,これまでその存在を実証したものはない。本論文が研究対象としている"premier expressions"はこのTomkins のいう最初に生じる反応,あるいはそれに類似した反応と考えられる。 / This research consists of three experiments aiming to determine the existence of the premier expression and its features. We defined the premier expression as a primitive, reflex-like, automatic facial response to evoked emotion that cannot be modified by one's conscious or unconscious effort because of its initiating timing and speed. However, a facial response develops after the premier expression that corresponds to a generally recognized facial expression, which is easily concealed or modified by display rules or social context. The premier expression is regarded as the first response to induced emotion, and might not even be visible to the naked eye because of its speed and subtlety. This postulation is based on Darwin’s first principle of expression (1872/2009) and Tomkins' (1962) hypothesis that the face is the primary site of affect and has priority over the outer skeletal and inner visceral behaviors (i.e., blood pressure, heart rate, skin conductance) for the expression of emotion, since it is a faster, more precise and visible display. / 博士(心理学) / Doctor of Philosophy in Psychology / 同志社大学 / Doshisha University
4

語言與思維:英文與中文母語者在表情符號使用上的差異 / Does Language Shape Thought? English and Mandarin Speakers’ Usage of Emoticons as Non-Verbal Cues in Communication

陳怡廷, Tan, Yi Ting Unknown Date (has links)
有關表情符號的跨文化分析,現有之研究皆以亞洲國家(例如日本或韓國)和美國做比較。然而此間差異不僅包含文化上的,也包含語言使用上的不同。如此一來,在了解影響人們使用表情符號的因素時,文化背景與語言的因素混雜一體,難以區辨各別影響狀況。本研究試著控制文化的因素,將文化背景具有一定相似性,但官方語言不同的新加坡和台灣做比較。結果顯示新加坡與台灣使用者確實表現出不同的表情符號使用偏好。前者傾向使用橫式表情符號,後者則以使用直式表情符號居多。形式的不同也導致使用者在組合表情符號的眼型與口型時呈現明顯差異。此外,語言背景也會影響一個人對表情符號的認識與解讀能力。本研究發現,此現象在新加坡的受試者身上較為顯著,他們在認識與解讀台灣使用者的常用表情符號時較容易出現障礙。最後,本論文也討論了研究結果的意義以及研究者對於未來研究的建議。 / Existing literature on the cross-cultural use of emoticons often discuss how styles of emoticons vary by comparing countries such as Japan or Korea with the United States. However, these countries differ both in terms of their culture as well as the language used in the country. Thus, there remains a dilemma in distinguishing whether the effects of cultural background or language plays a greater role in determining the style of emoticons a person uses. This research explores this issue by comparing the use of emoticons between users from Singapore and Taiwan. Both countries have similar cultural background but differ in terms of their first language. By focusing on the difference of language and holding cultural background as a constant, results indicated that users from both countries do have a difference in preference for emoticons style. While the former predominantly use horizontal emoticons, the latter prefer vertical emoticons instead. Such difference has also resulted in different representation of the eyes and mouths of emoticons used by Singaporean and Taiwanese users. In addition, it has also been found that language background has an effect on a person’s ability to recognize and interpret emoticons used by natives from the other culture. This situation was more prominent among Singaporean participants as they were found to be less capable in recognizing and interpreting emoticons commonly used by their Taiwanese counterparts. The implications of these findings and recommendations for future research are discussed.
5

幼児期の情動処理における言語情報の有効性:認知的及び神経的メカニズムからの検討

朴, 允姫 23 March 2020 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(文学) / 甲第22175号 / 文博第822号 / 新制||文||686(附属図書館) / 京都大学大学院文学研究科行動文化学専攻 / (主査)教授 蘆田 宏, 准教授 黒島 妃香, 准教授 森口 佑介, 教授 板倉 昭二 / 学位規則第4条第1項該当 / Doctor of Letters / Kyoto University / DFAM
6

表情表出による情動調整の特性に関する実証的検討

野口, 素子 24 September 2014 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(教育学) / 甲第18534号 / 教博第163号 / 新制||教||148(附属図書館) / 31434 / 京都大学大学院教育学研究科教育科学専攻 / (主査)教授 吉川 左紀子, 教授 楠見 孝, 教授 子安 增生 / 学位規則第4条第1項該当 / Doctor of Philosophy (Education) / Kyoto University / DFAM
7

Facial Emotion Processing in Children with Autism Spectrum Disorders / 自閉症児における情動表情処理機構の解明

Isomura, Tomoko 23 March 2015 (has links)
京都大学 / 0048 / 新制・課程博士 / 博士(理学) / 甲第18841号 / 理博第4099号 / 新制||理||1589(附属図書館) / 31792 / 京都大学大学院理学研究科生物科学専攻 / (主査)教授 正高 信男, 准教授 後藤 幸織, 教授 岡本 宗裕 / 学位規則第4条第1項該当 / Doctor of Science / Kyoto University / DGAM
8

親性発達の多様性に関する神経生理学的研究とその知見に基づく社会実装

松永, 倫子 23 March 2022 (has links)
京都大学 / 新制・課程博士 / 博士(教育学) / 甲第23640号 / 教博第268号 / 新制||教||207(附属図書館) / 京都大学大学院教育学研究科教育学環専攻 / (主査)教授 明和 政子, 准教授 明地 洋典, 准教授 野村 理朗 / 学位規則第4条第1項該当 / Doctor of Philosophy (Education) / Kyoto University / DGAM
9

基於方向性邊緣特徵之即時物件偵測與追蹤 / Real-Time Object Detection and Tracking using Directional Edge Maps

王財得, Wang, Tsai-Te Unknown Date (has links)
在電腦視覺的研究之中,有關物件的偵測與追蹤應用在速度及可靠性上的追求一直是相當具有挑戰性的問題,而現階段發展以視覺為基礎互動式的應用,所使用到技術諸如:類神經網路、SVM及貝氏網路等。 本論文中我們持續深入此領域,並提出及發展一個方向性邊緣特徵集(DEM)與修正後的AdaBoost訓練演算法相互結合,期能有效提高物件偵測與識別的速度及準確性,在實際驗證中,我們將之應用於多種角度之人臉偵測,以及臉部表情識別等兩個主要問題之上;在人臉偵測的應用中,我們使用CMU的臉部資料庫並與Viola & Jones方法進行分析比較,在準確率上,我們的方法擁有79% 的recall及90% 的precision,而Viola & ones的方法則分別為81%及77%;在運算速度上,同樣處理512x384的影像,相較於Viola & Jones需時132ms,我們提出的方法則有較佳的82ms。 此外,於表情識別的應用中,我們結合運用Component-based及Action-unit model 兩種方法。前者的優勢在於提供臉部細節特徵的定位及追蹤變化,後者主要功用則為進行情緒表情的分類。我們對於四種不同情緒表情的辨識準確度如下:高興(83.6%)、傷心(72.7%)、驚訝(80%) 、生氣(78.1%)。在實驗中,可以發現生氣及傷心兩種情緒較難區分,而高興與驚訝則較易識別。 / Rapid and robust detection and tracking of objects is a challenging problem in computer vision research. Techniques such as artificial neural networks, support vector machine and Bayesian networks have been developed to enable interactive vision-based applications. In this thesis, we tackle this issue by devising a novel feature descriptor named directional edge maps (DEM). When combined with a modified AdaBoost training algorithm, the proposed descriptor can produce effective results in many object detection and recognition tasks. We have applied the newly developed method to two important object recognition problems, namely, face detection and facial expression recognition. The DEM-based methodology conceived in this thesis is capable of detecting faces of multiple views. To test the efficacy of our face detection mechanism, we have performed a comparative analysis with the Viola and Jones algorithm using Carnegie Mellon University face database. The recall and precision using our approach is 79% and 90%, respectively, compared to 81% and 77% using Viola and Jones algorithm. Our algorithm is also more efficient, requiring only 82 ms (compared to 132 ms by Viola and Jones) for processing a 512x384 image. To achieve robust facial expression recognition, we have combined component-based methods and action-unit model-based approaches. The component-based method is mainly utilized to locate important facial features and track their deformations. Action-unit model-based approach is then employed to carry out expression recognition. The accuracy of classifying different emotion type is as follows: happiness 83.6%, sadness 72.7%, surprise 80%, and anger 78.1%. It turns out that anger and sadness are more difficult to distinguish, whereas happiness and surprise expression have higher recognition rates.

Page generated in 0.0561 seconds