-
شماره ركورد
23267
-
پديد آورنده
چمناز غفارزاده بخشايش
-
عنوان
طبقه بندي احساسات با استفاده از ويژگي هاي تصاوير در مكان توجه بينايي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
مهندسي پزشكي - بيوالكتريك
-
سال تحصيل
1399
-
تاريخ دفاع
1399/8/26
-
استاد راهنما
دكتر دليري
-
دانشكده
برق
-
چكيده
تشخيص صحيح احساسات هر شخص مي¬تواند گامي مهم در شناخت رفتار وي باشد. به دليل پيچيدگي¬هاي شخصيتي انسان، شناخت صحيح احساسات وي كاري دشوار است و ارائه روشي كه با دقت بالا اين احساسات را تشخيص دهد مي¬تواند مفيد باشد. در اين پژوهش، هدف ارائه روش مناسب براي تشخيص احساسات در انسان مي¬باشد. احساسات در انسان را مي¬توان به صورت¬هاي مختلفي طبقه¬بندي كرد. در يكي از مهم¬ترين اين طبقه¬بندي¬ها، احساسات و عواطف انسان را در سه دسته خوشايندي، انگيختگي و تسلط مي¬توان تقسيم¬بندي نمود. تمركز چشم بر روي اطلاعات خاص در محيط اطرافش باعث مي¬شود ذهن اين اطلاعات را تحليل نمايد. لذا در اين پژوهش، طبقه¬¬بندي سه احساس بيان شده از روي داده¬هاي چشمي 21 مرد و 16 زن حين تماشاي 79 تصوير احساسي انجام مي¬گيرد. تصاوير استاندارد نمايش داده شده حاوي صحنه¬هايي از محبت، شادي، خشم، ترس و... كه در برگيرنده سه بعد اساسي احساس است، مي¬باشد. مبناي طبقه ¬بندي مورد نظر نقطه تمركز چشم در حين تماشاي تصاوير است كه توسط دستگاه ردياب چشم ضبط شده است. خوشه¬بندي داده¬ها با روش k ميانگين انجام شده است. در استخراج ويژگي¬هاي تصاوير در مكان تمركز چشم، از الگوريتم تبديل ويژگي مستقل از مقياس SIFT)) و تبديل موجك استفاده شده است. با استفاده از الگوريتم SIFT 128 ويژگي و به روش تبديل موجك 24 ويژگي تصوير به ازاي هر نقطه تمركز چشم بدست آمده است. به ازاي هر كدام از سه پارامتر خوشايندي، انگيختگي و تسلط، داده¬ها يك¬بار طبقه¬¬بندي مي¬شوند. طبقه¬¬بندي در دو طبقه انجام مي¬شود و طبقه -بندهاي ماشين بردار پشتيباني و k-نزديكترين همسايه براي طبقه¬بندي آنها مورد استفاده قرار مي¬گيرد. ميانگين دقت در سه دسته خوشايندي، انگيختگي و تسلط به ترتيب %11/60، %57/69 و %49/71 حاصل گرديد. نتايج بدست آمده گواه بر مطلوبيت روش معرفي شده براي پارامترهاي بيان شده دارد.
-
تاريخ ورود اطلاعات
1399/12/09
-
عنوان به انگليسي
Emotion classification using image features of attended locations
-
تاريخ بهره برداري
11/17/2021 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
چمناز غفارزاده بخشايش
-
چكيده به لاتين
Correctly identifying each person's feelings can be an important step in understanding their behavior. Due to the complexities of human personality, it is very difficult to properly understand his feelings, and providing a method that recognizes these feelings with high accuracy can be very useful. Therefore, in this study, the aim is to provide an appropriate mechanism for recognizing emotions in humans. Emotions in humans can be categorized in different ways. In one of the most important of these categories, human emotions can be divided into three categories: valence, arousal, and dominance. The focus of the human eye on specific information in its environment causes the mind to analyze this information. Therefore, in this study, the classification of three emotions expressed from ocular data of 21 men and 16 women is done while watching 79 different emotional images. The standard images displayed contain scenes of love, joy, anger, fear, etc., which include the three basic dimensions of emotion. The basis of the desired classification is the fixation of the eye while watching images recorded by the eye tracker. Data clustering was performed by K-Means method. The SIFT algorithm and the wavelet transform have been used to extract the image features at the fixation point. Using the Sift algorithm, 128 features and 24 wave feature images per fixation point have been obtained. For each of the three parameters of valence, arousal, and dominance, the data is classified once. Classification is done in two classes and SVM and KNN classifiers are used to classify them. The average accuracy in the three categories of p valence, arousal, and dominance was 60.11, 69.57 and 71.49, respectively. The obtained results prove the desirability of the introduced method for the expressed parameters.
-
كليدواژه هاي فارسي
تشخيص احساسات , خوشايندي , انگيختگي , تسلط , رديابي چشم
-
كليدواژه هاي لاتين
Eye tracking , fixation , valence , arousal , dominance
-
لينک به اين مدرک :