:یک موتور بازسازی مبتنی بر ویژگیSABRE

ارسال شده توسط بهاره تقوی | 18 Jan, 2018

درس: موتورهای جستجو و وب کاوی

 

 :یک موتور بازسازی مبتنی بر ویژگیSABRE

 

چکیده

بازیابی اطلاعات مربوطه در طول فرایند تصمیم‌گیری، از مفهوم سنتی ارتباط الزامی‌تر است . این وظیفه نیازمند  منابع اطلاعاتی قابل اطمینان است که می تواند نقطه نظر کاربر در مورد یک موجودیت یا هدف را تحت تاثیر قرار دهد. ما  SABER را پیشنهاد میدهیم که  یک موتور بازیابی مبتنی بر ابعاد احساسی است و  توانایی حل این روند را از طریق بازیابی نظرات در مورد یک موجودیت در دو سطح مختلف جزئی دارد که ما آن را ویژگی  و زیر ویژگی نامیدیم. بازیابی نظرات جزئی هم جنبه ی طبقه بندی احساسی بخش بندی های متن و هم جنبه ی فیلتر کردن در حین اکتشاف ناوبری اسناد بازیابی شده را امکان می‌دهد . ارزیابی اولیه بر روی یک مجموعه داده ایجاد شده ی دستی توانایی روش پیشنهادی را در شناسایی بهتر ویژگی، زیر ویژگی با رجوع به یک عبارت پایه تکراری نشان می‌دهد .

 

معرفی

به دنبال عقاید، احساسات و تجربیات دیگران رفتن یکی از اولین اقداماتی است که ما معمولا هنگام مواجه با یک پروسه‌ی تصمیم گیری انجام می‌دهیم . این (فرایند انتخاب) میتواند ( مربوط به ) انتخابات بعدی ریاست جمهوری، رزرو یک اتاق برای تعطیلات بعدی یا فقط خرید یک محصول جدید باشد. بدون توجه به وظیفه ، ما شروع به ساختن دیدگاه خودمان در مورد موضوعی می‌کنیم که اطلاعات موجود و نظرات را از تجربه ی دیگران بدست می‌آورد. در این زمینه، مفهوم "ارتباط" چیزی بیش از نیاز به اطلاعات است ، مانند یک وظیفه بازیابی استاندارد.  در واقع، اطلاعات ارزشمند و مرتبط نیز باید یک دیدگاه ذهنی از یک موضوع یا موجودیت را در برداشته باشد. بازیابی نظریه (OR) به این فرآیند کمک می‌کند، چون بیشتر از ارتباطات موضوعی سیستمهای بازیابی اطلاعات (IR)، این مسئله مستلزم اسناد قاطعانه است.

ویژگی ها نقش مهمی در تحلیل احساسات و نظرکاوی دارند. در حالی که احساسات عمومی یا ابراز عقیده در خصوص  یک موجودیت برای درک "دیدگاه کلی" در مورد  موضوع مورد نظر مهم است و میتواند در طول تحقیقات اولیه در مورد موضوع مورد علاقه کمک کند، به صورت عمیق تری در فرایند تصمیم گیری ، کاربران بیشتر علاقه‌مند به ابعاد خاصی از موضوع مورد علاقه ی خود هستند. نمونه های قدیمی ان   نظرات ( مصرف کنندگان ) در مورد محصولات هستند، جایی که معمولا کاربر دارای یک "بُعد مورد علاقه" خاص است که منجر به موافقت یا عدم موافقت تصمیم نهایی میشود . به عنوان مثال، در جستجوی یک هتل، ممکن است کسی به مکان (هتل) بیشتر علاقه مند باشد( یعنی مکان هتل برای او اهمیت داشته باشد) در حالی‌که دیگران به ارزش پول توجه بیشتری  کنند. اینها به عنوان ابعاد مختلف یک موجودیت واحد در نظر گرفته می‌شوند(برای مثال هتل  موردنظر). با این حال، استخراج و سازماندهی ابعاد از  منابع معتبر، همیشه با علایق و ترجیحات کاربر مطابقت ندارد. معمولا تخصیص ابعاد محتوای متن را  نشان  نمی‌دهد ( یا بازتاب نمی‌دهد ) ، اما ترجیحا یک لیست دستی از نقاط مورد علاقه  حوزه مورد نظر را دنبال می‌کند. شکل 1 لیست های مختلفی از چهار سرویس مشهور رزرو آنلاین را نشان می دهد. لیست ها از یکدیگر متفاوت هستند، گرچه تعدادی  همپوشانی هم وجود دارد،  این مسئله نشان می‌دهد که یک روش منحصر به فرد برای سازماندهی جنبه های مورد علاقه برای یک دامنه مشخص وجود ندارد.

به طور کلی، تمام نوشته ها جنبه های گسترده ای را پوشش میدهند، اما هیچ راهی برای بازبینی چنین لیستی وجود ندارد.

  به عنوان مثال، شکل 1a، c، d همه در مورد "راحتی" گزارش می‌دهند. در دو مورد (booking.com و hotel.com) این جنبه می‌تواند به راحتی اتاق یا هتل اشاره کند. هنگامی که به اتاق  اشاره می‌شود، ممکن است جنبه ی آسایش  به: راحتی تخت / بالش،  بزرگی اتاق،  برخورداری ازامکانات ویژه (مانند جکوزی) یا مبلمان جدید و غیره برگردد.. علاوه بر این، از آنجایی که نمره دهی  این ابعاد  مستقل از بررسی ها  داده می‌شوند، این ابعاد  ممکن است در متن معتبر ظاهر نشوند.

 در این فصل SABER که یک موتور بازیابی مبتنی بر ابعاد احساسی است توصیف می‌شود که ابعاد محاسباتی در هر دو فرایند طبقه بندی احساسات یک متن داده شده و هدایت اسناد بازیابی شده (بخش 2) را در نظر می‌گیرد. وظیفه اصلی ما در الگوریتم استخراج ابعاد است که متن را به شیوه ای بدون بازنگری برای شناسایی جملات و مفاهیم حقیقی آن پردازش می‌کند. معیارها در یک سلسله مراتب دو سطحی سازماندهی شده اند تا سطوح مختلف جزئیات دقیق جستجو را در مورد نظرات مورد علاقه ایجاد کنند. فرایند استخراج و ضریب گذاری در بخش 3 توضیح داده شده است. سپس در بخش 4 ما مدل بازیابی مبتنی بر ویژگی که از جنبه های استخراج شده و احساسات آنها استفاده می کند را تنظیم می‌کنیم. در نهایت،  الگوریتم پیشنهادی را براساس یک مجموعه دستی ارزیابی می‌کنیم تا توانایی آن را در شناخت ابعاد مرتبط با نظر در یک متن در سطوح مختلف جزئیات (بخش 5) تعیین کنیم.

شکل 1 لیستی از ویژگی‌های سایت‌های مختلف رزرو هتل 

شکل 1 لیستی از ویژگی‌های سایت‌های مختلف رزرو هتل

 

 

2SABRE

Sabre یک دیدگاه به عنوان یک جهت گیری احساسی نسبت به هدف مورد نظر تعرف می شود. ، به عنوان مثال یک موجودیت یا ویژگی های آن (معمولا به جنبه های آن اشاره می شود). هرچند موجودیت ها و ابعاد آنها میتواند در یک سلسله مراتب از بخش ها و زیر بخش ها به صورت گره های تو در تو که جزئی از روابط هستند سازماندهی شوند [7, 11] . اکثر تحقیقات در زمینه ی نظرکاوی /بازیابی  این سازمان دهی پیچیده ی مفاهیم را نادیده میگیرند و یک مدل ساده تر را ترجیح میدهند که هدف  یک نظر به طور کلی یک جنبه است . که  بخش ها و ویژگی ها را مشخص میکند . با این حال، در طول فرآیند تصمیم گیری، جنبه های بسیاری در سطوح مختلف جزئیات می توانند درگیر شوند.

برای مثال رزرو یک اتاق نیاز به تطبیق معیارهای مختلف با یک مبنای ذهنی دارد . تمیزی و منظره میتواند به عنوان دو جنبه ی فرعی از مفهوم کلی  اتاق در نظر گرفته شود که همراه با موقعیت مکانی دو جنبه از موجودیت هتل را نمایش می دهند(شکل2 ) .

 

شکل 2 سلسله مراتب موجودیت/ویژگی/زیر‌ویژگی

 

با این حال اکثر سیستم های موجود فقط لیستی از ویژگی ها را ارائه می‌دهند . این قبیل لیست ها به صورت دستی و از پیش تعریف شده ایجاد شده اند ، آنها معمولا ابعاد گسترده پوشش دهی را نمایش میدهند که هیچ تضمینی برای وجود آن در متن های معتبر وجود ندارد .این موضوع به این دلیل است که ابعاد یا جنبه ها را از متن استخراج نمی شود  سپس ان ها محتوای متن را منعکس نمیکنند بلکه بیشتر به عنوان یک مقیاس درجه بندی شده  نظر کلی بازبین را در چند مورد رایج خلاصه میشود  علاوه بر این، ساختار سلسله مراتبی ویژگی ها، که بخشی از روابط را دنبال می کند کاملا به حوزه ی هدف بستگی دارد. موسیقی یکی از چندین ویژگی مربوط به یک فیلم است اما اگر ما 100 آهنگ برتر حوزه موسیقی را مرتب کنیم می‌تواند آن را به عنوان یک موجودیت در نظر گرفت .

این فصل Sabre   را پیشنهاد می‌دهد که یک سیستم بازیابی نظر است و می‌تواند :

1.       از متن مورد نظر از ویژگی و زیر ویژگی های بالقوه  آنها استخراج کند.

2.      هر بُعد از نظرات مشابه را بهم مرتبط کند.

3.     مقصود هر نظر را (مثبت یا منفی ) تشخیص دهد .

4.     اسنادی را که نشان دهنده ی یک نظر درباره ی  تحقیق مورد نظر هستند را بازیابی کند .

 

مولفه ی اصلیSABRE  جنبه ی استخراج کردن آن است که به طور خودکار از متن سلسله مراتب ابعاد مربوط به یک موجودیت داده شده را بیرون می‌کشد . با این حال، به منظور ساده سازی مشکل، الگوریتم تنها از گره های سطح اول سلسله مراتب (جنبه ها) استفاده می‌کند و تمام فرزندان این سطح را به عنوان زیر ویژگی می‌داند.

SABER  اینگونه اطلاعات را برای موارد زیر بکار میبرد:

(1)   رتبه بندی مجدد، در مرحله دوم بازیابی نظر زمانیکه  احساسات مربوط به هر جفت به صورت ترکیبی برای نمره‌ی بدست آمده از از مدل بازیابی به کار گرفته می‌شوند.

(2)  فیلتر کردن: به منظور بهبود تجسم  نظرات و کمک  به کاربر برای فیلتر کردن اطلاعات غیر مرتبط در طول هدایت برای دستیابی به نتایج.

 

 

 

برای  اجرای این عملیات، Σ ب عنوان مجموعه ای از ویژگی‌های در دسترس و یک سند D = (p1, p2,...,pn) داده می‌شود که در واحدهای متنی تقسیم می‌شود.SABRE  یک مجموعه ی پنج‌ تایی به صورت   (pi, aij , aijk , sijksent  , sijksent )را استخراج می‌کند :

 

 

p i واحد متنی است  که می تواند هر کدام از روش‌های ممکن برای تقسیم یک سند باشد، مانند جملات، پاراگراف ها یا پنجره های لغزان.

 

aij ها جنبه های اصلی هستند، aij Σ؛

aijk زیر جنبه های aij هستند،{} aijk Σ ، * نشان دهنده‌ی عدم وجود زیرجنبه ها است؛

  sijksent  ضریب مربوط به جفت) aij، aijk (در متن واحد pi، sijksent  ≥0؛

sijksent  ضریب احساسات است که مرتبط با ) aij، aijk ( است،و نشان دهنده قطبیت نظر در آن جفت داده شده است،sijksent [ 1,1] .

 

نماد* فقدان زیر جنبه‌ها را نشان میدهد .اگرچه یک سلسله مراتب ،رابطه ی بین جنبه‌ها و زیر جنبه‌ها را تعریف می‌کند، وجود یک جنبه پنجگانه  به طور پیش فرض بر وجود (*، ویژگی)  دلالت نمی‌کند ؛ یعنی (pi,aij,aijk,·,·;) ≠(pi,aij,,·,·).

چندین پنجتایی می‌توانند به یک واحد متنی یکسان مربوط شوند ، و به این طریق امکان تفاوت عقاید را (و شاید تضاد) در جنبه‌ها و زیر جنبه‌ها نشان می‌دهد، مانند این جمله " هتل تمیز بود اما واقعا سر و صدای زیادی داشت".  علاوه بر این، چنین تعریفی باعث می‌شود که بازیابی نظرات در مورد نگاشت / جنبه / زیر‌جنبه‌ی هدف ، با امکان بیان محدودیت روی sijksent   و قطبیت نظرات آسان‌تر شود .

 

3 استخراج ویژگی

دو دسته ی اصلی الگوریتم استخراج ویژگی وجود دارد :مبتنی بر فرکانس که بر تجزیه تحلیل آماری corpora تکیه می‌کند ، و مدل‌سازی موضوع، که از روش های پیشرفته تر یادگیری ماشین استفاده می‌کنند. این کار از دو روش مبتنی بر فرکانس استفاده می کند: یک روش ابتدایی بر اساس احتمالات شرطی و یک مدل که استفاده متفاوت از زبان را از بین یک دامنه خاص و یک زمینه کلی درک می‌کند. هر دو این الگوریتم ها به مشاهدات ساده که جنبه‌ها و زیرجنبه‌ها را غالبا به عنوان اسم ها به کار می‌برند، تکیه می‌کنند. با تکیه بر این فرض، ما دو روش مختلف را که در زیر توضیح داده شده ساخته‌ایم.

3.BASE: الگوریتم مبتنی بر فرکانس ساده

رویکردهای مبتنی بر فرکانس، شاخص آماری مربوط به توزیع ترم‌های یک مجموعه آموزشی را محاسبه می‌کنند که کیفیت آن باعث اثربخشی الگوریتم می‌شود. وقتی یک سند جدید تولید می‌شود، جنبه‌ها بر اساس توزیع‌های قبلا محاسبه شده استخراج می‌شوند. الگوریتم BASE، که به عنوان یک الگوریتم پایه ای استفاده می‌شود، ابتدا از مجموعه اسناد آموزشی ، همه‌ی رخدادها و رخدادهای مشترک عبارات اسم در یک پنجره لغزان داده شده به نام s را استخراج می‌کند. در طول این فرآیند، الگوریتم کلمات توقف (پر تکرار) یا عباراتی که بیشتر از k بار تکرار شده است را حذف می کند تا از کلمات تکراری و بی‌معنی جلوگیری شود. سپس با توجه به عبارات استخراج شده‌ی معین T = (t1,t2,...,tm) الگوریتم محاسبه می‌شود (1)احتمال ظاهر شدن عبارت ti به عنوان اسم در پنجره ی لغزان و (2) احتمال ظاهر شدن عبارت tj به عنوان اسم در پنجره‌ی لغزان داده شده باتوجه به پیش آمد عبارت ti  به شرح زیر است :

(1)                                       P(ti)= freq(ti)i freq(ti)               

(2)                P(tj|ti)= freq(ti,tj) freq(ti)               

 

الگوریتم 1 مراحل اصلی را نشان می‌دهد. لیست اسامی استخراج شده نشان دهنده مجموعه‌ای از جنبه‌های اصلی در فرم (aij ,*)  است که با رابطه‌ی ضریب srelijk  که توسط P(aij) داده شده است ،مرتبط است.

 

سپس لیست‌ جفت‌های (aij, aijk) ضریب هر (جنبه، زیرجنبه) را بر اساس ضریب مرتبط که به وسیله‌ی P(aijk|aij) داده شده است، می‌سازد. با این حال، در مرحله دوم الگوریتم تنها با توجه به عباراتی که رخ داده‌اند و بیشتر ازN بار در همه‌ی مجموعه داده (خط 9)  تکرار شده‌اند ، در نظر گرفته می‌شود. سپس الگوریتم تنها جنبه های ضریب دار مهم z را با توجه به نمرات مربوط به آن، نگه می‌دارد.  ما خروجی این الگوریتم را به عنوان مبنا به‌ کار می‌بریم.

 

 

 

 

3.2 LM : اندازه گیری اختلاف(واگرایی) بین زبان ها

این الگوریتم بر مبنای این ایده است که زبان در هنگام صحبت کردن در مورد حوزه خاص نسبت به یک موضوع عمومی متفاوت است. این روش انتخاب ویژگی‌هایی را هدف قرار می‌دهد که توزیع آن در یک دامنه‌ی معین از یک مجموعه نوشته‌ی عمومی متفاوت است،مانند British National Corpus 1  (BNC).

به این ترتیب ما با استفاده از واگرایی Kullback-Leibler (واگرایی  KL) یک معیار نامتقارن را از تفاوت بین دو بخش استخراج می‌کنیم. واگرایی KL ارتباط یک عبارت را با توجه به دو بخش _یکی در دامنه‌ی معین محاسبه شده است در حالی‌که دیگری در یک مجموعه نوشته عمومی محاسبه می‌شود_ مانند اطلاعاتی که این عبارت را انتقال می‌دهد، اندازه گیری می‌کند.

با این حال، برای محاسبه چنین تفاوتی در یک نقطه‌ی خاص، ما از واگرایی Kullback-Leibler به طور نقطه وار استفاده می‌کنیم، که به شرح زیر است:

 

δ(p||q)=p(t)logp(t)q(t) .                            (3)

                         

جایی که p توزیع بیشتری از یک عنصر دامنه‌ای وq  توزیع بیشتری از یک عنصر عمومی دارد .به غیر از واگرایی  KL ، واگرایی نقطه به نقطه KL  مقادیر منفی δ را میگیرد که با ویژگی‌های غیر مرتبط مشابه است. با این حال، به منظور ساخت لیستی از جنبه های اصلی برای یک متن داده شده، ما تمام عبارات موصوف t را با آستانه‌ی (p||q)>ε(ε≥0 )δ در نظر می‌گیریم. اجازه بدهید Pدامنه و Pعمومی را  به دو بخش یک عبارت در یک دامنه و نوشته ی عمومی تقسیم کنیم .عبارت t  میتواند به عنوان یک جنبه‌ی اصلی در نظر گرفته شود اگر

 

δ(pdomain(t)||pgeneralt)>ε .                            (4)

 

آستانه‌ی ε بر ارتباط جنبه‌ها در یک نوشته‌ی دامنه‌ای تاثیر میگذارد.به هر حال این روش هنوز برای   کار می‌کند، چون در این مورد همه‌ی جنبه‌های غیر مرتبط بر روی  قرار می‌گیرند. نکته ی جالب دیگر این است که  موجب ایجاد یک رابطه‌ی منظم روی مجموعه‌ای از جنبه‌ها می‌شود: با توجه به دو ویژگی a1 و a2 ، a1 بیشتر از a2 به دامنه‌ی داده شده مرتبط است ،اگر و فقط اگر  . مراحل اصلی این روش در الگوریتم 2 نشان داده شده است.

 

 

3.2.1  استخراج زیرجنبه

خروجی الگوریتم 2 یک لیست از جنبه های اصلی است که نشان دهنده‌ی ورودی به الگوریتم برای استخراج زیر جنبه است.   این مرحله از دو معیار «کیفیت» [17] یک زیر جنبه استفاده می کند که به شکل زیر تعریف می‌شوند:

عبارات، اطلاعاتی که پس از پذیرش یونیگرم (LM1) به جای مدل زبان n-gram (LMN) از دست رفته‌اند:

 

φph=δt(LMfgN||LMfg1) ;                            (5)

 

اطلاع رسانی، اطلاعات زمانی از دست میروند که فرض شود که t  ازمدل زبان LMbg _ پس زمینه یا عمومی _ نسبت به  LMfg _ پیش زمینه و یا دامنه_ کشیده شده است :

 

φi=δt(LMfgN||LMbgN) ;                            (6)

 

عبارات اطلاعاتی را که از دست رفته‌اند زمانی در نظر میگیرند که کلمات به طور مستقل در یک مدل زبان unigram  به عنوان یک دنباله در یک مدل n-gram  اندازه گیری می‌شوند.  Informativeness  اطلاعات را زمانی از دست می‌دهد که فرض می‌شود  یک جمله از یک پس زمینه (عمومی) بیشتر از نوشته ی پیش زمینه (دامنه) اندازه گیری می‌شود.

از آنجایی که کیفیت زوج (جنبه،زیر جنبه) به هر دو این عوامل بستگی دارد، ما ضریب مربوط به این جفت را به صورت زیر تعریف می‌کنیم :

φ=φph+φi×N(σ2) ;                            (7)

 

   برای کاهش دادن ضریب عبارات و اطلاعات استفاده می‌شود که بوسیله ی واژگان با واگرایی KL نقطه ای بالا به شکل قوی مرتب شده اند.  نسبت واریانس به میانگین را جایگزین میکند(VMR)، چونکه توزیع پیش آمدهای مشترک توزیع نرمالی را دنبال میکند. برای هر جنبه ی اصلی استخراج شده با توجه به (3)،الگوریتم 3 وقتیکه tijk یک اسم استخراج شده از یک قطعه از متن است، امتیاز مربوطه ی  را برای جفت های tij,tijk محاسبه می‌کند. لیست آخر(جنبه‌ها، زیر جنبه‌ها) شامل تمام جفت هایی است که برای آن φ> ε است.

 

 

3.3  الگوریتم پسوندها

هر دو الگوریتم واگرایی مدل زبان و مبتنی بر فرکانس را میتوان برای بررسی عبارات به جای جملات استفاده کرد. به طور خاص، ما دو پسوند احتمالی را که می‌توانیم به صورت جداگانه یا ترکیبی مورد استفاده قرار دهیم، تعریف کردیم:

به رسمیت شناختن موجودیت نام (NER): این ماژول بر اساس فیلدهای تصادفی شرطی است [5] به منظور استخراج دنباله ای از کلمات که مربوط به سه نوع موجودیت نام برده می‌شود: شخص، ساختار و موقعیت.این مدل روی مجموعه داده‌ی CoNLL 20032  آموزش داده شده است.

با هم گذاری (CL) : این ماژول توالی کلماتی را شناسایی می‌کند که در لیست 50،000 bi-grams ظاهر می‌شوند و از  WordNet استخراج شده‌‍‌اند.

 

 

 

3.4 تحلیل احساسات

 الگوریتم مورد استفاده برای ارزیابی امتیاز احساسات (sijksent ) برای هر جفت (جنبه، زیرجنبه) یک مدل مبتنی بر واژگان است که لیست کلمه  AFINN را استخراج می‌کند[12] . AFINN حاوی حدود 2500 کلمه انگلیسی است که به صورت دستی می‌تواند با یک نمره بین  مثبت (5+) تا منفی (5-) علامت گذاری شود.لیست واژه‌ها همچنین شامل برخی از باهم گذاری‌ها است،درحالیکه کلمات با احساسات بی طرفانه را نادیده می‌گیرد(امتیاز برابر صفر).

  برای هر قطعه متن، الگوریتم میانگین امتیاز احساسات مربوط با کلمات داخل متن که در لیست کلمه AFINN ظاهر می‌شوند را محاسبه می‌کند.با این حال وقتی یک کلمه‌ی "منفی" _ مانند نیست، اما، نه، هرگز، با اشکال، به سختی، نیستند، نمی‌شود، نمی خواهد، انجام نمی‌شود_ دیده می‌شود، امتیاز احساسات هر کلمه ای که در اکثر موارد در یک فاصله پنج عبارتی از منفی شده ها ظاهر می‌شود، وارونه می‌شود. امتیاز در بازه‌ی [1-،1] کوچک می‍شود، و سپس به هر (جنبه، زیرجنبه) استخراج شده از قطعه مرتبط می‌شوند.

 

4  بازیابی نظرات

موتور بازیابی نظرات مبتنی بر یک رویکرد دو مرحله‌ای است:

1.       یک مدل فضای بردار tf-idf کلاسیک [14] برای بازیابی  Nسند با رتبه بالاتر مطابق با عبارات پرس و جو استفاده می شود.

2.      رتبه بندی نظرات به صورت ماژولار انجام می‌شود که امتیاز N سند اول را به ترتیب بازنویسی کند.

 

در حالی که رابطه اسناد در اولین مرحله به صورت یک مدل فضای بردار استاندارد (طرح توزین tf-idf) محاسبه می شود، مرحله دوم، مجموعه ای از پنجتایی (sijksent ،sijkrel  ،aijk  ، aij ،pj ) است که مربوط به هر واحد متنی است، و به طور خاص ارتباط (srel ) و احساس (ssent ) وزن هر جفت (جنبه، زیر جنبه) را محاسبه می‌کند.

اگر s={s|s=srel,ssent,  امتیاز   srel و ssent   }     تنظیم شود ،زوج امتیاز احساسات و ارتباط برای همه ی (ویژگی ،زیر ویژگی) ها در یک سند استخراج می‌شود و امتیاز نظرات به صورت زیر محاسبه می‌شود :

 

sS  |srel.ssent||S|                             (8)

امتیاز نظرات مزایایی برای در نظر گرفتن ارتباط نظرات و قطبیت آن‌ها دارد . علاوه بر این، این مقدار با توجه به تعداد زوج‌های (ویژگی، زیر ویژگی) در یک سند عادی است.

شکل 3 نتایجی را نشان می‌دهد که برای پرس و جو "محل صبحانه" بر روی مجموعه ای از بررسی‌های هتل‌ها که از TripAdvisor جمع آوری شده،  انجام شده است.ویژگی‌های استخراج شده از مجموعه‌ی نتایج در سمت چپ لیست نتایج اصلی ذکر شده است.ویژگی‌های جمع آوری شده بر اساس زوج (ویژگی، زیر ویژگی)  و احتساب امتیاز احساسات بر روی مجموعه‌ی همه‌ی اسناد بازیابی محاسبه می‌شوند. ویژگی‌های تکراری، حضور یک ویژگی یکسان متعلق به زوج‌های مختلف (ویژگی، زیر ویژگی) را نشان می‌دهد.

علاوه بر این، یک فیلتر بر اساس ویژگی‌های استخراج شده می تواند بر روی مجموعه‌ی نتایج از طریق دکمه ی "فیلتر کردن ویژگی" اعمال شود، که پنجره‌ی موجود در شکل 4 آن را نشان می‌دهد.

 

 

شکل 3 صفحه‌ی نتیجهSABER

 

 

 شکل 4 فیلتر ویژگی

 

5 ارزیابی

SABER به دو روش مختلف با توجه به توانایی آن در استخراج جفت های ویژگی/ زیر ویژگی  مورد بررسی قرار گرفته است.هر ارزیابی روی یک مجموعه داده با 164,780 بازنگری از طرف TripAdvisor انجام شده است،به طوریکه هر بازنگری ناشناس بوده است. TripAdvis یا مجموعه داده حوزه‌ی خاصی از نوشته ها را نشان می‌دهد.همانند نوشته‌های حوزه‌ی جهانی ما هم از از مجموعه نوشته‌های ملی انگلیس (BNC) استفاده می‌کنیم که شامل 4000 سند با 100 میلیون کلمه از حوزه‌های مختلف است. آستانه ɀ بر مبنای 30 ویژگی تنظیم می‌شود، در حالی که آستانه ε برای  10-3  ویژگی و زیر ویژگی در روش LM تنظیم شده است ؛ همه‌ی آستانه‌ها بعد از آزمایش میزان سازی سیستم انتخاب شده اند.متن قبل از توزیع عبارت تحلیل شده است.این تجزیه تحلیل شامل تقسیم بندی،گرد هم آوری کلمات ، برداشت کلمات توقف (پر‌تکرار) ، ضمیمه کردن بخشی از گفتار می‌شود. علاوه بر این ،این خط لوله همچنین شامل شناسایی موجودیت نامیده شده می‌شود و یافته‌های جمع آوری شده در مورد دو پسوند در بخش 3.3 توضیح داده شدند. اکثر عملیات متن توسط Stanford CoreNLP API انجام می‌شود ، درحالی که اجرای فهرست گذاری و بازیابی در بالای موتور ElasticSearch انجام می‌شود.

 

ارزیابی برچسب گذاری ویژگی: (P) برش، (R) یادآوری، (F) - اندازه گیری

 

بهترین مقادیر اندازه‌گیری F  برای سیستم‌های پایه و سیستم‌های مدل سازی زبان در دو آزمایش مختلف : شناسایی * ،  ویژگی و ویژگی، زیر ویژگی

 

 

5.1  برچسب گذاری ویژگی

اولین روش ارزیابی براساس یک مجموعه داده دستی طبقه بندی شده بر روی یک انتخاب تصادفی از بین 200 تا بیشتر از  164،780 از بازنگری‌های‌ هتل بواسطه‌ی TripAdvisor ساخته شده است. 164،580 بازنگری باقی‌مانده برای آموزش مدل مورد استفاده قرار گرفته است.مفسر برای هر بازنگری در یک مجموعه آزمون مجبور است یک جفت ویژگی، زیر ویژگی را مشخص کند. ما الگوریتم استخراج  (LM) را در برابر آزمایش اولیه‌ی پیکربندی  تست های چندگانه (BASE) با استفاده و بدون استفاده از ترتیب (CF) و شناسایی موجودیت نامگذاری شده‌ی پسوندها (NER) مقایسه کردیم.

جدول 1 نتایج ارزیابی را هنگامی گزارش می‌کند که تنها ویژگی اصلی در نظر گرفته می شود، یعنی کاهش تمام جفت های برچسب شده به ویژگی، * ، و زمانی که ویژگی، زیر ویژگی مناسب شناسایی می شود.همانطور که انتظار می‌رود نقش تشخیص ویژگی، زیر ویژگی  در سطح پایین تری نسبت به تشخیص ویژگی اصلی قرار می‌گیرد، این موضوع به دلیل وظیفه پیچیده تر است ، که در اینجا برای شناسایی یک سلسله مراتب بین ویژگی‌های ذکر شده در بازنگری درخواست می شود.

در هر دو آزمايش، سيستم مدل زبان عملکرد بهتري نسبت به خط مبنا به دست مي‌آورد، با اين وجود تنها در تشخیص  ویژگی، زیر ویژگی است که پیکربندی با CF + NER بهترين نتيجه را نشان می‌دهد. با این حال، در اینجا مهم است که ارزش های گزارش شده فقط باید به عنوان پایین ترین حد مورد توجه قرار گیرند،به این دلایل :

(1)   تعداد کمی از بازنگری‌ها مورد بررسی قرار گرفته‌اند،(2) برچسب زدن دستی فقط توسط یک کاربر انجام می‌شود، (3) ذهنیت ذاتی در ارزیابی کردن جفت‌های ویژگی، زیر ویژگی مطرح است.

 

5.2 بازخورد کاربر

لیست داده شده از جفت های ویژگی، زیر ویژگی  در طول ارزیابی برچسب گذاری ویژگی‌ها از بهترین سیستم (LM + CF + NER) استخراج می‌کند، ما از 61 کاربر درخواست کردیم تا زیر مجموعه‌ای از جفت‌ها را از 97 بازنگری به صورت دستی به صورت مرتبط و غیر مرتبط با توجه به بازنگری‌های موجود برچسب گذاری کنیم.

 

ارزیابی بازخورد کاربر: (P) برش، (R) یادآوری، (F) - اندازه گیری

اهداف ارزيابي در پيدا كردن تعداد زوج های ویژگی، زیر ویژگی است كه كاربر به عنوان مهمترین بازنگری داده شده پيدا مي‌کند.

ارزیابی در 2 مرحله صورت می‌گیرد:

1.       کاربر ویژگی‌های اصلی را از لیست انتخاب می‌کند. به هر کاربر از 3 تا 6 ویژگی داده میشود که او مجبور می‎شود ا آنهایی را انتخاب کند که مرتبط با واحد متنی داده شده هستند .

2.      لیستی از زیر ویژگی‌ها از ویژگی‌های انتخاب شده در مرحله قبل ایجاد می‌شود؛ در این میان کاربر آن‌هایی که بیشتر مرتبط هستند را برای ویژگی‌های اصلی و واحد متن داده شده انتخاب می‌کند.

جدول 2 نتایج حاصل از این ارزیابی را گزارش می‌دهد. ارزیابی مقادیر مهم فراخوانی شده را نشان می‌دهد، این مقادیر انتظار می‌رود تا زمانی که برچسب گذاری بر روی لیست‌های از پیش تعیین شده‌ی ویژگی‌ها انجام می‌شود به وسیله‌ی الگوریتم بازگردانده شوند . نکته‌ی جالب تر در این زمینه مقادیر درستی هستند که بالاتر از آنهایی هستند که در جدول 1 گزارش شده‌اند  و به همان ترتیب در آزمایش قبلی شاهد کاهش عملکرد در هنگام تعیین  ویژگی، زیر ویژگی هستیم.

 

6 کار مرتبط

مشکل بازیابی نظر با توجه به ویژگی‌ها و زیر ویژگی‌های خاص مورد نظر کاملا جدید هستند و به بهترین وجه از دانش ما باز هم مورد توجه قرار گرفته است. با این حال، اگر ما هر مشکلی را در خودمان در نظر بگیریم، یعنی بازیابی نظر و نظرکاوی مبتنی بر ویژگی،  آن‌ها دو مشکل ریشه دار در زمینه‌های مربوطه هستند.

بازیابی نظر(OR) به عنوان یک شاخه از وظیفه بازیابی اطلاعات (IR) محسوب می‌شود.  معمولا OR در دو مرحله انجام می‌شود. ابتدا مجموعه ای از سند مربوطه بازیابی می شود، و سپس این مجموعه بر اساس امتیازات نظر آن‌ها [7، فصل. 9] در مورد پذیرش یادگیری ماشین یا رویکرد مبتنی بر واژگان دوباره رتبه بندی می‌شود ، این نیز رویکردی است که در SABER اتخاذ شده است. بسیاری از تحقیقات در مورد OR در ارزیابی‌های TREC Blog Track انجام شده است ، و  بهترین سیستم های شرکت کننده در نظر سنجی سه ارزیابی (2006،2007،2008) را مانند استراتژی  دنبال کرده‌اند[6, 20, 21] . با این حال، استثنائاتی مانند سیستم پیشنهاد شده توسط ژانگ و همکارانش وجود دارد [19] ، جایی که دو جزء با هم دیگر ادغام می‌شوند.

اگرچه ما یک رویکرد مبتنی بر واژگان ساده را استفاده کردیم، تکنیک های پیشرفته تر برای طبقه بندی یک جمله با توجه به احساسات که بیان می شود، توسعه یافته است. علاوه بر تکنیک هایی که بر اساس برخی از کلمات احساسی وجود دارد[3] ، بسیاری از روش ها بر اساس برخی از تکنیک های یادگیری ماشین است که هم تحت نظارت  [10, 13] و هم بدون نظارت هستند[18].

مدلسازی موضوع یکی از روشهای اصلی اتخاذ شده برای استخراج ویژگی است. این روش‌ها معمولا براساس تخصیص نهایی  Dirichlet (LDA) [2] یا تحلیل معنایی نهفته احتمالی است که (pLSA)[4] روش های آماری برای تشخیص راس یک بحث است. سپس آن‌ها در استخراج ویژگی طوریکه هر موضوع یک ویژگی است به کار می‌روند. با این حال، از آنجا که این تکنیک ها سعی دارند توزیعهای مختلف اصطلاحات را در اسنادی که مباحث مختلف را در اختیار دارند، ضبط کنند، استفاده از آنها در حوزه بازنگری کمی دشوار است، زیرا بازنگری‌ها معمولا همیشه با همین موضوعات روبرو می شوند. تیتو و مک دونالد [16] یک سیستم مبتنی بر دو سطح را پیشنهاد میدهند: اولین استفاده‌ی LDA  برای استخراج موجودیت است، در حالیکه در دومین سطح ویژگی‌ها با توجه به تنها همسایه‌ی موجودیت داده شده استخراج می‌شوند؛ نادیده گرفتن امکان بیشتری برای سازمان یابی سطوح ویژگی فراهم می‌کند. اگر چه بخشی از گسترش LDA برای ارزیابی سلسله مراتب مورد بهره برداری قرار گرفته است [1، 8، 15]، این روش ها هنوز هم پیچیده هستند و نیاز به اطلاعات آموزشی بزرگ و تنظیم پارامتر دارند.

 

 

7 نتیجه گیری

در این مقاله SABRE معرفی شده است، یک سیستم بازیابی نظر دو سطحی مبتنی بر ویژگی که سلسله مراتب ویژگی‌هایی را که در دو سطح سازماندهی شده اند، در نظر گرفته است. ما معماری کلی سیستم را توصیف کردیم و توضیح دادیم که چگونه اطلاعات مربوط به ویژگی‌ها و زیر ویژگی‌ها را برای محاسبه امتیاز نظر در طول رتبه بندی و برای فیلتر کردن در هنگام هدایت اسناد مرتبط مورد بهره برداری قرار می‌دهیم.

هسته سیستم ما به الگوریتم استخراج ویژگی متکی است. ما پیشنهاد کردیم که عبارات کاندیدی استخراج شده را با استفاده از واگرایی Kullback-Leibler از یک دامنه و یک مجموعه نوشته عمومی هدف انتخاب کنیم. در مرحله اول، ما یک ارزیابی برای تشخیص قابلیت الگوریتم پیشنهاد شده در استخراج عبارات کاندیدی خوب به عنوان ویژگی‌ها و زیر ویژگی‌ها انجام دادیم. ارزیابی نتایج رقابتی را با توجه به خط مبنا نشان داد.

اکثر مجموعه داده های فعلی برای بازیابی نظرات بر بازیابی  TREC Blog Track و  Twitter تکیه می‌کنند. هیچ کدام از آنها به طور خاص بر روی سلسله مراتب ویژگی که از متن گرفته شده است، تمرکز نمی کنند. ما قصد داریم یک ارزیابی بازیابی نظر را بسازیم که از این سازمان‌دهی سود می‌برد. به عنوان کار آینده، ما تحقیق دقیقی برای ارزیابی عملکرد بازیابی SABER انجام می‌دهیم.

 

 

منابع

 

1. Blei, D.M., Griffiths, T.L., Jordan, M.I.: The nested chinese restaurant process and bayesian nonparametric inference of topic hierarchies. J. ACM 57(2), 7:1–7:30 (2010)

2. Blei, D.M., Ng, A.Y., Jordan, M.I.: Latent Dirichlet allocation. J. Mach. Learn. Res. 3, 993– 1022 (2003)

 3. Godbole, N., Srinivasaiah, M., Skiena, S.: Large-scale sentiment analysis for news and blogs. In:Glance,N.S.,Nicolov,N.,Adar,E.,Hurst,M.,Liberman,M.,Salvetti,F.(eds.)Proceedings of the First International Conference on Weblogs and Social Media, ICWSM 2007, Boulder, Colorado, USA, 26–28 March 2007

4.Hofmann,T.:Probabilistic latent semantic indexing. In:Proceedings of the 22nd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. SIGIR ’99, pp. 50–57. ACM, New York, NY, USA (1999)

5. Lafferty,J.D.,McCallum,A.,Pereira,F.C.N.: Conditional random fields :probabilistic models for segmenting and labeling sequence data.In:Brodley,C.E.,Danyluk,A.P.(eds.)Proceedings of the Eighteenth International Conference on Machine Learning (ICML 2001), Williams College, Williamstown, MA, USA, pp. 282–289. Morgan Kaufmann, 28 June–1 July 2001

 6. Lee, Y., Na, S., Kim, J., Nam, S., Jung, H., Lee, J.: KLE at TREC 2008 blog track: blog post and feed retrieval. In: Voorhees, E.M., Buckland, L.P. (eds.) Proceedings of the Seventeenth Text Retrieval Conference,TREC2008,Gaithersburg,MD,USA,18–21November2008,vol. Special Publication 500-277. National Institute of Standards and Technology (NIST) (2008)

 7. Liu,B.:Sentiment analysis and opinion mining.Synth.Lect.Hum.Lang.Technol.5(1),1–167 (2012) 8. Lu, B., Ott, M., Cardie, C., Tsou, B.K.: Multi-aspect sentiment analysis with topic models. In: Proceedings of the 2011 IEEE 11th International Conference on Data Mining Workshops. ICDMW ’11, pp. 81–88. IEEE Computer Society, Washington, DC, USA (2011)

9. Manning, C.D., Surdeanu, M., Bauer, J., Finkel, J., Bethard, S.J., McClosky, D.: The stanford CoreNLP natural language processing toolkit. In: Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 55–60 (2014)

10. Mei, Q., Ling, X., Wondra, M., Su, H., Zhai, C.: Topic sentiment mixture: modeling facets and opinions in weblogs. In: Proceedings of the 16th International Conference on World Wide Web. WWW ’07, pp. 171–180. ACM, New York, NY, USA (2007) 11. Moghaddam,S.,Ester,M.:Aspect-basedopinionminingfromproductreviews.In:Proceedings of the 35th International ACMSIGIR Conference on Research and Development in Information Retrieval. SIGIR ’12, pp. 1184–1184. ACM, New York, NY, USA (2012)

12. Nielsen, F.Å.: A new anew: Evaluation of a word list for sentiment analysis in microblogs. In: Rowe, M., Stankovic, M., Dadzie, A., Hardey, M. (eds.) Proceedings of the ESWC2011 Workshopon‘MakingSenseofMicroposts’:Big Things Come in Small Packages,Heraklion, Crete, Greece, 30 May 2011, CEUR Workshop Proceedings, vol. 718, pp. 93–98. CEURWS.org (2011) 13. Pang, B., Lee, L., Vaithyanathan, S.: Thumbs up?: Sentiment classification using machine learning techniques. In: Proceedings of the ACL-02 Conference on Empirical Methods in NaturalLanguageProcessing.EMNLP’02,vol.10,pp.79–86.Association for Computational Linguistics, Stroudsburg, PA, USA (2002)

14. Salton, G.: The SMART Retrieval System: Experiments in Automatic Document Processing. Prentice-Hall, Upper Saddle River (1971)

15. Teh, Y.W., Jordan, M.I., Beal, M.J., Blei, D.M.: Hierarchical dirichlet processes. J. Am. Stat. Assoc. 101(476), 1566–1581 (2006) 16. Titov,I.,McDonald,R.T.:Ajointmodeloftextandaspectratingsforsentimentsummarization. In:McKeown,K.,Moore,J.D.,Teufel,S.,Allan,J.,Furui,S.(eds.)ACL2008,Proceedings of the 46th Annual Meeting of the Association for Computational Linguistics, 15–20 June 2008, pp. 308–316. Columbus, OH, USA (2008)

17. Tomokiyo,T.,Hurst,M.:Alanguage model approach to key phrase extraction.In:Proceedings of the ACL 2003 Workshop on Multiword Expressions: Analysis. Acquisition and Treatment, vol. 18, MWE ’03, pp. 33–40. Association for Computational Linguistics, Stroudsburg, PA, USA (2003) 18. Turney, P.D.: Thumbs up or thumbs down?: Semantic orientation applied to unsupervised classification of reviews. In: Proceedings of the 40th AnnualMeeting on Association for Computational Linguistics. ACL ’02, pp. 417–424. Association for Computational Linguistics, Stroudsburg, PA, USA (2002)

19. Zhang, W., Yu, C., Meng, W.: Opinion retrieval from blogs. In: Proceedings of the Sixteenth ACMConferenceonConferenceonInformationandKnowledgeManagement.CIKM’07,pp. 831–840. ACM, New York, NY, USA (2007)

20. Zhang, W., Yu, C.T.: UIC at TREC 2006 blog track. In: Voorhees, E.M., Buckland, L.P. (eds.) ProceedingsoftheFifteenthTextREtrievalConference,TREC2006,Gaithersburg,Maryland, 14–17 November 2006, vol. Special Publication 500-272. National Institute of Standards and Technology (NIST) (2006)

21. Zhang, W., Yu, C.T.: UIC at TREC 2007 blog track. In: Voorhees, E.M., Buckland, L.P. (eds.) Proceedings of The SixteenthText REtrieval Conference,TREC2007,Gaithersburg,Maryland, USA, 5–9 November 2007, vol. Special Publication 500-274. National Institute of Standards and Technology (NIST) (2007) 


ارسال نظر
Info

توجه: از ارسال پيام هاي خصوصي در حالت لاگين براي نويسنده وبلاگ اجتناب نماييد.
در صورتی که در فرم ارسال نظر، نام شما توسط سیستم شناسایی شده باشد(در حالت لاگین) نظر شما بلافاصله منتشر خواهد شد.


در غیر اینصورت نظر شما پس از تایید توسط مالک وبلاگ منتشر خواهد شد.

 authimage