مدل‌سازی ارتباط به عنوان یک تابع رتبه بازیابی (ترجمه مقاله)

موتور جستجو بازتاب (0) ارسال نظر   

 

  "مدل‌سازی ارتباط به عنوان یک تابع رتبه بازیابی"

  

چکیده

ارزیابی‌های دسته‌ای روی آزمایش‌های IR که عموماً با استفاده از قضاوت‌های مرتبط که به شکل یک pool نمونه از اسناد است، ساخته ‌شده‌اند. بااین‌حال، به نظر می‌رسد پوشش قضاوت نسبت به معیارهای استفاده‌شده برای محاسبه اثربخشی، ناقص است از آنجا که اندازه مجموعه برای قضاوت هر سند اغلب به لحاظ مالی آن را غیرعملی می‌کند. درنتیجه، یک قسمت قابل‌توجه از کار به بررسی مسئله چگونگی عادلانه بودن مقایسه سیستم‌ها در برابر اسناد قضاوت نشده می‌پردازد. در اینجا ما همان مشکل را از دیدگاه دیگر در نظر می‌گیریم و رابطه بین احتمال ارتباط و رتبه بازیابی را بررسی می‌کنیم، به دنبال شناسایی روش‌های قابل‌قبول برای برآورد ارتباط سند و سپس محاسبه بهره پیش‌بینی‌شده هستیم. طیف وسیعی از مدل‌ها متناسب با دو مجموعه داده متداول TREC هستند و از دو منظر ارزیابی می‌شود: با مجموعه کاملی از قضاوت‌های مرتبط شناخته‌شده به‌خوبی سازگار باشد و یا ازنظر توانایی پیش‌بینی هنگامی‌که pool های اولیه کم عمق فرض شده باشد و امتیازهای معیار برون یابی ‌شده بر اساس مدل‌هایی که از pool‌های کم‌عمق ساخته‌شده‌اند محاسبه می‌شود.

 
Modeling Relevance as a Function of Retrieval Rank

Abstract. Batched evaluations in IR experiments are commonly built using relevance judgments formed over a sampled pool of documents. However, judgment coverage tends to be incomplete relative to the metrics being used to compute effectiveness, since collection size often makes it financially impractical to judge every document. As a result, a considerable body of work has arisen exploring the question of how to fairly compare systems in the face of unjudged documents. Here we consider the same problem from another perspective, and investigate the relationship between relevance likelihood and retrieval rank, seeking to identify plausible methods for estimating document relevance and hence computing an inferred gain. A range of models are fitted against two typical TREC datasets, and evaluated both in terms of their goodness of fit relative to the full set of known relevance judgments, and also in terms of their
predictive ability when shallower initial pools are presumed, and extrapolated metric scores are computed based on models developed from those shallow pools.

 

Keyword Extraction

استخراج کلمات کلیدی از متن بازتاب (0) ارسال نظر   

Keyword extraction

From Wikipedia, the free encyclopedia

Keyword extraction is tasked with the automatic identification of terms that best describe the subject of a document.[1] [2]

Key phraseskey termskey segments or just keywords are the terminology which is used for defining the terms that represent the most relevant information contained in the document. Although the terminology is different, function is the same: characterization of the topic discussed in a document. Keyword extraction task is important problem in Text MiningInformation Retrieval and Natural Language Processing.[3]

Keyword assignment vs. extraction[edit]

Keyword assignment methods can be roughly divided into:

  • keyword assignment (keywords are chosen from controlled vocabulary or taxonomy) and
  • keyword extraction (keywords are chosen from words that are explicitly mentioned in original text).

Methods for automatic keyword extraction can be supervised, semi-supervised, or unsupervised.[4] Unsupervised methods can be further divided into simple statistics, linguistics, graph-based, and other methods.

References[edit]

  1. Jump up^ Beliga, Slobodan; Ana, Meštrović; Martinčić-Ipšić, Sanda. (2015). "An Overview of Graph-Based Keyword Extraction Methods and Approaches."Journal of Information and Organizational Sciences39 (1): 1–20.
  2. Jump up^ Rada Mihalcea and Paul Tarau (July 2004). TextRank: Bringing Order into Texts (PDF). Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP 2004). Barcelona, Spain.
  3. Jump up^ Beliga, Slobodan; Meštrović, Ana; Martinčić- Ipšić, Sanda. (2014). Toward Selectivity-Based Keyword Extraction for Croatian News (PDF). Surfacing the Deep and the Social Web (SDSW 2014). 1310,. Italy: CEUR Proc. pp. 1–14.
  4. Jump up^ Alrehamy, H.; Walker, C. (2017). SemCluster: Unsupervised Automatic Keyphrase Extraction Using Affinity Propagation. 17th UK Workshop on Computational Intelligence.

 
______________________ 
resource: wikipedia 

داده های عظیم- Big Data

سیستم های مبتنی بر دانش بازتاب (0) ارسال نظر   

با افزایش روز افزون داده ها با مفهوم جدیدی در پردازش داده ها با عنوان Big data مواجه هستیم. یکی از راه حل های پردازشی استفاده از چارچوب hadoop است. که ساختار برنامه نویسی با عنوان Map/ Reduce دارد.

دسته بندی Bezdek و Hathaway برای داده های عظیم به صورت زیر است:

 

انواع داده های عظیم

داده های عظیم انواع مختلفی دارند که در زیر به یک نمونه دسته بندی آن اشاره می کنیم:

داده های رابطه ای(جداول / تراکنش/ داده های سلسه مراتبی-ارثبری)

داده متنی (وب)

داده شبه-ساخت یافته(XML)

دادده های گرافی

-شبکه های اجتماعی، وب معنایی(RDF)، ...

داده های جریانی

داده فقط یک بار می توانند پیمایش شوند.

Normal 0 false false false false EN-US X-NONE AR-SA

کنترل فازی خود سازمان ده (ْْSOC)

سیستم های خبره و مهندسی دانش بازتاب (0) ارسال نظر   
کنترلر خود سازمانده در واقع کنترلری است که با داشتن فرایند و محیطی که در آن عمل می کند، فرآیند را کنترل می کند.
 دو وظیفه مهم دارد:
1. محیط را مشاهده کرده و عملیات کنترلری مناسبی صادر کند
2. برای اینکه عملیات کنترلری صادر شده را رفته رفته بهبود ببخشد از عملیات کنترلی صادر شده در گذشته استفاده می کند.
در حالت کلی SOC ترکیبی از شناسایی سیستم و کنترل است.
 soc.pdf

Fuzzy Measure

سیستم های خبره و مهندسی دانش بازتاب (0) ارسال نظر   

اندازه گیری فازی

en.wikipedia.org/wiki/Fuzzy_measure_

 Fuzzy Measures.ppt

حساب فازی

سیستم های خبره و مهندسی دانش بازتاب (0) ارسال نظر   

مثالهایی از حساب فازی

حساب فازی.pdf

مهندسی دانش

سیستم های خبره و مهندسی دانش بازتاب (0) ارسال نظر   

مبانی مهندسی دانش به طور خلاصه

مهندسی دانش.pdf

Powered by FUMblog