Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 13 лет назад пользователемmsucsai
1 Методы поиска в структурированных файлах функции ранжирования Мытрова Марина, 425 гр.
2 Содержание Векторная модель TF-IDF Косинусная мера Структурированный файл на примере XML –Лексические поддеревья –Структурные термы –Расширение векторной модели на случай структурированных файлов –Схожесть контекстов Okapi BM25 –BM25F –BM25Е
3 Векторная модель Векторная модель (англ. vector space model) представление коллекции документов векторами из одного общего для всей коллекции векторного пространства. Коллекция - неупорядоченное множество документов. Документ - неупорядоченное множество термов. Термы (словарные термы) - слова, из которых состоит текст (определение терма зависит от приложения) В векторной модели термы – это измерения. Вес терма – координата в данном измерении.
4 Векторная модель Более формально d j = (w 1j, w 2j, …, w nj ), где d j векторное представление j-го документа, w ij вес i-го терма в j-м документе, n общее количество различных термов во всех документах коллекции. Запросы представляются в той же форме, что и документы. Т.е. q = (w 1q,w 2q,...,w tq ), где q – векторное представление запроса, w iq - вес i-го терма в запросе
5 TF-IDF TF-IDF (от англ. TF term frequency, IDF inverse document frequency) статистическая мера, используемая для оценки важности слова в контексте документа, являющегося частью коллекции документов. TF-IDF = TF*IDF n i - число вхождений терма в документ k – общее число термов в документе |D| количество документов в коллекции количество документов, в которых встречается терм t i (когда n i0)
6 Косинусная мера
7 ρ(Q,D) – соответствие запроса Q документу D t i – терм (измерение) w Q (t i ) – вес терма t i в запросе Q w D (t i ) – вес терма t i в документе D
8 Структурированный файл на примере XML* Shakespeare Macbeth Macbeths castle Will I with wine and wassail... * Здесь и далее под структурированным файлом подразумевается XML-файл
9 Лексические поддеревья Деревья, содержащие хотя бы один словарный терм
10 Лексические поддеревья С увеличением количества узлов в дереве растет число лексических поддеревьев.
11 Структурные термы Будем рассматривать только такие лексические поддеревья, которые оканчиваются единственным словарным термом Такие поддеревья называются структурными термами и обозначаются парой (t,c), где t – это терм, c - его XML-контекст.
12 Расширение векторной модели на случай структурированных файлов ρ(Q,D) – соответствие запроса Q документу D (t i,c i ) – структурный терм (измерение) w Q (t i,c i ) – вес структурного терма (t i,c i ) в запросе Q w D (t i,c i ) – вес структурного терма (t i,c i ) в документе D cr(c i,c k ) – схожесть контекстов ( context resemblance ) c i и c k, 0cr(c i,c k ) 1
13 Схожесть контекстов 1 способ |c q | - число узлов в контексте, соответствующем терму из запроса |c d | - то же, но для документа если c q соответствует c d иначе
14 Схожесть контекстов 2 способ Рассмотрим запрос в форме T Q = q1q2q3 – контекст появления Т в запросе А = а1а2…а8 – контекст появления Т в произвольном XML документе Пример: Q = language/book/title A = language/media/book/chapter/section/subsection/title/number
15 Схожесть контекстов LCS(Q,A) Longest Common Subsequence LCS(Q,A) = lcs(Q,A)/|Q|, где lcs(Q,A) – длина наибольшей общей подпоследовательности Q и А 0 LCS(Q,A) 1
16 Схожесть контекстов Критерии оценки 1.Контекст А включает больше элементов qi в правильном порядке. (В примере - 3) 2.Элементы qi появляются ближе к началу А, чем к концу. (В примере – совпадение q1q2q3 с а1а3а7 предпочтительнее, чем с а1а3а8) 3.Элементы qi появляются в А ближе друг к другу. (В примере – совпадение q1q2q3 с а2а3а4 предпочтительнее, чем с а1а3а5) 4.Из двух контекстов документа, одинаково совпадающих с контекстом запроса, выше оценивается тот, который имеет меньшую длину.
17 Схожесть контекстов POS(Q,A) POS(Q,A) = 1-((AP-AverOptimalPosition)/(|A|-2*AverOptimalPosition+1)) AverOptimalPosition - среднее положение оптимального совпадения Q и А (если совпадение начинается с первого элемента и продолжается без пробелов) АР - фактическое среднее положение совпадения Q и А 0 POS(Q,A) 1 (0 – в случае полного несовпадения, 1 – в случае «самого левого» совпадения)
18 Схожесть контекстов GAPS(Q,A) GAPS(Q,A) = gaps/(gaps + lcs(Q,A)) gaps - число «пробелов» (в примере gaps = 4) 0 GAPS 1 ( 0 – полное совпадение)
19 Схожесть контекстов LD(Q,A) LD(Q,A)= (|A|- lcs(Q,A))/|A| 0 LD 1 ( 0 – полное совпадение)
20 Схожесть контекстов cr(Q,A) = αLCS(Q,A) + βPOS(Q,A) – γGAPS(Q,A) – δLD(Q,A) 0 α 1, 0 β 1, 0 γ 1, 0 δ 1 α + β = 1 (т.к. cr(Q,A) = 1 в случае полного совпадения)
21 Примеры Показывают, как влияют оценки LCS(Q,A), POS(Q,A), GAPS(Q,A), LD(Q,A) на cr(Q,A) Q = q1q2q3 = book/chapter/title Положим α = 0.75, β = 0.25, γ = 0.25, δ = 0.2 Для простоты будем рассматривать lcs(Q,A) вместо LCS(Q,A), АР вместо POS, gapsвместо GAPS, ld вместо LD
22 Пример A1. Влияние lcs(Q,A) на cr(Q,A) Пример A2. Влияние AP(Q,A) на cr(Q,A)
23 Пример A3. Влияние gaps(Q,A) на cr(Q,A) Пример A4. Влияние ld(Q,A) на cr(Q,A)
24 Пример B1. Влияние AP(Q,A) на cr(Q,A) при меньшем lcs (Q,A)
25 Okapi BM25 d - документ C – коллекция документов W(d,q,C) – релевантность документа d из коллекции С запросу q w j (d,C) – вес j-го терма в документе d коллекции С q j – совпадание терма j из документа с термом запроса
26 Okapi BM25 d - документ C – коллекция документов w j (d,C) – вес j-го терма в документе d коллекции С tf j – частота j-го терма в документе d коллекции С (TF) df j – количество документов коллекции, содержащих j-й терм dl – длина документа avdl – средняя длина документов в коллекции k 1, b – коэффициенты (обычно k 1 = 2, b = 0.75)
27 BM25F модификация BM25, в которой документ рассматривается как совокупность нескольких полей (таких как, например, заголовки, основной текст, ссылочный текст), длины которых независимо нормализуются, и каждому из которых может быть назначена своя степень значимости в итоговой функции ранжирования. tf j – взвешенная частота j-го терма в документе d dl – взвешенная длина документа avdl – взвешенная средняя длина документа k 1 – взвешенный параметр
28 BM25F Пусть имеется nF полей f = 1, …, nF В данном поле f документа d терм t имеет частоту tf d,t,f Пусть V – это словарь (набор термов). Тогда Длина поля f в документе d Частота терма t в документе d
29 BM25F Пусть имеется nF полей f = 1, …, nF В данном поле f документа d терм t имеет частоту tf d,t,f Пусть V – это словарь (набор термов). Тогда Длина документа d Средняя длина документа
30 BM25F Если считать, что полю f присвоен вес w f, получим: N – мощность коллекции atf – средняя частота терма
31 BM25E В BM25F вместо частоты терма в документе используется линейная комбинация взвешенных частот терма в полях Этот метод можно применить к поиску элементов. Элементы можно обрабатывать так же, как и документы. Но каждый элемент может иметь ещё и дополнительные, унаследованные поля
32 BM25E Пусть имеется nЕ элементов е = 1, …, nЕ в коллекции С В элементе е терм t имеет частоту tf d,t,e el – длина элемента avel – средняя длина элемента Тогда расширение ВМ25 на случай поиска элементов:
33 ВМ25Е Соответственно, функция ВМ25Е: tf e,j – взвешенная частота j-го терма в элементе е еl – взвешенная длина элемента avеl – взвешенная средняя длина элемента в коллекции k 1 – взвешенный параметр
34 BM25E Соответственно, M – мощность коллекции atf – средняя частота терма
35 Литература Christopher D. Manning, Prabhakar Raghavan and Hinrich Schütze, Introduction to Information Retrieval, Cambridge University Press David Carmel, Nadav Efraty, Gad M. Landau, Yoelle S. Maarek, Yosi Mass, An Extension of the Vector Space Model for Querying XML Documents via XML Fragments, ACM SIGIR'2002 Workshop on XML and IR, Tampere, Finland, Aug 2002 Wei Lu, Stephen Robertson, Andrew Macfarlane, Advances in XML Information Retrieval and Evaluation (INEX 2005). LNCS 3977, Springer 2006 (pp ).
36 Спасибо за внимание!
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.