Поиск значимой информации; Создание новых знаний вне информации, доступной на Web; Персонализация информации; Изучение потребителя или индивидуального пользователя.
Выделяют следующие этапы: 1)Поиск ресурсов локализация неизвестных документов и сервисов в Web. 2)Извлечение информации автоматическое извлечение определенной информации из найденных Web-ресурсов. 3)Обобщение обнаружение общих шаблонов в отдельных и пересекающихся множествах сайтов. 4)Анализ интерпретация найденных шаблонов.
В области Web Mining выделяют следующие направления анализа: Извлечение Web-контента (Web Content Mining);. Извлечение Web-структур (Web Structure Mining); Исследование использования Web-ресурсов (Web Usage Mining).
Характеристики задач Задачи Web Mining Извлечение Web-контента В целях информационного поиска В целях размещения в БД Извлечение Web-структур Исследование использования Web-ресурсов Тип данных Неструктурированные. Слабоструктурированные Слабоструктурированные. Web-сайт как БД Структуры ссылок "Следы" взаимодействия Анализируемые данные Гипертекстовые и текстовые документы Гипертекстовые документы Структуры ссылок Протоколы сервера. Протоколы браузера Подходы к представлению данных Наборы слов, n-граммов. Термины, фразы. Понятия или онтологии. Отношения Отношения. Маркированный граф Граф Реляционные таблицы. Графы Метод TFIDF и его варианты. Машинное обучение. Статические методы, в том числе и NLP Частные алгоритмы. NLP. Модифицированные ассоциативные правила Частные алгоритмы Статистические. Модифицированные ассоциативные правила. Машинного обучения Прикладное применение задач Кластеризация. Классификация. Правила поиска извлечения. Поиск шаблонов в тексте. Моделирование пользователя Поиск частных подструктур. Обнаружение схем Web-сайтов Кластеризация и классификация Конструкция сайта, адаптация и управление. Маркетинг. Моделирование пользователей
К неструктурированному типу относятся все текстовые документы, не имеющие определенной структуры; К почти структурированным относятся документы, имеющие структуру в целом, но позволяющую вхождение в структурный элемент неструктурированного текста. К таким документам относятся HTML, XML и другие.
Каждому слову во множестве неструктурированного текста ставится в соответствие некоторое свойство. Данное свойство может иметь или логический тип, отражающий наличие или отсутствие слова в тексте, или числовое значение, отражающее частоту появления слова в тексте. Последующая обработка может быть связана с удалением пунктуации, нечастых слов, стоп-слов и др. Уменьшение числа свойств возможно за счет применения различных методов выбора свойств, основанных на расчете следующих метрик: информационного прироста (information gain);. полного количества информации (mutual information); перекрестной энтропии (cross entropy); вероятности успешного исхода (odds-ration).
Если же неструктурированный текст представлен в виде вектора слов, то нужно отметить что векторное представление документов имеет существенный недостаток: оно не обрабатывает синонимы документы считаются семантически далекими друг от друга, если в них нет одинаковых слов. Данный недостаток устраняется методом скрытой семантической индексации (Latent Semantic Indexing LSI).
Кроме представления документа в виде вектора слов, возможны и другие представления: использующие информацию о позиции слова в документе; использующие n-граммное представление (последовательности слов длины вплоть до n) (например, "морфологический корень" 3-грамма); использующие целые фразы (например, "быстрая лиса исчезла из вида"); использующие понятие документа категорий; использующие термины (например, "норма годового процента" или "Уолл-стрит"); использующие гиперонимы (hypernym слово, являющееся более общим, абстрактным по отношению к данному) (лингвистический термин отношения "это есть" "собака есть животное", поэтому "животное" это hypernym "собаки"); использующие адресные объекты (например, имена людей, даты, почтовые адреса, расположения, организации или URL).
В TDT выделяют следующие направления исследований: разбиение потока на сюжеты; идентификация новых событий; определение связей между новостными историями; отслеживание интересующей пользователя информации.
Область применения методов довольно широка: гипертекстовая классификация; классификации и кластеризации; изучение отношений между Web-документами; извлечение шаблонов или правила; поиск шаблонов и слабоструктурированных данных.
Из табл.4 можно видеть, что методы извлечения Web- контента для целей базы данных используют представления, которые отличаются от представлений, используемых для целей информационного поиска. Данные методы в основном используют представления в виде модели объектного обмена (Object Exchange Model OEM). В большинстве своем рассмотренные методы применяются в задачах, связанных с выявлением, исследованием или формированием схем DataGuides.
Гиперссылки моделируются с разным уровнем детализации в зависимости от применения модели. В простейших моделях гиперссылки могут быть представлены как направленный граф: G = (D, L), где D это набор узлов, документов или страниц, L набор ссылок.
1. Оценка важности структуры Web (документа или узла), воздействие и влияние их друг на друга; 2. Поиск Web-документов с учетом гиперссылок, содержащихся в них; 3. Кластеризация структур для их возможного явного объединения.
Для кластеризации применительно к Web- документам используются две функции подобия из библиометрики, вычисляемых для каждой пары документов p и q : библиографическая связанность (bibliographic coupling) количество документов, цитируемых обоими документами p и q ; взаимное цитирование (co-citation) количество документов, которые цитируют оба документа p и q.
Процесс исследование использования Web- ресурсов обычно включает в себя только три фазы: Препроцессинг; Извлечение шаблонов; Анализ шаблонов.
Выделяют следующие типы данных, применяемые в задаче исследования использования Web- ресурсов: использование данные, которые описывают использование страниц, такие как IP-адреса, ссылки на страницы, а также дату и время доступа к ним; пользовательские профили данные, которые обеспечивают демографическую информацию (пол, возраст, социальное положение и др.) о пользователе, а также регистрационную информацию.
После того как ресурсы найдены, из них должна быть извлечена информация, подвергаемая анализу. Этот этап называют препроцессинг, т. к. он заключается в подготовке найденных ресурсов непосредственно к анализу.
В табл. 5 приведен пример серверного лога (первая колонка добавлена для удобства), на котором можно увидеть проблемы. IP-адрес относится к трем серверным сессиям. Адреса и относятся к одной четвертой сессии. Выделение 3-х сессий для одного адреса (с 1-й по 11-ю строку таблицы) возможно на основании совместно используемой информации о ссылке, по которой произошел переход с предыдущей страницы, и агенте. В данном примере без использования информации о куки-файлах, встроенной в запрос ID сессии, или информации со стороны клиента не удастся определить, что строки 12 и 13 принадлежат одной сессии, т. к. они различаются IP-адресами
Для извлечения шаблонов из информации об использовании Web-ресурсов применяются различные методы как классической статистики, так и относящиеся к области Data Mining. Многие инструменты анализа трафика позволяют получить такие характеристики, как наиболее часто посещаемые страницы, среднее время посещения страниц или средняя длина пути перемещения по страницам. Так, например, может быть построена модель зависимости между этапами, которые проходит посетитель, и фактом совершения покупки в интернет-магазине (т. е. модель, отличающая случайного посетителя от потенциального покупателя). Существует несколько вероятностных методов обучения модели, которые могут быть использованы для построения модели поведения пользователя при просмотре Web, включая скрытые модели Маркова (Hidden Markov Models) и Байесовские сети доверия (Bayesian BeliefNetworks).
Более общей формой анализа шаблонов является механизм запроса знаний, такой как SQL. Другой метод заключается в загрузке данных в куб данных для применения к нему OLAP-операций. Методы визуализации, такие как раскрашивание или графическое изображение шаблонов, могут выделять характерные шаблоны или тренды в данных.
источнику данных: сторона сервера, сторона клиента и прокси; типу данных: структуры, контент и информация об использовании; количеству пользователей: однопользовательские и многопользовательские; количеству сайтов: один или множество сайтов; области применения.
Персонализация (Personalization); Улучшение систем (System Improvement); Модификация сайтов (Site Modification); Бизнес-интеллект (Business Intelligence);
Web Mining включает в себя этапы: поиск ресурсов, извлечение информации, обобщение и анализ; Различают следующие категории задач Web Mining: извлечение Web-контента, извлечение Web-структур и исследование использования Web-ресурсов; В решении задачи извлечения структуры Web используются подходы из области социальных сетей, библиометрики, ранжирования документов и т. п. Существуют два основных подхода анализа использования Web-ресурсов: преобразование данных использования Web-сервера в реляционные таблицы до выполнения адаптированных методов Data Mining и использование информации из файла протокола непосредственно, применяя специальные методы предварительной обработки.
1. Поиск ресурсов; 2. Извлечение информации; 3. Обобщение и анализ.
извлечение Web-контента; извлечение Web-структур; исследование использования Web-ресурсов; создание запросов для БД.
неструктурированные и слабоструктурированные Web-документы; Структуры ссылок; IP-адреса, URL и а также дату и время доступа к ним.
1. Скрытые модели Маркова (Hidden Markov Models); 2. Байесовские сети доверия (Bayesian Belief Networks); 3. Деревья решений.