Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 12 лет назад пользователемwww.chemometrics.ru
1 Методы многомерной классификации Кучерявский С.В.
2 План Теоретические основы –Что это такое –Виды и этапы классификации –Как оценить результаты –Геометрическая интерпретация Методы многомерной классификации –МГК –SIMCA Примеры, обсуждения и выводы
3 Часть I. Теоретические основы
4 Можно ли по спектру отличить кетон от эфира? Можно ли определить пол человека по его ответам на вопросы анкеты об автомобилях? Можно ли по хроматограмме узнать происхождение вина и если да, то какие именно особенности хроматограммы позволяют это сделать? Как, зная размеры лепестков, определить к какому виду относится изучаемый цветок? Как зная содержание элементов в почве определить из какого она района?
5 Этапы классификации Кластеризация изучение исходных данных на предмет наличия в них групп, классов и определение признаков, которые за это отвечают Построение модели нахождение зависимости между значениями признаков объектов и принадлежность их к определенной группе Классификация новых образцов отождествление неизвестных образцов с одним из известных классов
6 С чем работаем? Объект все, что угодно: пациент, вещество, предмет и т.д. Вектор признаков набор переменных и их значений, характеризующих объект Группа или класс совокупность объектов обладающих схожими характеристиками, например (все или только некоторые) значения признаков которых лежат в определенных границах Пример: объект человек вектор признаков рост, вес, длина волос, умение плавать, размер обуви, кулинарные предпочтения возможные группы по полу, по материку, по стране и т.п.
7 Геометрическая интерпретация Вектор признаков – переменные (степени свободы) образующие N- мерную систему координат (N – число переменных в векторе признаков) Объекты – точки в пространстве признаков Группы или классы – ограниченные подпространства в пространстве признаков: гиперкуб, гиперсфера и т.п.
8 Алгоритмы классификации Без обучения (Unsupervised) C обучением (Supervised) Априори не известно существуют ли скрытые группы в данных и сколько их Основной механизм – поиск аналогий в поведении значений параметров объектов Основная цель – установить наличие групп (классов), а так же причину – переменные или их комбинации, которые на это влияют (являются схожими для объектов той или иной группы) Априори известно о том, какой группе принадлежит объекты из исходного набора данных Основной механизм – построение модели, связывающей значения параметров объектов образующих ту или иную группу Основная цель – использование полученной модели для классификации новых образцов
9 Возможные ситуации 1.В начале ни одного класса не определено первым шагом в этом случае является предварительный анализ данных на предмет обнаружения потенциальных групп. В зависимости от результата возможны варианты: Имеется одна ярко выраженная группа Имеется несколько ярко выраженных групп Эти же варианты могут быть известны априори
10 Возможные ситуации 2.Имеется одна ярко выраженная группа В этом случае основная задача классификации найти и выделить типичную зависимость в данных для объектов, принадлежащих к одной группе и использовать ее для классификации новых объектов 3.Имеется несколько ярко выраженных групп Необходимо использовать методы распознавания образов для выяснения принадлежности новых объектов к тому или иному классу. Задачу можно свести к предыдущей ситуации.
11 Как определить класс? Есть данные и некоторая информация о них, как на ее основе определить класс? Что такое схожесть объектов, принадлежащих одному классу? Все зависит от уровня начальных знаний: A. Известно некоторое характерное свойство B. Имеется репрезентативный набор данных C. Известны релевантные переменные D. Известна зависимость между ними Фундаментальные знания о классе
12 Как определить класс? Уровень A Известно некоторое характерной свойство, если объект обладает этим свойством, он принадлежит классу, в противном случае – нет Примеры: пол человека или животного, спин частицы, способность лекарства снимать боль и т.п. Возможные проблемы: очень часто одно свойство не определяет класс, в котором объекты распределены неравномерно, особенно если данное свойство может быть результатом действия разных механизмов
13 Как определить класс? Уровень B Аналитик имеет в своем распоряжении набор данных среди которых находятся объекты заведомо принадлежащие данному классу – репрезентативную выборку Пример: данные химического или спектрального анализа качественных лекарств и подделок, но какие образцы являются подделками, а какие качественными препаратами – неизвестно Возможные проблемы: необходимо, чтобы выборка как можно полнее покрывала различные вариации, характерные для объектов класса
14 Как определить класс? Уровень C В дополнение к уровню B известно так же какие именно переменные из исходного набора определяют принадлежность к классу, т.е. являются релевантными Пример: данные химического или спектрального анализа качественных лекарств и подделок, причем известно какие образцы относятся к подделкам, а какие – к качественным лекарствам Возможные проблемы: обычно выявление релевантных переменных происходит методом проб и ошибок и требует времени.
15 Как определить класс? Уровень D На данном уровне класс определяется совокупностью релевантных переменных и зависимостью между их значениями. Этот уровень знаний позволяет классифицировать новые, неизвестные объекты Пример: модель, связывающая данные анализа с принадлежностью образцов к тому или иному классу Что дальше? Одна из самых простых возможностей углубить уровень знаний после уровня D – интерпретировать известную зависимость и использовать результаты интерпретации
16 Распознавание образов Итак класс или классы определены, каким образом классифицировать новые значения? Будем использовать геометрическую интерпретацию! В начале рассмотрим два уровня распознавания образов: 1.Классификация как однозначное определение принадлежности к одному из классов 2.Классификация с определением класса и учетом возможности выбросов
17 Распознавание образов. Уровень 1 Предполагаем, что все объекты (как исходного так и тестового набора) принадлежать одному из заранее определенных классов – лежать в соответствующем гиперобъеме Проблема: в реальных ситуациях такое встречается очень редко
18 Распознавание образов. Уровень 2 Предполагаем, что помимо объектов, принадлежащих тому или иному классу, возможны выбросы – объекты, не соответствующие ни одному классу, т.е. не попадающие ни в один гиперобъем Проблемы: один из классов может не иметь определенной геометрической структуры
19 Распознавание образов. Уровень 2а Асимметричный случай – один из классов не имеет характерной структуры Пример: контролируемый процесс (параметры в жестких рамках) или неконтролируемый (может происходить что угодно)
20 Какие еще могут быть проблемы? Некоторые гиперобъемы могут перекрываться Не всегда можно определить правильный геометрический эквивалент группы или класса
21 Как оценить эффективность? Рассмотрим работу одноклассового классификатора: –Ошибки первого рода образцы, являющиеся членами класса, но ошибочно отклоненные классификатором –Ошибки второго рода образцы, ошибочно определенные классификатором как члены класса
22 Кривая мощности критерия
23 Какие ошибки уменьшать? Все зависит от конкретного случая: –Уменьшение ошибок первого рода: риск упустить важную информацию выше, чем последствия ее переоценки. Примеры определения ядовитых веществ, медицинский диагноз –Уменьшение ошибок второго рода: с точностью до наоборот. Примеры судопроизводство
24 Как это все реализовать? Как определить гиперобъем? Как определить схожесть объектов? Как вычислить попадает ли объект к данному классу, если объемы перекрываются? Как классифицировать выбросы? Как уменьшить ошибки первого или второго рода?
25 Как это все реализовать? Будем и дальше использовать геометрическую интерпретацию Как определить класс? Используем линейную границу: все, что выше первый класс, все, что ниже второй
26 Как это все реализовать? Используем проекционный подход: объекты, с меньшей координатой класс А, с большей класс B Class A Class B line 1 line 2 Class A Class B
27 Как это все реализовать? Находим центроиды центры моделей: Объекты, расстояние от которых до первого центра меньше, чем до второго, принадлежат классу A и наоборот Class A Class B centre
28 Как это все реализовать? Нет четкого разделения между классами: –Устанавливаем ограничение на максимальное расстояние от центра и все остальное считаем выбросами – уменьшение ошибок второго рода –Устанавливаем приоритетный класс и максимальное расстояние до его центра ставим больше, чем до центра второго класса уменьшение ошибок первого рода Class A Class B Class A Class B centre
29 График расстояний: используем проекцию Оси расстояния от объекта до центров каждого из классов Class B Class A Нераспознанные объекты
30 График расстояний: работаем в пространстве Centre class A Centre class B Class A Class B Выбросы Объекты, характерные для обоих классов
31 Как вычислить расстояние? Евклидово расстояние: Здесь k и l номера объектов, x k, x l их векторы признаков Основные характеристики Каждая переменная вектора признаков дает одинаковый вклад наряду с остальными считается что они ортогональны Если между переменными имеется корреляция то они будут иметь непропорциональное влияние на результаты анализа
32 Как вычислить расстояние? Расстояние Махаланобиса Здесь k и l номера объектов, x k, x l их векторы признаков, С ковариационная матрица признаков Основные характеристики Учитывает возможную корреляцию между переменными Если корреляция между переменными отсутствует, то расстояние Махаланобиса равно расстоянию Евклида
33 Как вычислить расстояние? Расстояние Махаланобиса
34 Альтернатива – метод ближайших соседей Подсчитывается число ближайших k соседей рассматриваемого объекта Тот класс, к которому принадлежит большинство соседей и соотносится с объектом –Метод ближайшего соседа
35 Использование исходных данных Вектор признаков зачастую состоит из десятков, сотен переменных, что делает невозможным визуальный анализ данных Матрица исходных данных содержит лишь несколько релевантных переменных и большое число нерелевантных Данные могут содержать шум Данные могут быть линейно зависимы Выход: использовать проекционные методы!
36 Часть II. Методы многомерной классификации
37 Методы многомерной классификации Unsupervised –МГК Supervised –SIMCA –PLS DA –SVM –Neural networks –…
38 Набор данных: Elements Свойства некоторых элементов таблицы Менделеева: – 25 образцов х 5 переменных – 5 групп ElementGMeltingBoilingDensityOxidationElectronegativity Li Na Be Mg F Cl He Ne Zn Co
39 Предварительный анализ (2D) A C B D
40 МГК-анализ Cчета Нагрузки
41 МГК-анализ ElementGMeltingBoilingDensityOxidationElectronegativity Li Na Be Mg F Cl He Ne Zn Co Автошкалирование!
42 МГК-анализ Cчета Нагрузки
43 МГК-анализ Cчета Нагрузки
44 Soft Independent Modeling of Class Analogy Предложен Svante Wold, 1970-е годы Объект может относится одновременной к нескольким классам, что очень часто может встречаться в реальной жизни Основная идея: моделировать каждый класс независимо от других и для каждого объекта определять принадлежит он данному класс или нет
45 SIMCA: основные этапы 1. Каждый класс моделируется методом главных компонент Для каждого класса может использоваться разное число компонент, которое определяется в соответствии с методами, изложенными в курсе по МГК При построении обязательно необходимо проверить модель на предмет наличия выбросов и/или необходимости предобработки данных
46 SIMCA: основные этапы 2. Вычисляется расстояние от объекта до каждого класса В данном случае расстояние от нового образца (звездочка) до плоскости ближе, чем до прямой Может использоваться так же вероятностный подход
47 SIMCA: исходные данные – вино 3 класса, 178 образцов х 13 переменных Тренировочный набор: 148 образцов Проверочный набор: 30 образцов TypeAlcoholMalic acidAshAlcalinityMagnesium Total phenols Flavanoids Nonflavanoid ph Proanthocyanin s Color intensity Hue OD280/OD31 5 Proline 114,231,712,4315,60127,002,803,060,282,295,641,043,921065,00 113,201,782,1411,20100,002,652,760,261,284,381,053,401050,00 113,162,362,6718,60101,002,803,240,302,815,681,033,171185,00 212,370,941,3610,6088,001,980,570,280,421,951,051,82520,00 212,331,102,2816,00101,002,051,090,630,413,271,251,67680,00 212,641,362,0216,80100,002,021,410,530,625,750,981,59450,00 312,812,312,4024,0098,001,151,090,270,835,700,661,36560,00 312,703,552,3621,50106,001,701,200,170,845,000,781,29600,00 312,511,242,2517,5085,002,000,580,601,255,450,751,51650,00
48 SIMCA: основные результаты Графики моделей Классификационная таблица Расстояние между моделями Модельная мощность переменных Дискриминационная мощность переменных Расстояние от образца до моделей (классов) Размах образца График Кумана
49 SIMCA: основные результаты Общая МГК-модель
50 SIMCA: основные результаты samplewine1wine2wine3 1 * 1 * 1 * 1 ** 1 * 1 * 1 * 1 * 1 * 1 ** samplewine1wine2wine3 2* 2 2* 2* 2* 2** 2 2* 2 2* Samplewine1wine2wine3 3* 3* 3* 3* 3* 3* 3* 3* 3* 3* Таблица классификации
51 SIMCA: основные результаты Расстояние между моделями Все объекты одной модели соотносятся с ней же, затем соотносятся с другой моделью, затем результат сравнивается с единицей. Чем больше данный параметр тем более хорошо различаются модели
52 SIMCA: основные результаты Модельная мощность переменной Данный параметр показывает насколько сильное влияние оказывает данная переменная на моделирование данного класса Рассчитывается по формуле Разброс значений: 1 – сильное влияние … 0 – влияния нет
53 SIMCA: основные результаты Дискриминационная мощность переменной Данный параметр показывает способность переменной разделять два класса (способность переменной моделировать класс не влечет за собой автоматом способность разделять) Рассчитывается по формуле Разброс значений: чем больше значение, тем больше способность к дискриминации
54 SIMCA: основные результаты Расстояние от образца до модели Рассматривается насколько далеко образец находится от модели данного класса (используется отношение дистанции до центроида и вариация) Размах образца Рассматривается насколько проекция образца на данную модель далека от ее центроида (т.е. насколько он отличается от других образцов данной модели)
55 SIMCA: основные результаты Зависимость расстояния от размаха
56 SIMCA: основные результаты График Кумана
57 Резюме
58 Классификация шаг за шагом Предварительная обработка данных Большинство проекционных методов весьма чувствительны к предварительной обработке данных. Поэтому, если нет априорной информации, какие переменные имеют более сильное влияние, а какие – нет, необходимо центрировать данные и шкалировать Предварительный анализ данных Второй этап представляет собой построение МГК и/или ПЛС модели исходных данных и предварительный обзор результатов на предмет наличия групп, выбросов и прочих аномалий
59 Классификация шаг за шагом Раздельное построение моделей для классов Для классов, которые были выявлены на втором этапе, строятся раздельно модели для лучшей кластеризации и анализа поведения объектов внутри класса. Очень важно на этом этапе использовать кросс-валидацию Интерпретация моделей На данном этапе полученные модели анализируются и интерпретируются на предмет выявления наиболее значимых для них переменных
60 Классификация шаг за шагом Классификация объектов На данном этапе объекты или результаты наблюдений проецируются на полученные классы. Для определения, насколько хорошо они соответствуют модели, для каждого случая вычисляется расстояние от объекта до нее. Здесь нужно учесть, что могут быть как объекты, описывающие несколькими моделями, так и те, которые не удовлетворяют ни одной из них Классификация новых образцов Для достоверной оценки способности классификации необходимо использовать независимый, тестовый набор данных, если есть такая возможность
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.