Научная литература
booksshare.net -> Добавить материал -> Биология -> Лакин Г.Ф. -> "Биометрия " -> 137

Биометрия - Лакин Г.Ф.

Лакин Г.Ф. Биометрия — Высшая школа, 1990. — 350 c.
Скачать (прямая ссылка): biometriya1990.djvu
Предыдущая << 1 .. 131 132 133 134 135 136 < 137 > 138 139 140 141 142 143 .. 155 >> Следующая

когда невозможно или нежелательно разделять его на части, а следует
рассматривать как единое целое.
314
Наилучшим путем анализа здесь является применение компонентного или
факторного анализа. Согласно целям каждого из них, по корреляционной
матрице признаков х находят новые линейные переменные у, которые обычно
бывают не скоррелированными друг с другом (возможно выделение и связанных
переменных у) и описывают определенные закономерности вариации и
коррелированности исходных признаков. Эти новые переменные называют в
зависимости от используемого метода главными компонентами или факторами.
По значениям коэффициентов с* у разных признаков х можно интерпретировать
смысл этих переменных.
В тех случаях, когда интерпретация оказывается затруднительной, можно
трансформировать эти коэффициенты с помощью специальных приемов, что
часто облегчает истолкование выделенных закономерностей коррелированности
признаков х.
Весьма важным является то обстоятельство, что величина каждой главной
компоненты может быть получена у любого объекта исследования (экземпляра,
особи, индивида и т. д.). При этом число главных компонент или факторов,
суммарно описывающих весьма значительную часть информации о
закономерностях вариации и коррелированности признаков, бывает гораздо
меньшим, чем количество этих исходных переменных. Таким образом,
применение компонентного или факторного анализа позволяет значительно
уменьшить количество анализируемых переменных. Кроме того, главные
компоненты являются комплексными интегративными показателями, каждый из
которых зависит от многих признаков, что также весьма ценно.
Эти методы используют весьма широко, и им посвящена значительная
литература. Среди наиболее простых изложений можно отметить [2, 3, 4, 5,
10, 13, 14]. Существуют и более сложные, но и более подробные описания
этих методов [11, 12, 17].
Методы анализа межгрупповой изменчивости. При анализе межгрупповой
изменчивости признаков решают обычно две задачи: дискриминации и
классификации. В первом случае имеются две или большее число
совокупностей, из которых извлечены выборки. По ним требуется получить
так называемое решающее правило, которое позволяет на основании набора
признаков х правильно отнести взятое наугад наблюдение (экземпляр, особь,
индивид и т. д.) к одной из этих двух совокупностей, причем возможность
ошибиться должна быть минимальной. Способы построения таких решающих
правил рассматривают дискриминантным анализом. При этом на основе
информации о генеральных совокупностях, полученной по выборкам, находят
новый признак у, который отличается минимально возможной в данной
ситуации трансгрессией своих распределений в двух совокупностях. Этот
новый признак называют дискриминантной функцией. Величина трансгрессии,
измеренная тем или иным способом, может послу-
315
жить основой для оценки вероятности ошибки при неправильном отнесении
некоторого наблюдения.
Вопросы, связанные с вычислением и применением дискриминантных
функций, относительно доступно изложены в [2, 3, 4, 15].
Задача классификации наблюдений заключается в выявлении естественного,
объективно существующего порядка, присутствующего в наборе выборок,
которые относятся к различным генеральным совокупностям, причем их
взаимоотношения априорно обычно неясны. При решении подобных вопросов
используют методы кластерного анализа, которые также называют методами
распознавания образов или числовой таксономией.
Кластерный анализ включает в себя осуществление двух этапов обработки
материала. Первый из них заключается в получении представления о взаимной
близости расположения центров сравниваемых выборок по значениям комплекса
признаков. Для этой цели используют различные методы. Так, для
измерительных количественных признаков и многих качественных показателей
по любой паре анализируемых выборок может быть найдено значение
таксономического расстояния. Его величина зависит от степени сходства
этих выборок по значениям признаков. Чем меньше оказываются различия
векторов средних, тем меньше будет величина таксономического расстояния.
Существуют различные конструкции таксономических расстояний, среди
которых одной из лучших является расстояние Ма-халанобиса, выгодно
отличающееся от других учетом внутригрупповых закономерностей
коррелированности признаков. Хороший обзор различных конструкций
таксономических расстояний дан в [19]; об этом же можно прочесть в [4].
Для качественных признаков, имеющих альтернативную форму варьирования,
могут быть найдены в качестве мер сходства выборок так называемые
коэффициенты подобия. Здесь по всем признакам подсчитываются количества
совпадающих или несовпадающих вариантов, которые затем определенным
образом нормируются.
Совокупность мер сходства между всеми парами выборок может быть
записана в табличном виде так называемой матрицы расстояний или
коэффициентов подобия. Первая из них может быть изображена в виде
Предыдущая << 1 .. 131 132 133 134 135 136 < 137 > 138 139 140 141 142 143 .. 155 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed