ISSN 0236-3933. Вестник МГТУ им. Н.Э. Баумана. Сер. “Приборостроение”. 2012
100
так называемых шаблонов решений – средних профилей решений для
объектов обучающей выборки, относящихся к одному классу. Итого-
вая степень поддержки каждого из классов рассчитывается с помощью
евклидова расстояния, различных мер схожести и индексов вхождения
нечетких множеств, правил Демпстера – Шефера [4, 10].
Алгоритм нечеткого усиления.
Одними из лучших алгоритмов
мультиклассификации, демонстрирующих высокие вероятностные
характеристики, являются алгоритмы AdaBoost и нечеткого интегри-
рования [4, 10, 16, 17]. С учетом взаимодополяющих характеристик
алгоритмов AdaBoost и нечеткого интегрирования в литературе были
предложены подходы к их совместному использованию. Было пока-
зано, что с помощью нечеткого интеграла можно объединять слабые
классификаторы, отобранные алгоритмом AdaBoost, с результатом,
как минимум, не хуже, а зачастую лучше, чем результат, обеспечива-
емый собственным правилом агрегации алгоритма AdaBoost [10].
Применение метода бустинга для обучения нечетких классификато-
ров рассмотрено в работе [23]. В некоторых работах последователь-
ная процедура бустинга была применена для отбора приближенных
дескриптивных нечетких правил [24].
В данной статье развит новый подход к объединению алгоритмов
AdaBoost и нечеткого интегрирования, в котором нечеткий интеграл
встроен в алгоритм AdaBoost и используется для классификации на
каждой итерации бустинга вместо собственного линейного агрегаци-
онного правила алгоритма AdaBoost [25]. Общий вид двухклассового
алгоритма FuzzyBoost приведен ниже.
По обучающей выборке из
N
примеров
(
)
,
,
1, ...,
i
i
x y i
N
=
,
содержащих век-
торы признаков
i
x
и метки классов
{
}
1; 1 :
i
y
∈ − +
1.
Инициировать веса
1 ,
1, ...,
i
w N i
N
=
=
.
2.
Цикл по
1, ...,
m M
=
.
2.1.
Построить или выбрать существующий слабый классификатор
( )
m
h x
=
( )
( )
( )
( )
( )
( )
{
}
1
, ...,
, ...,
j
L
m
m
m
h x
h x
h x
=
с
L
целевыми значениями
( )
( ) {
}
1; 1
j
m
h x
∈ − +
с использованием весов
i
w
примеров обучающей выборки и с учетом степеней
уверенности для каждого
j
-
го целевого значения для каждого
i
-
го примера
( )
( )
[ ]
0, 1
j
m i
p x
∈
.
2.2.
Вычислить отклики для каждого целевого значения слабого классифика-
тора в поддержку каждого из классов
( )
( )
,
j
j
m m
f
f
+
−
.
2.3.
Вычислить исходные данные для последующего расчета нечетких мер
+
μ
и
−
μ
в соответствии с их типом и свойством аддитивности.
2.4.
Для примеров обучающей выборки вычислить степень поддержки
m
-
м
слабым классификатором каждого из классов с учетом степеней уверенности для