Обучение SVM проводилось путем решения следующей проблемы
оптимизации:
min
~ω,b,~ε
1
2
K
(
~ω, ~ω
) +
C
l
X
i
1
ε
i
при условии, что
y
i
(
K
(
~ω, ~x
i
) +
b
)
1
ε
i
Здесь
— вектор размерности
l
, а
— вектор в том же пространстве
признаков, что и
~x
i
. Решение определяет следующий классификатор:
f
(
~x
) =
sign
(
K
(
~ω, ~x
) +
b
)
.
Для обучения и тестирования вероятности распознавания на отдель-
ных символах использовалась база данных символов CEDAR. Обуче-
ние осуществлялось с помощью открытой библиотеки LibSVM. Веро-
ятность распознавания символа классификатором измерялась как
MinRecall
= min
c
=
1
,
1
P
(
f
(
~x
) =
y
|
y
=
c
)
.
В сводной табл. 1 приведены вероятности, достигнутые на 10000
тестовых символов с использованием описанных модификаций SVM.
Таблица 1
Вероятности, %, для модификации SVM
MinRecall
linear
Gaussian
cubic
>
0
100,00
100,00
100,00
>
,5
98,67
99,05
99,05
>
,6
98,48
98,67
98,48
>
,7
98,30
98,30
98,30
>
,8
97,35
97,54
97,35
>
,9
95,83
95,64
95,64
>
,95
92,99
93,18
92,61
>
,97
90,34
89,77
89,96
>
,99
84,28
82,95
84,28
>
,995
78,22
74,62
77,84
>
,999
69,13
64,39
69,89
В итоге по соотношению качество–скорость была выбрана именно
линейная модификация ядра SVM.
Комплексирование результатов.
Описанные два этапа распозна-
вания выполняются независимо друг от друга. Решение о выборе сим-
вола, соответствующего поданному на вход сегменту, принимается на
164
ISSN 0236-3933. Вестник МГТУ им. Н.Э. Баумана. Сер. “Приборостроение”. 2012
1...,2,3,4,5,6,7,8,9,10,11 13,14,15