Учебное пособие для вузов м пер сэ, 2001 511 с (Современное образование). Учебное пособие содержит материалы экспериментально-теоретического изучения психологических



Pdf көрінісі
бет99/128
Дата09.05.2022
өлшемі2,63 Mb.
#33122
түріУчебное пособие
1   ...   95   96   97   98   99   100   101   102   ...   128
j
 
– 
вероятностью  того,  что  распределения 
 
 
 
j
j
À
j
B
j
f
v è f
v
 
различны.  Это 
достигается при помощи вычисления χ
2

Интуитивно ясно, что вероятность Ρ 
может  быть  хорошей  мерой  информативности  признака  ν  при  данной 
конкретной 
классификации. 
Необходимо 
отметить, 
что 
признаки, 
информативные 
в 
одном 
случае, 
могут 
оказаться 
совсем 
не 
информативными для решения задачи профотбора других специалистов. 
 
 
( )
( )
2
( )
( )
( )
( )
( )
( )
1
1
j
S
j
j
j
j
i
i
j
A
B
j
j
j
j
i
i
i
A
B
A
B
N
N
A
B
N
N




















 
Вычисление с
2
 
производилось по формуле: 
где 
( )
j
A
N
и 
( )
j
B
N
–  общее  число  лиц  соответственно  в  классах  «А»  и  «В», 
данные  которых  использовались  при  построении  распределений  для  j-го 
признака; 
( )
j
i
A
 
и 
( )
j
i
B
– частоты появления индивидов в i-йрадации j-го признака 
для сравниваемых классов; – число градаций для j-го признака. 
Вероятности 
Ρ

пределялись  по  таблицам  Л.  Большова  и  Н.  Смирнова 
[52].  Оценка  информативности  может  быть  также  получена  и  при  помощи 
расстояния  Кульбака.  В  принятых  здесь  обозначениях  и  несколько 
измененной форме это расстояние имеет вид: 
A
B
j
j
j
I
I
I


 
где 
1
lg
j
s
j
j
j
A
i
i
B
j
j
j
j
i
A
i
A
A
A
N
I
N
B
N











 
и 
1
lg
j
s
j
j
j
B
i
i
B
j
j
j
j
i
B
i
A
B
A
N
I
N
B
N











 
Эта  мера  имеет  ряд  преимуществ,  особенно  при  теоретических 
исследований.  Для  практики  представляет  интерес  возможность  измерения 
значимости  признаков 
ν
1
(j=  1,  2,...,n
)  отдельно  для  вынесения  решения  о 
принадлежности 
ν
 
к {ν
Α

или {v
B

(соответственно слагаемые 
A
j
I
 
и 
B
j
I
). 
Используя  ту  или  другую  меру,  признаки  целесообразно  расположить 
по их  убывающей информативности, а те из них, которые неинформативны 
(Р слишком велико или I -  мало), использовать не надо. Если окажется, что 
информативных  признаков  осталось  мало,  то  необходимо  ввести  новые 
признаки. 
Процесс  «обучения»  можно  считать  законченным,  когда  оценки 
распределений 
( )
A
j
j
f
v
 
и
( )
B
j
j
f
v
 
 
(j=  1,  2,  ...,  n
достаточно  надежны,  признаки 
упорядочены по их информативности и их достаточно много. 
 
Классификация  (решающее  правило).  При  классификации  можно 
допустить две ошибки. Субъект из класса «А» может быть ошибочно отнесен 
к  классу  «B»  и,  наоборот,  субъект  из  класса  «B»  может  быть  ошибочно 
причислен к классу «А». Первую из указанных ошибок классификации будем 
обозначать через α, а вторую через β. 


Вероятности  ошибок  а  и  β  определяются  до  проведения 
классификации.  При  выборе  этих  вероятностей  должна  быть  учтена 
важность той или другой ошибки классификации, а также реальная ситуация, 
возникшая при решении данной конкретной задачи. 
 
Пусть  при  обследовании  субъекта  S  были  получены  признаки 
0
0
0
1
2
,
,...,
n
v v
V
(они приведены здесь в порядке их убывающей информативности). 
Пусть  на  основании  здравого  смысла  выбраны  допустимые  вероятности 
ошибок  α  и  β.  Рассмотрим  отношение  вероятностей,  соответствующих 
первому признаку:
  
1
0
1
1
0
1
( )
( )
B
A
f v
f v
 
Если это отношение бeдет меньше чем: 
1



 
то это будет означать, что полученное значение признака 
0
1
v
 
настолько 
вероятнее для класса «А», что можно с выбранным уровнем надежности (α, 
β)  утверждать,  что  данное  лицо  относится  к  классу  «А»  (пригодно  к  данной 
профессиональной деятельности). Если это отношение 
1




 
то  с  тем  же  уровнем  надежности  принимается  решение  о 
непригодности к рассматриваемой деятельности. 
1
0
1
1
0
1
( )
1
1
( )
B
A
f v
f v








 
 
то информация, заключенная в признаке, недостаточна для отнесения 
к классам «А» и «B» и рассматривается следующий признак 
0
2
v
 
Если 
1
0
2
0
1
2
1
0
2
0
1
2
( )
( )
( )
( )
1
B
B
A
A
f v
f
v
f v
f
v






 
то выносится решение об отнесении индивида в класс «А» если 
1
0
2
0
1
2
1
0
2
0
1
2
( )
( )
1
( )
( )
B
B
A
A
f v
f
v
f v
f
v






 
то в класс «В». Когда же 
1
0
2
0
1
2
1
0
2
0
1
2
( )
( )
1
1
( )
( )
B
B
A
A
f v
f
v
f v
f
v










 
то рассматривается значение третьего признака 
0
3
v
 
и т. д. 
Если, перебрав все признаки, не удается отнести субъекта к тому или 
иному  классу  с  данным  уровнем  надежности,  то  есть  рассматриваемое 
отношение не выходит за пределы требуемых рубежей, то это означает, что 
имеющиеся  результаты  обследования  не  позволяют  сделать  прогноз  с 
выбранным  уровнем  надежности.  В  этих  случаях  можно  понизить  этот 
уровень  и  таким  образом  сделать  прогноз  или  обратиться  за 
дополнительной информацией. 
При  отсутствии  дополнительной  информации  для  минимизации 


вероятности  ошибки  целесообразно  построить  два  распределения 
отношения правдоподобия по всем признакам соответственно для групп «А» 
и  «В»  и  на  основе  этих  распределений  выбрать  один  порог.  Особенности 
распределения обычно таковы, что этим порогом редко бывает 1. 
Как  известно,  в  схемах  последовательного  статистического  анализа 
[58] процедуры обосновываются для однородного случая, когда 
1
2
1
2
( )
( )
...
( )
n
A
A
A
n
f v
f
v
f
v

 
 
и 
1
2
1
2
( )
( )
...
( )
n
B
B
B
n
f v
f
v
f
v

 
 
Однако  нетрудно  показать,  что  зависимость  порогов  от  вероятности 
ошибок  α  и  β  переносится  и  на  случай  неоди  наковых  распределений, 
возникающих в диагностической задаче
Практически  удобно  иметь  дело  не  с  отношениями  вероятностей,  а  с 
логарифмом  этого  отношения.  Тогда  все  вычисления  сводятся  к 
последовательному сложению. 
Итак,  определение  принадлежности  векторов  ν  (ν
1
,  ν
2
,...,  ν
n

к 
множеству 

Α

или 

Β

осуществляется 
следующим 
образом. 
Последовательно вычисляются величины L
1
 L
2
,..., L
k

где: 
 
1
( )
,  a 
lg
( )
j
k
B
j
k
j
j
j
j
A
j
f
v
L
R
R
f
v




 
Каждое вычисленное L

сравнивается с порогами 
1
 è  
1






 
Если пр некотором k1
1
k
L








 
То вычисляется L
k+1

Если же  
1
k
L




 
То 
 
B
v
v


если же 
1
k
L




 


Достарыңызбен бөлісу:
1   ...   95   96   97   98   99   100   101   102   ...   128




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет