Научная литература
booksshare.net -> Добавить материал -> Психология -> Сальвенди Г. -> "Человеческий фактор. Том 3. Часть 1" -> 108

Человеческий фактор. Том 3. Часть 1 - Сальвенди Г.

Сальвенди Г. Человеческий фактор. Том 3. Часть 1 — М.: Мир, 1991. — 487 c.
ISBN 5-03-001815-8
Скачать (прямая ссылка): chelovecheskiyfactort3ch11991.djvu
Предыдущая << 1 .. 102 103 104 105 106 107 < 108 > 109 110 111 112 113 114 .. 198 >> Следующая

Для учета специфики метода БППВ рассмотренная в предыдущем разделе модель процесса обработки информации должна быть несколько модифицирована. Так, при БППВ и отдельные слова могут предъявляться настолько быстро, что произойдет их фактическое маскирование, делая невозможным нормальное декодирование. Следовательно, в вершине ri\ необходимо добавить еще одну выходную дугу, причем вероятность r3(d) покинуть систему по этой дуге уменьшается с ростом d. Далее необходимо учесть зависимость времени попадания в кратковременную память от места в сообщении первого слова, увиденного испытуемым. Этого можно достичь, сделав параметр скорости запоминания с*2 убывающим с ростом номера позиции в сообщении первого увиденного слова [25].
Для оптимизации u(w, d) необходимо сделать два дополнительных предположения. Во-первых, будем считать, что водитель с одинаковой вероятностью может обратить внимание на предъявляемое сообщение в момент появления любого его слова. Предположим, во-вторых, что водителю предъявляется одно полное сообщение (это предположение легко может быть изменено). В этом случае для вычисления вероятности p(w, d) запоминания сообщения из w слов, представляемого за время d, можно применить теорему 3. Именно максимизирующее
264 Глава 4
u(w, d) значение d и должно использоваться в приложениях, связанных с дорожными знаками.
Поясним рассмотренный анализ числовым примером. Пусть задана длина сообщения т=2 и пусть в результате проведенных исследований найдена зависимость от d (измеряемого в миллисекундах) вероятностей Гз, гг, гю-
rs=l/d, /^ = 0,1(1-1/d), /^ = 0,9 (1-1/d).
Пусть также Vu=v2i=v = a>/d=2/d, jx11 = P-2i = P-i = (jLi2 = (J-22 = p-2 = = 1/100. В этом случае доля запоминания р(2, d) записывается как
р(2, d) = 0Хр(012, d)+lxp(l|2, d) + 2x(2|2, d).
Выполним вычисление условной вероятности p(2|2,d) того, что запоминаются ровно 2 слова при длине сообщения 2 слова и длительности сообщения d. Для этого заметим, что на ДПСП рис. 4.14, б имеется всего 3 пути, на которых запоминается ровно 2 слова:
®3 = (®1> S2, Sj, Sg, Sg, Sg, Sjq),
O4 = (Sj, S2, S4, Sj, Sg, Sg, Sj q),
= (^1> ®2> %> ®7» ®6> ®8> *lo)-
Воспользовавшись теоремой 3, для [вероятности пути о3 получим выражение
Р(°з)= ЯaQz\Q 13QгеЯesQа, 10~ 1 X[г 12Hi/(mv)I X1 Xl Xl X1. Подставляя сюда значения r12, ju. 1( v, находим
р (о3) = [0,9(1 -1/2)] [ 1/50] [(1/50) + (2/d)].
Аналогично можно найти вероятности р(о4), р(рь) путей о4, 05, а затем по ним вычислить условную вероятность р(2|2, d) того, что запоминаются ровно 2 слова при длине сообщения
2 слова и длительности сообщения d, а также условные вероятности р(0|2, d) и р(1|2, d), по которым рассчитывается в этом случае доля правильного запоминания р(2, d). Для вычисления оптимальной длительности взгляда d необходимо задать величины весовых коэффициентов w 1, w2, скажем, kji = 1000, w2— 1. Оптимальное значение d найдем из условия максимизации функции дохода вида
Q= 1000p(2, d)-d.
4.6. Параллельная обработка данных: сети ДПСП
В предыдущем разделе мы использовали ДПСП для наглядного представления последовательности процессов обработки в сетях типа PERT и в ациклических сетях Джексона с конечным чис-
Стохастические сетевые модели
265
лом входов и с очередями. Однако ДПСГТ вовсе не обязательно порождаются каким-либо видом рассмотренных выше сетевых структур. Фактически в самом общем случае ограничения на порядок выполнения произвольных процессов могут быть заданы в терминах состояний и переходов между ними, что ведет к определению сетей ДПСП. Подчеркнем, что ДПСП, полученные по сетям типа PERT и по ациклическим сетям Джексона, являются частными случаями сетей ДПСП, как они будут определены ниже.
4.6.1. Сети ДПСП: моделирование
Сети ДПСП можно определить как направленный ациклический граф с одним начальным и одним конечным состояниями — соответственно Si и s«0. Каждое состояние в сети определяет единственное разбиение на подмножество Fь F2, Fn0 множества F стимульных процессов гц. Стимульный процесс гц— это возмущение процесса х,- стимулом Пусть, как и ранее, Bi — множество текущих стимульных процессов в состоянии s-t\ пусть Ci — множество текущих стимульных процессов в состоянии s,; пусть Di—множество стимульных процессов в очередях в состоянии Si. Каждое из множеств Bi, Ci, Di является объединением одного или нескольких множеств Fj. Переход из состояния Si в состояние s, за один шаг возможен при выполнении следующих двух условий. Во-первых, множество В состояния Sj должно быть идентично множеству В состояния s,-, за исключением добавления единственного стимульного процесса гы из множества текущих процессов Ci состояния s,-:
Bj = Bi -f-1 Zki |.
Во-вторых, множество С,- состояния Sj должно содержать все элементы множества Сг в состоянии su за исключением стимульного процесса гы. Укажем, что множество Cj состояния Sj может содержать также любое число стимульных процессов гы,. не входящих в множество текущих процессов Ci состояния s* Более общее определение сетей ДПСП приведено в работах
[И, 12].
Предыдущая << 1 .. 102 103 104 105 106 107 < 108 > 109 110 111 112 113 114 .. 198 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed