Научная литература
booksshare.net -> Добавить материал -> Психология -> Сальвенди Г. -> "Человеческий фактор. Том 3. Часть 1" -> 84

Человеческий фактор. Том 3. Часть 1 - Сальвенди Г.

Сальвенди Г. Человеческий фактор. Том 3. Часть 1 — М.: Мир, 1991. — 487 c.
ISBN 5-03-001815-8
Скачать (прямая ссылка): chelovecheskiyfactort3ch11991.djvu
Предыдущая << 1 .. 78 79 80 81 82 83 < 84 > 85 86 87 88 89 90 .. 198 >> Следующая

Эти правила, называемые также метаправилами, управляют переходом системы от одного контекста к другому, активизируют и дезактнвизируют подзадачи, направляют процесс поиска Обычно — это продукционные правила, используемые для вывода новых фактов из данной информации
Эти правила определяют, какие факты релевантны текущему этапу вывода и когда надо запрашивать соответствующие данные Эти правила имеют вид (ЕСЛИ (Л и J3) ТО А) и увеличивают (или уменьшают) оценку достоверности конкретного факта Приписывают правилам числовые значения, характеризующие важность некоторого факта для вывода заключения
Значения, оценивающие степень надежности заключения правила
Значения, оценивающие влияние отсутствия некоторого факта на надежность заключения правила (при данной совокупности наблюдаемых данных)
разом эти задания разбиваются на более мелкие и подчиненные; как следует изменить всю организацию соответствующей деятельности, чтобы взаимодействие экспертной системы и пользователя было наиболее эффективным и продуктивным. Анализ заданий осуществляется путем наблюдений и бесед с выполняющими их операторами; Хейес-Рот, Уотерман и Ленат [64] описали один метод анализа заданий в рамках излагаемого ими подхода к проектированию экспертных систем. Специалисты по инженерной психологии часто обладают соответствующим опытом и могут быть призваны на помощь на этом этапе процесса проектирования.
Первый вопрос, на который необходимо ответить в ходе подобного анализа, состоит в том, нужна ли вообще экспертная
208 Глава 3
система. Для этого следует выяснить, являются ли выполняемые задания алгоритмическими или эвристическими по своему характеру; если они имеют эвристический характер (основанный на эмпирических правилах и практическом опыте) и если не существует алгоритма их выполнения, то экспертная система может оказаться полезной. Например, в работе [42] приведена таблица, в которой перечислены те задания, выполняемые операторами технологических процессов, которые относятся к разряду алгоритмических, и одновременно выделены задания эвристического характера, которые имеет смысл возлагать на экспертную систему. В то же время, поскольку существует множество моделирующих и программных систем, предназначенных для выполнения разнообразных заданий, может оказаться, что разрабатывать экспертную систему нет нужды.
Анализ заданий должен также выяснить, как изменится характер всей деятельности после внедрения экспертной системы. При этом следует стремиться к тому, чтобы разграничить функции экспертной системы и человека. Одна из проблем, связанных с использованием экспертных систем, как и вообще автоматики, заключается в том, что оператор, которому приходится иметь дело с автоматизированной или экспертной системой, часто не осознает ограниченности ее «знаний» и считает ее более «разумной», нежели она есть в действительности. Уикенс [128] приводит в качестве примера два инцидента, связанные с использованием автоматизированных систем в авиации. Первый из них произошел в 1975 г. в Детройте, когда два самолета (DC10 и L-1011) шли пересекающимися курсами, а авиадиспетчер, управляющий полетами, видел это, но ничего не предпринимал, поскольку считал, что если сближение самолетов станет по-настоящему опасным, автоматика его предупредит. Тут у него начался обеденный перерыв и его сменил другой диспетчер, в последний момент успевший связаться с пилотом DC 10 и предотвратить столкновение. Другой случай — это авиакатастрофа L-1010 в 1972 г., произошедшая потому, что летчик слишком доверился автопилоту. Когда в самолете обнаружилась неисправность, летчик переключил управление на автопилот, тот с ним не справился, и самолет потерпел аварию. В ряде ситуаций необходимо контролировать действия автоматизированных и экспертных систем, чтобы иметь гарантию их правильного функционирования.
Аналогичные проблемы возникают и в экспертных системах. Дженкинс [66] провел эксперимент, в котором имитировался процесс управления атомной электростанцией, осуществлявшийся оператором с помощью экспертной системы. Обнаружилось, что операторы предполагают, будто экспертная система «знает» больше, чем это есть на самом деле; когда случилась авария ъ
Экспертные системы
209-
системе охлаждения, оператор решил, что ЭС о ней знает, поскольку на панели управления появился соответствующий аварийный сигнал; оператор предполагал, что экспертная система имеет доступ к той же самой информации. Поэтому он счел, что экспертная система обратит внимание на аварийную ситуацию, в действительности же она о ней «не знала». Выход из указанных трудностей состоит в тщательной подготовке операторов, включающей в себя и детальную информацию о присущих данной экспертной системе ограничениях; в этом может также помочь анализ заданий.
3.5.2. Интерфейс человек — машина
Специалисты по инженерной психологии уже давно занимаются проблемой организации взаимодействия человек — машина. С внедрением компьютеров во многие сферы деятельности эта проблема часто становится проблемой организации интерфейса между человеком и ЭВМ. То же самое относится и к проблеме взаимодействия человека с экспертной системой, поскольку любая экспертная система включает в себя компьютер.
Предыдущая << 1 .. 78 79 80 81 82 83 < 84 > 85 86 87 88 89 90 .. 198 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed