Научная литература
booksshare.net -> Добавить материал -> Физика -> Валиев К.А. -> "Квантовые компьютеры: надежды и реальность" -> 13

Квантовые компьютеры: надежды и реальность - Валиев К.А.

Валиев К.А., Кокин А.А. Квантовые компьютеры: надежды и реальность — И.: НИЦ, 2001. — 352 c.
Скачать (прямая ссылка): kvantoviekomputeri2001.pdf
Предыдущая << 1 .. 7 8 9 10 11 12 < 13 > 14 15 16 17 18 19 .. 132 >> Следующая


Я*) = ^2Ро,(*)\Фо,){Фо,\, ^~2Pa(t) = 1. (1.20)

а а

Обратим здесь внимание на то, что матрица плотности смешанного состояния р(ж,ж',?), в отличие от матрицы плотности чистого состояния, не может быть представлена в виде произведения типа (1.15).

В процессе квантовых измерений (считывания информации на выходе компьютера) в результате взаимодействия квантовой системы с внешним макроскопическим измерительным прибором состояние системы необратимым образом преобразуется (проектируется) с вероятностями pn(t) в выбранный для измерения ортогональный набор состояний-указателей фп(х) прибора («pointer» states). Этот результат принято называть редукцией или коллапсом волновой функции измеряемого квантового состояния. Такое представление о процессе измерения, сформулированное фон Нейманом [1.18], имеет, однако, феноменологический характер и поэтому не решает полностью проблему квантовых измерений. Требуется более детальный анализ этой проблемы, а также получение ответа на более общий вопрос о том, где граница между квантовыми и классическими свойствами достаточно сложной замкнутой системы.

Значение энтропии фон Неймана (1.18) не зависит от вида выбранного представления для матрицы плотности квантовой системы. В то же время в классическом случае информационная энтропия Шеннона определяется только вероятностями отдельных микросостояний рп (временной аргумент опустим). Этим вероятностям соответствуют диагональные элементы матрицы плотности рпп в представлении, задаваемом кодирующей системой. Выражение для энтропии, в которой полностью игнорируются недиагональные элементы матрицы плотности, аналогичное выражению для классической энтропии Шеннона, будем называть энтропией Шеннона. Эту энтропию иногда называют также смешанной для того, чтобы отличать ее в квантовом случае от классической информационной энтропии Шеннона. Запишем ее в оператор-
1.2. Основные понятия квантовой теории информации

33

ном виде:

Я = -^Рпп log2 Рпп = - Sp р(п) log2 р(п) ^ О,

(1.21)

= sp р(п) = 1,

П

где мы ввели вспомогательный положительно определенный оператор плотности /?(п), который в отличие от р имеет в п-представле-нии только диагональные элементы матрицы рпп(п) = рПп^пп и поэтому (log2р(п))пп = log2 Рпп$пп- Для любого положительно определенного оператора р(п), отличающегося от р отсутствием недиагональных элементов в n-представлении, можно написать соотношение (лемма Клейна) [1.20]

S(p) ^ Н. (1.22)

Знак равенства в (1.22) относится к случаю р(п) = jo, то есть когда n-представление совпадает с собственным представлением для оператора jo, иначе говоря, когда оператор р коммутирует с оператором, для которого n-представление является собственным и, следовательно, волновые функции фп образуют ортонормированную систему.

Энтропия фон Неймана S(p) квантовой системы определяет количество закодированной в ней информации. Смысл неравенства (1.22) в том, что из-за игнорирования недиагональных элементов матрицы плотности в энтропии Шеннона неопределенность состояния оказывается больше, чем при их учете. В результате квантовая энтропия фон Неймана, включающая дополнительную определенность состояния, вносимую недиагональными элементами матрицы плотности, оказывается меньше соответствующего значения энтропии Шеннона. Это означает, что, вообще говоря, возможно более плотное кодирование информации по сравнению с классическим случаем.

1.2.3. Взаимная информация. Информация Холево

Количество передаваемой по каналу связи (или через логический элемент) квантовой информации определяется значением взаимной (mutual) информации (для последней используем обозначение 1(р) и ограничимся рассмотрением стационарных сигналов). Априорная (безусловная) вероятность обнаружить приемным устройством на выходе канала значение переменных х для всего ансамбля
34

Глава 1

передаваемых сигналов в результате редукции в базисные состояния фп(х) приемника описывается диагональным элементом матрицы плотности p(x,x,t) = ^2pn(t)pn(x, х), где вероятность рп(х,х) =

п

= \фп(х)\2 ^ О играет роль условной вероятности обнаружить на выходе значения переменных х при условии, что принимается только п-и парциальный сигнал. Взаимная информация или энтропия является разностью, соответственно, априорной Нарг — Н и апостериорной (условной) Haps энтропий Шеннона на выходе канала [1.21]:

I(p) = Hapr - Haps ^ Нарг = Я, (1.23)

где нарг = ~^2р(х, X, t) log2 р(X, X, t) = Я, (1.24)

__ X ___

Haps — ^ ]pn{t)Hn, Нп = ^ %) Рп(х, Д?)« (1.25)

п X

Апостериорная информационная энтропия Haps — неотрицательная величина, как и Нарг в классической системе она определяет вносимую каналом ошибку в передаваемый сигнал, обусловленную классическими шумами и случайными пространственными помехами. В общем случае этот механизм дополняется ответственной за квантовые шумы квантовой недетерминированностью сигналов, связанной с соотношением неопределенности в случае, когда операторы, для которых переменные х и п являются собственными значениями, не коммутируют между собой. В отсутствии классических шумов и помех апостериорная энтропия Haps обращается в нуль когда эти операторы коммутируют друг с другом, при этом парциальная матрица плотности становится диагональной для определенных значений х и имеет одно собственное значение: рп(х,х) = ?п?п(ж) (знак равенства в (1.23)). Сигналы на входе и выходе в этом случае максимально коррелированны и взаимная информация I(p) = S = Н.
Предыдущая << 1 .. 7 8 9 10 11 12 < 13 > 14 15 16 17 18 19 .. 132 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed