Квантовые компьютеры: надежды и реальность - Валиев К.А.
Скачать (прямая ссылка):
[8] Feynman R.P. Quantum Mechanical Computers // Foundation of Phys., 1986, v. 16, №6, pp. 507-531. / Фейнман P. Ф. Квантовомеханические компьютеры. Перевод с англ. под ред. В. А. Садовничего: Сборн. «Квантовый компьютер & квантовые вычисления» II. — Ижевск: Ред. журн. «Регуляр. и хаотич. динам.», 1999, с. 125-156.
[9] Валиев К. А. Квантовые компьютеры: могут ли они быть «большими»? // УФН, 1999, т. 169, №6, с. 691-694.
[10] Килин С. Я. Квантовая информация // УФН, 1999, т. 169, №5, с. 507-526.
[11] Валиев К. А. Квантовая информатика: компьютеры, связь и криптография // Вестник РАН, 2000, т. 70, с. 688-718.
[12] Валиев К. А., Кокин А. А. Из итогов XX века: от квантов к квантовым компьютерам. I. Физические основы и принципы построения квантового компьютера // Известия ВУЗ, Электроника, 2000, №4-5, с. 46-52.
Глава 1
ПРЕОБРАЗОВАНИЕ ИНФОРМАЦИИ В КВАНТОВЫХ СИСТЕМАХ
«Много неясного в странной стране,
Можно запутаться и заблудиться.
Даже мурашки бегут по спине,
Если представить, что может случиться.»
В. С. Высоцкий
1.1. Необратимые и обратимые классические информационные процессы
1.1.1. Информационная энтропия Шеннона. Количество информации
Прежде чем рассматривать преобразование информации в квантовых системах, остановимся кратко на некоторых основных понятиях и представлениях классической теории информации, обобщенных, развитых и существенно дополненных в дальнейшем в квантовой теории информации.
Состояние классических макроскопических систем, какими являются традиционные полупроводниковые приборы, — логические элементы, элементы памяти, а также различные каналы связи — контролируется сравнительно небольшим числом макроскопических параметров (температура, полная энергия, энтропия, электрический заряд, электрическое поле и т.д.), которых, однако, недостаточно для того, чтобы можно было считать состояние такой физической системы полностью определенной, поскольку оно представляет собой совокупность огромного числа не доступных контролю микросостояний. Для отражения этого обстоятельства в статистической физике вводится понятие энтропии системы S', которую будем здесь называть физической и
1.1. Необратимые и обратимые классические инф. процессы
21
определять выражением [1.1] S = kin ДГ, где к — постоянная Больцмана, АГ — статистический вес, равный числу микросостояний, охватываемых рассматриваемым макросостоянием системы. С этим понятием связано и понятие информационной энтропии системы iif, являющейся с точки зрения классической теории информации мерой недостатка (или степени неопределенности) информации о действительном состоянии физической системы. Информационную энтропию Шеннона принято определять следующим образом [1.2]
н = log2 ДГ = -^2p„log2pn, ^Р„ = 1, (1.1)
П П
где рп — вероятность n-го микросостояния макроскопической системы.
Количество информации I (или просто информация) о состоянии классической системы, получаемое в результате измерений внешним прибором, связанным с рассматриваемой системой некоторым каналом связи, определяется как разность информационной энтропии, соответствующей начальной неопределенности состояния системы i/o? и информационной энтропии конечного состояния системы после измерения Н. Имеет место следующее соотношение: I + Н = i/o = const. В идеальном случае, когда отсутствуют шумы и помехи, создаваемые внешними источниками в канале связи, конечное распределение вероятностей после измерения сводится к одному определенному значению рп = 1, то есть к Н = 0, а максимальное значение для количества полученной при измерении информации будет определяться соотношением /тах = Hq. Таким образом, информационная энтропия Шеннона системы имеет смысл максимальной информации, заключенной в системе; она может быть определена в идеальных условиях измерения состояния системы в отсутствии шумов и помех, когда энтропия конечного состояния Н — 0.
Рассмотрим далее классический логический элемент, который может находиться в одном из двух равновероятных булевых логических состояний «0» или «1», представляющий вместе с окружающей средой — термостатом и генерируемым внешним теплоизолированным объектом сигналом единую, вообще говоря, неравновесную замкнутую систему. Переход элемента в одно из состояний, например в состояние «1», соответствует уменьшению статистического веса его состояния по сравнению с начальным состоянием в 2 раза. Это эквивалентно уменьшению
22
Глава 1
информационной энтропии Шеннона и увеличению количества информации об элементе на единицу, которую принято называть битом:
АН = —А/ = log2(Ar/2) — log2 АГ = — log2 2 = —1 бит. (1.2)
Таким образом, информационная энтропия определяет число битов, которое требуется для кодирования информации в рассматриваемой системе или сообщении. Шеннону [1.2] принадлежит теорема, доказывающая возможность достижения произвольной точности кодирования информации для случая предельно длительных сообщений в отсутствии шумов и помех.