Научная литература
booksshare.net -> Добавить материал -> Физика -> Валиев К.А. -> "Квантовые компьютеры: надежды и реальность" -> 8

Квантовые компьютеры: надежды и реальность - Валиев К.А.

Валиев К.А., Кокин А.А. Квантовые компьютеры: надежды и реальность — И.: НИЦ, 2001. — 352 c.
Скачать (прямая ссылка): kvantoviekomputeri2001.pdf
Предыдущая << 1 .. 2 3 4 5 6 7 < 8 > 9 10 11 12 13 14 .. 132 >> Следующая


[8] Feynman R.P. Quantum Mechanical Computers // Foundation of Phys., 1986, v. 16, №6, pp. 507-531. / Фейнман P. Ф. Квантовомеханические компьютеры. Перевод с англ. под ред. В. А. Садовничего: Сборн. «Квантовый компьютер & квантовые вычисления» II. — Ижевск: Ред. журн. «Регуляр. и хаотич. динам.», 1999, с. 125-156.

[9] Валиев К. А. Квантовые компьютеры: могут ли они быть «большими»? // УФН, 1999, т. 169, №6, с. 691-694.

[10] Килин С. Я. Квантовая информация // УФН, 1999, т. 169, №5, с. 507-526.

[11] Валиев К. А. Квантовая информатика: компьютеры, связь и криптография // Вестник РАН, 2000, т. 70, с. 688-718.

[12] Валиев К. А., Кокин А. А. Из итогов XX века: от квантов к квантовым компьютерам. I. Физические основы и принципы построения квантового компьютера // Известия ВУЗ, Электроника, 2000, №4-5, с. 46-52.
Глава 1

ПРЕОБРАЗОВАНИЕ ИНФОРМАЦИИ В КВАНТОВЫХ СИСТЕМАХ

«Много неясного в странной стране,

Можно запутаться и заблудиться.

Даже мурашки бегут по спине,

Если представить, что может случиться.»

В. С. Высоцкий

1.1. Необратимые и обратимые классические информационные процессы

1.1.1. Информационная энтропия Шеннона. Количество информации

Прежде чем рассматривать преобразование информации в квантовых системах, остановимся кратко на некоторых основных понятиях и представлениях классической теории информации, обобщенных, развитых и существенно дополненных в дальнейшем в квантовой теории информации.

Состояние классических макроскопических систем, какими являются традиционные полупроводниковые приборы, — логические элементы, элементы памяти, а также различные каналы связи — контролируется сравнительно небольшим числом макроскопических параметров (температура, полная энергия, энтропия, электрический заряд, электрическое поле и т.д.), которых, однако, недостаточно для того, чтобы можно было считать состояние такой физической системы полностью определенной, поскольку оно представляет собой совокупность огромного числа не доступных контролю микросостояний. Для отражения этого обстоятельства в статистической физике вводится понятие энтропии системы S', которую будем здесь называть физической и
1.1. Необратимые и обратимые классические инф. процессы

21

определять выражением [1.1] S = kin ДГ, где к — постоянная Больцмана, АГ — статистический вес, равный числу микросостояний, охватываемых рассматриваемым макросостоянием системы. С этим понятием связано и понятие информационной энтропии системы iif, являющейся с точки зрения классической теории информации мерой недостатка (или степени неопределенности) информации о действительном состоянии физической системы. Информационную энтропию Шеннона принято определять следующим образом [1.2]

н = log2 ДГ = -^2p„log2pn, ^Р„ = 1, (1.1)

П П

где рп — вероятность n-го микросостояния макроскопической системы.

Количество информации I (или просто информация) о состоянии классической системы, получаемое в результате измерений внешним прибором, связанным с рассматриваемой системой некоторым каналом связи, определяется как разность информационной энтропии, соответствующей начальной неопределенности состояния системы i/o? и информационной энтропии конечного состояния системы после измерения Н. Имеет место следующее соотношение: I + Н = i/o = const. В идеальном случае, когда отсутствуют шумы и помехи, создаваемые внешними источниками в канале связи, конечное распределение вероятностей после измерения сводится к одному определенному значению рп = 1, то есть к Н = 0, а максимальное значение для количества полученной при измерении информации будет определяться соотношением /тах = Hq. Таким образом, информационная энтропия Шеннона системы имеет смысл максимальной информации, заключенной в системе; она может быть определена в идеальных условиях измерения состояния системы в отсутствии шумов и помех, когда энтропия конечного состояния Н — 0.

Рассмотрим далее классический логический элемент, который может находиться в одном из двух равновероятных булевых логических состояний «0» или «1», представляющий вместе с окружающей средой — термостатом и генерируемым внешним теплоизолированным объектом сигналом единую, вообще говоря, неравновесную замкнутую систему. Переход элемента в одно из состояний, например в состояние «1», соответствует уменьшению статистического веса его состояния по сравнению с начальным состоянием в 2 раза. Это эквивалентно уменьшению
22

Глава 1

информационной энтропии Шеннона и увеличению количества информации об элементе на единицу, которую принято называть битом:

АН = —А/ = log2(Ar/2) — log2 АГ = — log2 2 = —1 бит. (1.2)

Таким образом, информационная энтропия определяет число битов, которое требуется для кодирования информации в рассматриваемой системе или сообщении. Шеннону [1.2] принадлежит теорема, доказывающая возможность достижения произвольной точности кодирования информации для случая предельно длительных сообщений в отсутствии шумов и помех.
Предыдущая << 1 .. 2 3 4 5 6 7 < 8 > 9 10 11 12 13 14 .. 132 >> Следующая

Реклама

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed

Есть, чем поделиться? Отправьте
материал
нам
Авторские права © 2009 BooksShare.
Все права защищены.
Rambler's Top100

c1c0fc952cf0704ad12d6af2ad3bf47e03017fed