Существует и еще одна принципиальная трудность — это отвод тепла. Работающий процессор нужно охлаждать, а это тоже возможно только до определенного предела. Еще в 1961 году сотрудник «IBM» Рольф Ландауэр сформулировал принцип, согласно которому в любой вычислительной системе, независимо от ее физической реализации, при стирании 1 бита информации выделяется теплота. Это происходит просто потому, что при стирании информации она теряется безвозвратно, а значит, увеличивается энтропия системы и неизбежно выделяется тепло. В начале 1960-х на этот принцип не обратили внимания — количество тепла показалось совершенно ничтожным; сегодня эта проблема стала одной из самых трудных.
Крупнейшие производители процессоров, и в первую очередь «Intel», отказались от наращивания тактовой частоты и перешли к реализации многоядерных решений, то есть фактически стали встраивать в компьютер не один процессор, а два или четыре. Но, во-первых, не все алгоритмы можно эффективно распараллелить, чтобы на двух процессорах они работали быстрее, чем на одном, а во-вторых, взаимодействие процессоров — это большие накладные расходы. Попросту говоря, два процессора работают не в два раза быстрее, чем один, а, скажем, в 1,8 раза. Причем чем процессоров больше, тем прирост будет менее значительным. То есть здесь тоже ясно виден предел. Но пока еще есть куда расти.
Зачем нам нужны все более быстрые и мощные компьютеры? Нельзя ли ограничиться теми, что есть? Ответ однозначный: даже в среднесрочной перспективе уже нельзя. Это связано с лавинообразным ростом количества цифровой информации и количества пользователей и производителей этой информации. Буквально шесть лет назад, в феврале 2005 года, когда появился Youtube, никто не подозревал, что количество видеоинформации будет расти с такой поразительной скоростью. И это только небольшая часть цифровой информации, которая создается и передается по глобальной сети. Хотя количество людей на Земле сравнительно невелико, количество устройств и сервисов, использующих цифровую информацию, ничем не ограничено. Если сегодня перестать наращивать цифровые мощности, встанет Сеть. Последствия могут быть катастрофическими. Но это только одна из проблем. Мы ведь хотим продолжать теми же темпами (а хотелось бы и побыстрее) познавать и конструировать природу, в частности, попытаться конструировать работу мозга, а без взрывного роста вычислительной мощности это невозможно.
В 1982 году Ричард Фейнман опубликовал статью [8] , в которой предложил использовать принципиально новый физический принцип для вычислительных систем. Эту статью считают началом квантовых компьютеров.
Ричард Фейнман, анализируя проблему моделирования квантовых явлений, пришел к выводу, что моделирование таких явлений на реальных компьютерах при ограничении времени практически невозможно и не будет возможно в обозримой перспективе. Но вместо того чтобы считать трудность обработки квантовых явлений препятствием, Фейнман счел ее новой возможностью. Действительно, чтобы узнать исход эксперимента, необходимо выполнить невообразимо много вычислений. Но если мы поставим эксперимент, то сам факт его проведения и измерения его результатов будет равносилен выполнению сложного вычисления. То есть вместо того, чтобы считать, мы можем поставить эксперимент и «снять» результат, тогда мы как бы заглянем в ответ. И сам эксперимент станет своего рода «специализированным процессором», который возьмет на себя самую трудную часть вычислений и оставит классическому процессору фактически только обработку полученных результатов.
Если мы вернемся к весам и мальчику Бобу, то увидим полную аналогию. Классический компьютер не умеет моделировать квантовую систему. Но он может подготовить входные данные — «посчитать палочки». Затем мы запустим квантовый эксперимент и с помощью классического устройства зарегистрируем результат — «посмотрим на показатель весов».
Идея Фейнмана была только наброском. Первые решения, которые позволили приблизиться к реализации квантового компьютера, были получены Дэвидом Дойчем во второй половине 80-х. Но и они имели чисто теоретический характер.
Настоящий интерес квантовые компьютеры вызвали, когда было показано, что с их помощью (если бы они существовали) можно было бы очень быстро решить задачу факторизации, то есть взломать шифры с открытым ключом.
Читать дальше