Главная              Рефераты - Разное

по Информационным технологиям «Современные принципы и методы обработки информации» - реферат

Киевский Национальный Университет имени Тараса Шевченка

Реферат по Информационным технологиям

«Современные принципы и методы обработки информации»

Выполнил:

Студент групы ОМ-5

Андрей Аникушин

Киев - 2006

По мнению ученых и специалистов в области современных методов и средств обработки информации на сегодня основными направлениями в области новых принципов обработки информации являются квантовые вычисления, оптоэлектроника, биотехнологии, нанотехнологии, нейросетевые, генетические и другие не классические модели вычислений. Целью данного реферата я вижу ознакомится с некоторыми из выше перечисленных принципов. Именно: квантовые вычисления, нейросетевые и генетические модели вычислений.

Генетические Алгоритмы

Генетические Алгоритмы - адаптивные методы поиска, которые в последнее время часто используются для решения задач функциональной оптимизации. Они основаны на генетических процессах биологических организмов: биологические популяции развиваются в течении нескольких поколений, подчиняясь законам естественного отбора и по принципу "выживает наиболее приспособленный" (survival of the fittest), открытому Чарльзом Дарвином. Подражая этому процессу генетические алгоритмы способны "развивать" решения реальных задач, если те соответствующим образом закодированы. Например, ГА могут использоваться, чтобы проектировать структуры моста, для поиска максимального отношения прочности/веса, или определять наименее расточительное размещение для нарезки форм из ткани. Они могут также использоваться для интерактивного управления процессом, например на химическом заводе, или балансировании загрузки на многопроцессорном компьютере. Вполне реальный пример: израильская компания Schema разработала программный продукт Channeling для оптимизации работы сотовой связи путем выбора оптимальной частоты, на которой будет вестись разговор. В основе этого программного продукта и используются генетические алгоритмы.

Основные принципы ГА были сформулированы Голландом (Holland, 1975). В отличии от эволюции, происходящей в природе, ГА только моделируют те процессы в популяциях, которые являются существенными для развития. Точный ответ на вопрос: какие биологические процессы существенны для развития, и какие нет? - все еще открыт для исследователей.

В природе особи в популяции конкурируют друг с другом за различные ресурсы, такие, например, как пища или вода. Кроме того, члены популяции одного вида часто конкурируют за привлечение брачного партнера. Те особи, которые наиболее приспособлены к окружающим условиям, будут иметь относительно больше шансов воспроизвести потомков. Слабо приспособленные особи либо совсем не произведут потомства, либо их потомство будет очень немногочисленным. Это означает, что гены от высоко адаптированных или приспособленных особей будут распространятся в увеличивающемся количестве потомков на каждом последующем поколении. Комбинация хороших характеристик от различных родителей иногда может приводить к появлению "суперприспособленного" потомка, чья приспособленность больше, чем приспособленность любого из его родителя. Таким образом, вид развивается, лучше и лучше приспосабливаясь к среде обитания.

ГА используют прямую аналогию с таким механизмом. Они работают с совокупностью "особей" - популяцией, каждая из которых представляет возможное решение данной проблемы. Каждая особь оценивается мерой ее "приспособленности" согласно тому, насколько "хорошо" соответствующее ей решение задачи. Например, мерой приспособленности могло бы быть отношение силы/веса для данного проекта моста. (В природе это эквивалентно оценке того, насколько эффективен организм при конкуренции за ресурсы.) Наиболее приспособленные особи получают возможность "воспроизводит" потомство с помощью "перекрестного скрещивания" с другими особями популяции. Это приводит к появлению новых особей, которые сочетают в себе некоторые характеристики, наследуемые ими от родителей. Наименее приспособленные особи с меньшей вероятностью смогут воспроизвести потомков, так что те свойства, которыми они обладали, будут постепенно исчезать из популяции в процессе эволюции.

Так и воспроизводится вся новая популяция допустимых решений, выбирая лучших представителей предыдущего поколения, скрещивая их и получая множество новых особей. Это новое поколение содержит более высокое соотношение характеристик, которыми обладают хорошие члены предыдущего поколения. Таким образом, из поколения в поколение, хорошие характеристики распространяются по всей популяции. Скрещивание наиболее приспособленных особей приводит к тому, что исследуются наиболее перспективные участки пространства поиска. В конечном итоге, популяция будет сходиться к оптимальному решению задачи.

Имеются много способов реализации идеи биологической эволюции в рамках ГА. Традиционным считается ГА, представленный на схеме.

НАЧАЛО /* генетический алгоритм */

Создать начальную популяцию

Оценить приспособленность каждой особи

останов := FALSE

ПОКА НЕ останов ВЫПОЛНЯТЬ

НАЧАЛО /* создать популяцию нового поколения */

ПОВТОРИТЬ (размер_популяции/2) РАЗ

НАЧАЛО /* цикл воспроизводства */

Выбрать две особи с высокой приспособленностью из предыдущего поколения для скрещивания

Скрестить выбранные особи и получить двух потомков

Оценить приспособленности потомков

Поместить потомков в новое поколение

КОНЕЦ

ЕСЛИ популяция сошлась ТО останов := TRUE

КОНЕЦ

КОНЕЦ

В последние годы, реализовано много генетических алгоритмов и в большинстве случаев они мало похожи на этот ГА. По этой причине в настоящее время под термином "генетические алгоритмы" скрывается не одна модель, а достаточно широкий класс алгоритмов, подчас мало похожих друг от друга. Исследователи экспериментировали с различными типами представлений, мутации, специальных операторов, и различных подходов к воспроизводству и отбору.

Хотя модель эволюционного развития, применяемая в ГА, сильно упрощена по сравнению со своим природным аналогом, тем не менее ГА является достаточно мощным средством и может с успехом применяться для широкого класса прикладных задач, включая те, которые трудно, а иногда и вовсе невозможно, решить другими методам. Однако, ГА, как и другие методы эволюционных вычислений, не гарантирует обнаружения глобального решения за полиномиальное время. ГА не гарантируют и того, что глобальное решение будет найдено, но они хороши для поиска "достаточно хорошего" решения задачи "достаточно быстро". Там, где задача может быть решена специальными методам, почти всегда такие методы будут эффективнее ГА и в быстродействии и в точность найденных решений. Главным же преимуществом ГА-мов является то, что они могут применяться даже на сложных задачах, там, где не существует никаких специальных методов. Даже там, где хорошо работаю существующие методики, можно достигнуть улучшения сочетанием их с ГА.

Когда следует применять генетический алгоритм?

Генетические алгоритмы в различных формах применились ко многим научным и техническим проблемам. Генетические алгоритмы использовались при создании других вычислительных структур, например, автоматов или сетей сортировки. В машинном обучении они использовались при проектировании нейронных сетей или управлении роботами. Они также применялись при моделировании развития в различных предметных областях, включая биологические (экология, иммунология и популяционная генетика), социальный (такие как экономика и политические системы) и когнитивные системы.

Тем не менее, возможно наиболее популярное приложение генетических алгоритмов - оптимизация многопараметрических функций. Многие реальные задачи могут быть сформулированы как поиск оптимального значения, где значение - сложная функция, зависящая от некоторых входных параметров. В некоторых случаях, представляет интерес найти те значения параметров, при которых достигается наилучшее точное значение функции. В других случаях, точный оптимум не требуется - решением может считаться любое значение, которое лучше некоторой заданное величины. В этом случае, генетические алгоритмы - часто наиболее приемлемый метод для поиска "хороших" значений. Сила генетического алгоритма заключена в его способности манипулировать одновременно многими параметрами, эта особенность ГА использовалось в сотнях прикладных программ, включая проектирование самолетов, настройку параметров алгоритмов и поиску устойчивых состояний систем нелинейных дифференциальных уравнений.

Однако нередки случаи, когда ГА работает не так эффективно, как ожидалось.

Предположим есть реальная задача, сопряженная с поиском оптимального решения, как узнать, является ли ГА хорошим методом для ее решения? До настоящего времени не существует строгого ответа, однако многие исследователи разделяют предположения, что если пространство поиска, которое предстоит исследовать, - большое, и предполагается, что оно не совершенно гладкое и унимодальное (т.е. содержит один гладкий экстремум), или если задача не требует строго нахождения глобального оптимума - т.е. если достаточно быстро просто найти приемлемое "хорошее" решения (что довольно часто имеет место в реальных задачах) - ГА будет иметь хорошие шансы стать эффективной процедурой поиска, конкурируя и превосходя другие методы, которые не используют знания о пространстве поиска.

Если же пространство гладкое и унимодальное любой градиентный алгоритм, такой как, метод скорейшего спуска будет более эффективен, чем ГА. Если о пространстве поиска есть некоторая дополнительная информация (как, например, пространство для хорошо известной задачи о коммивояжере), методы поиска, использующие эвристики, определяемые пространством, часто превосходят любой универсальный метод, каким является ГА. При достаточно сложном рельефе функции приспособленности методы поиска с единственным решением в каждый момент времени, такой как простой метод спуска, могли "затыкаться" в локальном решении, однако считается, что ГА, так как они работают с целой "популяцией" решений, имеют меньше шансов сойтись к локальному оптимуму .

Нейронные сети

Искусственные нейронные сети получили широкое распространение за последние 20 лет и позволили решать сложные задачи обработки данных, часто значительно превосходя точность других методов статистики и искусственного интеллекта, либо являясь единственно возможным методом решения отдельных задач.

Нейросетевые методы являлись одной из ключевых технологий японской национальной программы "Вычисления в реальном мире − Real world computing", сменившей в 1992г программу создания компьютеров пятого поколения.

Существует несколько широко распространенных коммерческих универсальных нейросетевых программных пакетов (Statistica Neural Networks, NeuroShell, Matlab Neural Network Toolbox, NeuroSolutions, BrainMaker). Специализированных, некоммерческих или разработанных учеными-исследователями для собственных нужд нейропрограмм гораздо больше

Базовые идеи нейронных сетей

Основными идеями, лежащими в основе нейронных сетей и нейромоделирования, являются следующие:

Нейросеть воспроизводит структуру и свойства нервной системы живых организмов: нейронная сеть состоит из большого числа простых вычислительных элементов (нейронов) и обладает более сложным поведением по сравнению с возможностями каждого отдельного нейрона. Нейросеть получает на входе набор входных сигналов и выдает соответствующий им ответ (выходные сигналы), являющийся решением задачи.

Искусственная нейросеть, как и естественная биологическая нейросеть, может обучаться решению задач: она содержит внутренние адаптивные параметры нейронов и своей структуры, и меняя их, может менять свое поведение.

Место программирования занимает обучение, тренировка нейронной сети: для решения задачи не нужно программировать алгоритм - нужно взять универсальный нейросетевой инструмент, создать и обучить нейросеть.

Нейронная сеть обучается решению задачи на некотором "учебнике" − наборе ситуаций, каждая из которых описывает значения входных сигналов нейросети и требуемый для этих входных сигналах ответ. "Учебник" задает набор эталонных ситуаций с известными решениями, а нейронная сеть при обучении сама находит зависимости между входными сигналами и ответами. Обученная нейросеть может обобщать (интерполировать и экстраполировать) полученный навык решения и выдавать прогноз для новых значений входных сигналов, ранее не включенных в "учебник".

Нейронная сеть способна обучаться решению задач, для которых у человека не существует формализованных, быстрых или работающих с приемлемой точностью алгоритмов решения.

Структура нейросети может быть адаптирована к задаче: в нейросеть могут быть включены дополнительные нейроны, если исходная нейросеть не способна обеспечить решение задачи с нужной точностью. Из нейросети могут быть исключены лишние нейроны и связи между ними, если исходная нейросеть избыточна для решения задачи. Нейросеть может сама выделить наиболее информативные для задачи входные сигналы, отбросить неинформативные, шумовые сигналы и в итоге повысить надежность решения. При этом нейронная сеть не делает предварительного полного забывания ранее сформированных навыков, ускоряя таким образом свое дообучение после коррекции размеров

Возможности нейронных сетей

Основными интересными на практике возможностями нейронных сетей являются такие:

Существование быстрых алгоритмов обучения: нейронная сеть даже при сотнях входных сигналов и десятках-сотнях тысяч эталонных ситуаций может быть быстро обучена на обычном компьютере. Поэтому нейронные сети имеют широкий круг применимости и позволяют решать сложные задачи прогноза, классификации или диагностики.

Возможность работы при наличии большого числа неинформативных, шумовых входных сигналов − предварительного их отсева делать не нужно, нейронная сеть сама определит их малопригодность для решения задачи и может их явно отбросить.

Возможность работы со скоррелированными независимыми переменными, с разнотипной информацией − непрерывнозначной и дискретнозначной, количественной и качественной, что часто доставляет затруднение методам статистики

Нейронная сеть одновременно может решать несколько задач на едином наборе входных сигналов − имея несколько выходов, прогнозировать значения нескольких показателей.

Алгоритмы обучения накладывают достаточно мало требований на структуру нейронной сети и свойства ее нейронов. Поэтому при наличии экспертных знаний или в случае специальных требований можно целенаправленно выбирать вид и свойства нейронов и нейронной сети, собирать структуру нейронной сети вручную, из отдельных элементов, и задавать для каждого из них нужные свойства.

Описанные возможности в основном относятся к слоистым нейронным сетям. Но существуют и другие классы нейронных сетей − нейросети ассоциативной памяти, нейросети для квантования данных, сжатия данных путем построения главных независимых компонент, нейронные сети для разделения смеси сигналов и др. Т.е. круг задач, решаемых нейронными сетями, очень и очень широк, поскольку широк и сам набор нейросетевых алгоритмов.

Практические приложения нейронных сетей

Наверно, в каждой предметной области при ближайшем рассмотрении можно найти постановки нейросетевых задач. Вот список отдельных областей, где решение такого рода задач имеет практическое значение уже сейчас.

Экономика и бизнес : предсказание рынков, автоматический дилинг, оценка рисков невозврата кредитов, предсказание банкротств, оценка стоимости недвижимости, выявление пере- и недооцененных компаний, автоматическое рейтингование, оптимизация товарных и денежных потоков, автоматическое считывание и распознавание чеков и документов, безопасность транзакций по пластиковым картам.

Медицина : постановка диагноза, обработка медицинских изображений, мониторинг состояния пациента, факторный анализ эффективности лечения, очистка показаний приборов от шумов.

Авионика : обучаемые автопилоты, распознавание сигналов радаров, адаптивное пилотирование сильно поврежденного самолета.

Связь : сжатие видеоинформации, быстрое кодирование-декодирование, оптимизация сотовых сетей и схем маршрутизации пакетов.

Интернет : ассоциативный поиск информации, электронные секретари и агенты пользователя в Сети, фильтрация информации, блокировка спама, рубрикация новостевых лент, адресные реклама и маркетинг для электронной торговли.

Автоматизация производства : оптимизация режимов производственного процесса, комплексная диагностика качества продукции по результатам тестирования с помощью ультразвукового, оптического или гамма-излучений, мониторинг и визуализация многомерной диспетчерской информации, предупреждение аварийных ситуаций, робототехника.

Политические и социологические технологии : предсказание результатов выборов, анализ и обобщение социологических опросов, предсказание динамики рейтингов, выявление значимых факторов, объективная кластеризация электората, исследование и визуализация социальной динамики населения.

Безопасность и охранные системы : идентификация личности по отпечаткам пальцев, голосу, подписи, лицу, распознавание голоса, лиц в толпе, распознавание автомобильных номеров, анализ аэрокосмических снимков, мониторинг информационных потоков и обнаружение вторжений, обнаружение подделок.

Ввод и обработка информации : распознавание и обработка рукописных чеков, платежных, иных финансовых и бухгалтерских документов.

Геологоразведка : анализ сейсмических данных, ассоциативные методики поиска полезных ископаемых, оценка ресурсов месторождений.

Квантовые вычисления

Начнем с уточнения термина "квантовый компьютер". Обычно слово "компьютер" связывают с одной из реализаций так называемой архитектуры фон Неймана, предложенной Джоном фон Нейманом (John von Neumann) еще в 1945 году. В этой архитектуре вычисляющая машина состоит из четырех частей: памяти, системы ввода/вывода (I/O), арифметическо-логического блока (ALU) и системы управления. В качестве примеров назовем соответственно: жесткий диск и оперативную память; клавиатуру, дисплей, принтер; процессор; программное обеспечение. Однако в квантовом случае можно говорить о реализации лишь одной из составляющих фон-неймановской архитектуры - системы ввода-вывода. Остальные составляющие не имеют квантовых аналогов в привычном нам понимании. Например, память квантового компьютера, работающего с N квантовыми битами, в теории бесконечна и вероятностна, но при этом позволяет считывать только N обычных бит информации, причем чтение информации разрушает саму вычисляющую систему (заодно отметим, что существующие сегодня квантовые компьютеры могут обрабатывать и хранить информацию только в течение долей секунды). ALU квантового компьютера даже теоретически допускает применение только обратимых операций, а на практике оказывается, что и не любая обратимая операция может быть выполнена за конечное время. Система управления (в традиционном смысле) принципиально не может быть частью квантового вычислителя. В результате от привычного содержания слова "компьютер" в квантовом случае остается лишь условная способность "считывать информацию".

Но ведь главное значение слова "компьютер" - машина для вычислений, и несмотря на указанные особенности архитектуры существуют классы вычислений, которые легче выполнить, используя квантовые, а не классические принципы. Есть и такие вычисления, которые в классическом случае просто невозможны. Например, никакой современный классический компьютер не способен по-настоящему "вычислить" случайное число. С другой стороны, при помощи квантовой технологии можно генерировать подлинно случайные числа.

Как бы ни развивалась технология квантовых вычислителей, они вряд ли целиком и полностью заменят классические компьютеры. В лучшем случае, как представляется специалистам, будут созданы квантовые сопроцессоры, ответственные за определенные типы вычислений.

Вот основные принципы, на которых построены квантовые вычисления. Единичный квантовый бит (кубит, qubit), основа всех квантовых вычислений, - это квантовая система, которая может находиться в одном из двух классических состояний, |0> или |1> или в так называемом смешанном состоянии, a|0> + b|1> (a и b - комплексные числа называемые амплитудами, такие, что |a|2 + |b|2 = 1). При попытке узнать состояние кубита окажется, что с вероятностью |a|2 измерение даст |0>, а с вероятностью |b|2 - |1>. Каждое последующее измерение даст (уже с вероятностью 1) тот же результат (|0> или |1>), что и первое измерение. В общем случае квантовая система с N кубитами имеет 2N нормированных амплитуд. Квантовое вычисление состоит в том, что система кубитов приводится в исходное состояние, кодирующее начальные данные, после чего специальным образом организуется эволюция этой системы. Проведенное в нужный момент измерение дает (вероятностную) информацию о результате вычисления. Интерес к квантовым вычислениям во многом определяется тем, что по такой схеме удается (хотя бы теоретически) решить некоторые задачи, не решаемые на классическом компьютере за приемлемое время.

Для некоторых задач квантовые алгоритмы пока существуют лишь на бумаге, для других они уже реализованы "в железе". Так, компании ID Quantique и MagiQ Technologies недавно выпустили на рынок свои квантовые системы: генератор случайных чисел и дистрибьютор секретного ключа (устройство для обмена секретными ключами, которые используются для шифрования сообщений).

Математическая схема работы генератора случайных чисел проста. Создается кубит в состоянии |0>, затем к нему применяется так называемое преобразование Адамара. После этого при измерении данного кубита значения |0> или |1> появятся с одинаковыми вероятностями. Повторив процесс N раз, мы получим случайное целое число в пределах от 0 до 2N – 1. Проблема создания случайного числа крайне важна во многих криптографических протоколах. Отсюда и интерес к квантовым технологиям ее решения, где случайность не имитируется детерминированными классическими вычислениями, а связана с физикой работы самого вычислителя.

Надежный дистрибьютор секретного ключа необходим для применения высоконадежных криптосистем, использующих такие ключи. Рассмотрим, например, классический абсолютно стойкий шифр Вернама, который действует так. Для шифрования булевой строки длины N используется секретный ключ - полностью случайная булева строка длины N. Допустим, что Алиса и Боб имеют этот секретный ключ и больше никто в мире его не знает. Чтобы послать Алисе сообщение (булеву строку длины N), Боб побитно складывает текст сообщения с секретным ключом по модулю 2 и пересылает результат Алисе. Алиса, имея точно такой же ключ, сможет восстановить исходное сообщение, побитно сложив полученную от Боба строку с ключом. Шеннон показал, что такой шифр будет абсолютно стойким при условии полной случайности ключа и однократности его использования. Имеются и другие весьма стойкие шифры, использующие секретный ключ (в том числе и для многократного обмена информацией), но их практическое применение осложняется тем, что Алиса и Боб (и только они!) должны заранее получить нужное количество секретных ключей. Для решения этой проблемы и нужен дистрибьютор секретного ключа.

Квантовый дистрибьютор секретного ключа, реализованный компаниями ID Quantique и MagiQ Technologies, использует протокол BB84, предложенный Беннетом (Charles Bennett) и Брассаром (Giles Brassard) в 1984 году. Общая схема работы протокола такова. Алиса создает N кубитов в случайных базисных состояниях (|0> или |1>) и случайную булеву строку длины N. Если k-й элемент этой случайной строки равен единице, то к k-му кубиту она применяет преобразование Адамара; если же этот элемент равен 0, с k-м кубитом ничего не делается. Затем Алиса высылает кубиты по квантовому каналу. Получатель Боб сам решает, измерять ли каждый из полученных кубитов сразу или сначала применить к нему обратное (совпадающее, впрочем, с прямым) преобразование Адамара, а потом провести измерение. Последовательность произведенных измерений (но не результатов измерений!) Боб высылает Алисе по обычному каналу связи. Эта информация не секретна. Алиса в ответ высылает Бобу перечень тех позиций, по которым измерения Боба и Алисы совпадают (она-то знает, как надо было правильно измерять),- опять же по обычному, не секретному каналу связи. На основе этой информации Боб и Алиса создают последовательность случайных чисел, известную только им двоим и имеющую в среднем длину N/2.

Имеющиеся в продаже квантовые дистрибьюторы случайных ключей используют оптическую квантовую технологию и пересылают единичный фотон (являющийся физической реализацией единичного кубита) по оптоволокну на расстояния до 100 км. Передать ключ на большую дистанцию пока не удается, но можно надеяться на заметный прогресс - ведь, например, недавно коммерчески доступные дистрибьюторы работали лишь на расстояниях не более 67 км.

В Лос-Аламосской национальной лаборатории ведутся исследования по беспроводной передаче ключа. В частности, был проведен опыт, в котором единичный фотон выстреливался из фотонной пушки и регистрировался датчиком, находящимся в 10 км от источника. Удалось добиться передачи секретных данных со скоростью 45576 бит/час днем и 113273 бит/час ночью (из-за высокой дневной освещенности создается много помех, мешающих "поймать" нужный фотон). В дальнейшем ученые надеются научиться перебрасывать фотоны с Земли на спутники и обратно, а также между спутниками, что позволит реализовать квантовое распределение ключей на очень больших расстояниях.

Более сложные квантовые алгоритмы пока далеки от практической реализации. Самый знаменитый из них - квантовая факторизация, то есть разложение целого числа на простые множители. Быстрый алгоритм для решения этой задачи позволил бы взломать RSA - один из самых распространенных криптопротоколов, и тем самым сильно изменить криптографию как науку, а также многие криптографические приложения. Такой алгоритм, реализуемый за разумное время на обычном компьютере, пока не найден. Сенсацией, привлекшей внимание ко всей области квантовых вычислений, стало создание Питером Шором (Peter Shor) в 1994 году быстрого квантового алгоритма факторизации. Для числа из n знаков этот алгоритм требует n3 (log n)k (k - константа) шагов. Самый мощный из известных на сегодня квантовый компьютер, построенный в 2001 в лаборатории IBM под руководством Айзека Чуанга (Isaac Chuang), работает только с семью кубитами и позволяет, используя алгоритм Шора, разложить на множители лишь числа, не больше 15. Квантовая система, состоящая из, скажем, 1000 кубитов, в теории позволила бы раскладывать на множители 500-значные булевы (приблизительно 150-значные десятичные) числа, что имело бы большой практический и теоретический интерес. Однако специалисты до сих пор ведут более и менее научные споры даже о принципиальной возможности создания квантовых вычислительных систем, работающих с таким количеством битов.

Среди технологий, с помощью которых ученые пытаются построить более мощные квантовые вычислители, назовем оптическую технологию, технологию ядерного магнитного резонанса (ЯМР) и технологию на основе переходов Джозефсона (Josephson junctions). Оптическая технология хороша тем, что с нею удобно работать (именно в ней реализованы описанные выше квантовые устройства). Однако одновременная работа уже с парой кубитов при этом довольно сложна из-за слабой связи между фотонами. С помощью технологии ЯМР была создана одна из самых больших рабочих квантовых систем, содержащая семь кубитов. Но используемые способы приготовления начального состояния квантовой системы в технологии ЯМР неэффективны. В технологии же переходов Джозефсона главная проблема - создание единичного стабильного кубита, зато наращивание их количества представляется не столь сложным.

Список использованых материалов:

Генетические алгоритмы

http://algolist.manual.ru/go.php?url=http://www.chat.ru/~saisa/

Квантовые вычисления

http://offline.computerra.ru

Статьи:

Квантовые кубики

Квантовые вычисления и связь: реальность и перспективы

Нейронные сети

http://www.neuropro.ru

http://algolist.manual.ru

Ежов А.А, Шумский С.А. Нейрокомпьютинг и его применение в экономике и бизнесе. М.: МИФИ, 1998. - 224с.