Форум информации.
Пожалуйста войдите в ваш профиль на форуме информации.Сразу после входа вам больше не будет показываться реклама,а также вы сможете воспользоваться всеми функциями форума.Если вы еще не зарегистрированы,то нажмите кнопку "регистрация" ниже и пройдите легкую процедуру регистрации.

Join the forum, it's quick and easy

Форум информации.
Пожалуйста войдите в ваш профиль на форуме информации.Сразу после входа вам больше не будет показываться реклама,а также вы сможете воспользоваться всеми функциями форума.Если вы еще не зарегистрированы,то нажмите кнопку "регистрация" ниже и пройдите легкую процедуру регистрации.
Форум информации.
Вы хотите отреагировать на этот пост ? Создайте аккаунт всего в несколько кликов или войдите на форум.
Форум информации.

Форум о криптографии,шифровании,криптоанализе.


Вы не подключены. Войдите или зарегистрируйтесь

что такое криптоанализ и его методы.

Перейти вниз  Сообщение [Страница 1 из 1]

Виженер

Виженер
Эксперт

Криптоанализ (от др.-греч. κρυπτός — скрытый и анализ) — наука о методах получения исходного значения зашифрованной информации, не имея доступа к секретной информации (ключу), необходимой для этого. В большинстве случаев под этим подразумевается нахождение ключа. В нетехнических терминах, криптоанализ есть взлом шифра (кода). Термин был введён американским криптографом Уильямом Ф. Фридманом в 1920 году.
Под термином «криптоанализ» также понимается попытка найти уязвимость в криптографическом алгоритме или протоколе. Хотя основная цель осталась неизменной с течением времени, методы криптоанализа претерпели значительные изменения, эволюционировав от использования лишь ручки и бумаги до широкого применения вычислительных мощностей специализированных криптоаналитических компьютеров в наши дни. Если раньше криптоаналитиками были большей частью лингвисты, то в наше время это удел «чистых» математиков.

Существует довольно много методов криптоанализа я расскажу вам пока об одном самом известном и легком в последствии вы увидите новые методы.
Частотный анализ
Одним из методов атак является частотный анализ.
Распределение букв в криптотексте сравнивается с
распределением букв в алфавите исходного сообщения.
Буквы с наибольшей частотой в криптотексте заменяются на букву
с наибольшей частотой из алфавита.
Вероятность успешного вскрытия повышается с увеличением
длины криптотекста.
Существуют множество различных таблиц о распределении букв в
том или ином языке, но ни одна из них не содержит
окончательной информации - даже порядок букв может
отличаться в различных таблицах. Распределение букв очень
сильно зависит от типа теста: проза, разговорный язык,
технический язык и т.п.

Шифр Виженера «размывает» характеристики частот появления символов в тексте.
Шифр Виженера «размывает» характеристики частот появления символов в тексте, но некоторые особенности появления символов в тексте остаются. Главный недостаток шифра Виженера состоит в том, что его ключ повторяется. Поэтому простой криптоанализ шифра может быть построен в два этапа:
Поиск длины ключа. Можно анализировать распределение частот в зашифрованном тексте с различным прореживанием. То есть брать текст, включающий каждую 2-ю букву зашифрованного текста, потом каждую 3-ю и т. д. Как только распределение частот букв будет сильно отличаться от равномерного (например, по энтропии), то можно говорить о найденной длине ключа.
Криптоанализ. Совокупность l шифров Цезаря (где l — найденная длина ключа), которые по отдельности легко взламываются.
Тесты Фридмана и Касиски могут помочь определить длину ключа.

Криптоанализ измененной системы AUTOCLAVE проще, чем для первоначальной. Аналитику достаточно только угадать или найти длину ключа d. Тогда он может взять первую и d+1 буквы из криптотекста. Тогда, по построению, для d+1 буквы ключом является первая, следовательно из квадрата Виженера можно определить букву, стоящую на d+1 месте в открытом тексте. Подобным образом может быть раскрыт весь текст сообщения, кроме первых d букв. Первая версия данной системы, где ключом служит сдвиг исходного сообщения, неуязвима против такой простой криптоатаки.

Для раскрытия первой версии AUTOCLAVE может быть использован метод Казиски. Пусть слово ИЛИ появляется дважды в исходном сообщении и расстояние между этими появлениями равно удвоенному смещению. Тогда найдется последовательность из трех букв, например КАН, расположенная посредине между появлениями ИЛИ. Таким образом, имеется следующая часть исходного сообщения: ... ИЛИ ... КАН ... ИЛИ ...

В процессе шифрования получаем:

Сообщение ... ИЛИ ... КАН ... ИЛИ ...
Автоключ ... ИЛИ ... КАН ...
Шифротекст ... ЬЛЩ ... ЬЛЩ ...
Таким образом, ЬЛЩ появляется дважды в криптотексте и расстояние между ними в точности равно периоду, в то время как для системы Виженера данный метод давал числа лишь кратные периоду. После того, как смещение известно, ключевое слово находится с помощью исчерпывающего поиска, основанного на подсчете частот индивидуальных букв. При получении ключевого слова все становится очевидным. Имеется n возможных набором для первой буквы ключевого слова. Когда этот выбор произведен, из него определяется первая буква сообщения, которая в свою очередь, определяет d+1, и так далее. Поэтому выбор первой буквы дает 1, d+1, 2d+1, ... буквы сообщения. Варианты, приводящие к последовательностям невозможных распределений, могут быть отброшены. Таки способом находится первая буква. Остальные d-1 букв определяются аналогично.

Метод Казиски

Примерно в 1860г. немецким криптоаналитиком Ф.У.Казиски(Kasisky) был изобретен метод вскрытия систем с неизвестным периодом с помощью обнаружения одинаковых слов в криптотексте. Допустим, слово ЫВАП появляется дважды с 13 буквами между двумя появлениями. Это может быть случайно, а может означать тот факт, что одинаковая часть сообщения зашифрована начиная с той же позиции ключа. Тогда расстояние между двумя Ы равно 16 и кратно длине ключа. поэтому возможная длина ключа равна 2, 4, 8, 16. Когда получается несколько таких предположений о длине ключа, некоторые из которых могут оказаться неправильными, то можно будет сделать верное предположение о длине ключа. Более длинные повторяющиеся слова предпочтительнее. Также преимуществом для криптоаналитика является повторение слов более одного раза.

https://infomir.forum2x2.ru

Виженер

Виженер
Эксперт

02.01 // Первая оценка возможности практического взлома AES: 1.5 триллиона US$ и менее года вычислений
Исследования в области специальных аппаратных средств для взлома шифров насчитывают почти столетнюю историю. В 1938 году польские математики, возглавляемые Марианом Режевски, создали электромеханическое устройство под названием "Бомба" (Bomba Kryptologiczna), позволившее им взломать немецкий шифр Enigma за счёт полного перебора положений 17576 роторов. Этот успех был развит английскими криптографами (с ведущей ролью Алана Тюринга и Гордона Велчмана), которые создали удачные машины для взлома шифров, позволившие силам союзников читать сообщения, зашифрованные Энигмой в ходе Второй Мировой войны. Параллельные усилия в криптоанализе другого немецкого шифра, Lorenz SZ40/42, привели к созданию первого в мире программируемого компьютера Colossus. Он содержал 1500 вакуумных ламп и был способен обрабатывать 5000 знаков в секунду.

В 1980 году Померанц и др. создали аппаратную архитектуру, названную Quasimodo для факторизации больших чисел с помощью алгоритма квадратичного решета. Quasimodo был построен, но не функционировал должным образом. Проект DES Cracker (также известный как Deep Crack) — это машина параллельного поиска ключа, разработанная организацией EFF в конце 1990-х с суммарным бюджетом всего 210000 US$. Deep Crack содержал около 1500 специальных микросхем и требовал по крайней мере 9 дней для нахождения 56-битного ключа DES за счёт атаки "грубой силой". Также в конце 1990-х Шамир предложил TWINKLE — электрооптическое устройство для выполнения шага просеивания в алгоритме NFS (решета числового поля). По его оценкам одного такого чипа было бы достаточно, чтобы за приемлемое время факторизовать 512-битные числа и, соответственно, взламывать 512-битные RSA-ключи. TWIRL, улучшенная модификация TWINKLE предполагала уменьшение полного времени просеивания до 10 минут. Оба эти устройства остались чисто гипотетическими, но привлекли значительное внимание криптосообщества и вызвали рост последующих исследований. Типичным примером стало появление устройства COPACOBANA на основе паралльной архитектуры FPGA (ПЛИС) для успешного криптоанализа шифров с 64-битным ключом (KeeLoq, DES и A5/1).

Дальнейший интерес связан с изучением возможностей графических процессоров (GPU) и специализированных микросхем ASIC.

Исследователи Алекс Бирюков и Йохан Гроссшадль из лаборатории алгоритмики, криптологии и безопасности Университета Люксембурга (LACS) впервые предоставили оценки возможности построения суперкомпьютера для практического взлома AES на основе передовых технологий GPU/ASIC/VLSI, использованных в NVIDIA GT200b. По их расчётам на сегодняшний момент возможности существующего "железа" позволяют осуществлять атаки, на проведение которых требуется 2100 вычислений. Следует понимать, что эти атаки можно считать практически осуществимыми только гипотетически (например, если вся энергетика, финансы и инфраструктура США будут направлены только на взлом AES в течении года, то это можно считать практически осуществимым взломом, по крайней мере в оценочном плане).

"Практическому взлому" можно считать подверженным не только AES-128, но и AES-256. Следует опять же различать, что даже если гипотетический противник, обладающий доступными в масштабе крупной страны сверхресурсами, потратит их на осуществление взлома, его практичность всё равно остаётся под сомнением: противнику нужно получить доступ к слишком большой утечке данных в рамках исполнения протокола, что может встречаться скорее в лабораторных условиях и ограничивает оценочный характер этого результата ещё в большей степени.

Исследователи рассмотрели две ранее известные атаки на полнораундовый AES, требующие исполнения 2100 операций. Первая атака — на связанных ключах против AES-256 (Related Key Cryptoanalysis — RKC) — 299.5 шагов исполнения и 278 памяти. Такая атака непрактична из-за малой вероятности появления связанных ключей в каком-либо практически используемом криптопротоколе. В простейшем случае используется простое соотношение K' = K ⊕ C, улучшенная версия этой же атаки (бумеранг-атака со связанными ключами) использует соотношение K' = F−1 (F(K) ⊕ C) = RC (K), где K, K' — неизвестные связанные ключи, F — раундовая функция ключевого расписания AES-шифрования, C — навязываемая атакующим константа. Несмотря на слишком сильную модель атакующего и невероятное количество предоставляемых ему данных, такая атака преодолевает психологический барьер сложности 2100.

Вторая атака основана на размене ключей-времени-памяти (Time-Memory-Key — TMK) против AES-128, также известна как атака с множественными целями. В этой атаке фиксированный открытый текст шифруется множеством различных секретных ключей, а целью атакующего является нахождение по крайней мере одного из этих ключей. Используя 232 целей, TMK-атака имеет сложность предвычислений 296, после чего каждый новый секретный ключ может быть найден с затратами времени 280 и памяти 256. Впервые атака такого рода предложена Хеллманом для инвертирования хэш-функций и использована для создания радужных таблиц. Идея состояла в просчёте хэш-цепочек и отбрасывании всех промежуточных значений кроме стартового и конечного. Пары конечных и стартовых цепочек сохранялись в памяти, сортировались в памяти по конечным значениям. В ходе атаки противник берёт шифртекст (хэш-значение) и повторяет функцию до нахождения конечного значения цепочки. Сравнивая конечное значение со списком уже просчитанных, он может найти нужную цепочку и требуемый прообраз.

Применительно к шифрам TMK-атака позволяет перебирать только часть пространства поиска за счёт оптимизации по требуемому параметру. В случае если сообщения (файлы) с одним и тем же заголовком шифруются множественными ключами, такую ситуацию можно признать практичной. Если пространство поиска N = 2n (n = 128 для AES-128), то располагая шифрованием фиксированного открытого текста Dk различными ключами, необходимо перебрать только N / Dk точек в пространстве. Для этого нужно использовать t / Dk шифротаблиц вместо t, что означает уменьшение памяти до M = mt / Dk (где m — количество начальных-конечных точек в таблице Хеллмана). Затраты времени T = t / Dk · t · Dk = t2 на основе исходной оптимизации Хеллмана (меньше проверок таблиц — больше точек с данными). Наконец, правило останова для матрицы N = mt2 — состояние минимизации расходов покрытия матрицы в результате проявления эффекта парадокса дней рождения. Используя правило останова для матрицы и сокращая параметры m и t, получаем формулу оптимизации: N2 = T(MDk)2.

Используя в качестве образца AES-128, атакующий за счёт 232 доступных шифрований фиксированного текста на различных неизвестных ключах восстанавливает один из этих ключей предвычислением 296 шагов и 256 обращений к памяти для табличного хранилища размером 261 байт и затрачивает в целом 280 шагов по времени для поиска ключа. Важным свойством является также то, что атака не является обязательно атакой с подобранным открытым текстом, так как конкретное значение открытого текста не важно. Для осуществления атаки быстрее, чем полным перебором, противник может найти, какое значение открытого текста наиболее часто используется в целевом приложении, собрать данные для различных ключей и провести атаку. Таким образом TMD-атака является более практичной, чем атака на связанных ключах (RKC).

Обе атаки требуют примерно одинаковых затрат и оборудования. Исследователи считают, что организация, способная потратить триллион долларов (что сопоставимо с размером годового оборонного бюджета США), может взломать AES-256 в сценарии RKC и подобных атак в течении года вычислений. Использование десятой части такого бюджета (100 миллиардов US$) достаточно для проведения TMK-атаки на AES-128 с 232 целями. Такая атака потребует год предвычислений, после чего каждый новый ключ может быть вычисляем за 280 AES-операций, т.е. каждые 8 минут на таком "менее масштабном" суперкомпьютере. Исследователи рассматривают гипотетический проект такого компьютера, названный ими CAESAR (“Cryptanalytic AES ARchitecture”). Эта гипотетическая машина (как TWINKLE или TWIRL), хотя и находится за границей реально доступных ресурсов, но в отличие от "кофейников Шамира", опирается на существующую технологию. Некоторые предположения и близкие прогнозы авторов касаются памяти. Так, реалистично ожидать появления жёстких дисков размером 10-100 терабайт, которых в таком случае потребуется всего 3 · 1010 — 3 · 109. Столько же потребуется и процессоров. Расходы энергии составят 4 тераватта, что превосходит годовое потребление энергии в США (3.34 тераватта), но развитие энергосберегающих вычислительных технологий позволяют несколько приблизить и эти границы.

В качестве перспективных факторов авторы рассматривают также:

Продолжение действия закона Мура для ближайших десятилетий, хотя и с некоторым замедлением.
Успехи в криптоанализе AES, снижающие сложность атак. Такие успехи являются спорадическими и непредсказуемыми, поэтому оценить влияние этого фактора сложно.
Появление магнито-электронных (спинтронных) компьютеров со значительно сниженным энергопотреблением.
Появление оптоэлектронных компьютеров, значительно снижающих энергопотребление для массированных вычислений.
Появление 3D-оптических накопителей. Уже сейчас достижим размер в 1 терабайт для дисков, аналогичных DVD. Возможно появление 100-терабайтных носителей.
Распространение квантовой голографии. В 2009 году уже был продемонстрирован результат возможности записи 3 эксабайт (261.5 байт) на квадратный дюйм.

По мнению исследователей, проект гипотетического суперкомпьютера CAESAR демонстрирует узкие места в затратах энергии и количестве памяти, но свидетельствует о снижении оценок практической стойкости AES в долговременной перспективе.

https://infomir.forum2x2.ru

Виженер

Виженер
Эксперт

Еще методы криптоанализа,сорри за повторения(если они есть)


Методы криптоанализа


1.1. Терминология и исходные допущения.
Криптология довольно четко делится на две части: криптографию (шифрование)
и криптоанализ. Криптограф пытается найти методы обеспечения секретности
и(или) аутентичности (подлинности) сообщений. Криптоаналитик пытается
выполнить обратную задачу, раскрывая шифр или подделывая кодированные
сигналы таким образом, чтобы они были приняты как подлинные. Исходное
сообщение, которому криптограф применяет свое искусство, называется
открытым текстом, а результат его работы - шифрованным текстом сообщения -
шифртекстом, или криптограммой. Для управления процессом шифрования
криптограф всегда использует секретный ключ. Часто (но не всегда) он
передает этот секретный ключ каким-либо надежным способом (например, в
"дипломате", пристегнутом наручниками к руке курьера) человеку (или
машине), которому он собирается позднее послать криптограмму, составленную
с использованием этого ключа.
Почти общепринятое допущение в криптографии состоит в том, что
криптоаналитик противника имеет полный текст криптограммы. Кроме того,
криптограф почти всегда руководствуется правилом, впервые сформулированным
голландцем Керкхоффом: стойкость шифра должна определяться только
секретностью ключа. Иными словами, правило Керкхоффа состоит в том, что
весь механизм шифрования, кроме значени секретного ключа, известен
криптоаналитику противника. Если криптограф принимает только эти два
допущения, то он разрабатывает систему, стойкую при анализе на основе
только шифрованного текста. Если к тому же криптограф допускает, что
криптоаналитик противника сможет достать несколько отрывков открытого
текста и соответствующего ему шифрованного текста, образованного с
использованием секретного ключа, то разрабатывается система, стойка при
анализе на основе открытого текста. Криптограф может даже допустить, что
криптоаналитик противника способен ввести свой открытый текст и получить
правильную криптограмму, образованную с использованием секретного ключа
(анализ на основе выбранного открытого текста), или предположить, что
криптоаналитик противника может подставить фиктивные криптограммы и
получить текст, в который они превращаются при расшифровании (анализ на
основе выбранного шифртекста), или допустить обе эти возможности (анализ
на основе выбранного текста). Разработчики большинства современных шифров
обеспечивают их стойкость к анализу на основе выбранного открытого текста
даже в том случае, когда предполагается, что криптоаналитик противника
сможет прибегнуть к анализу на основе шифртекста.
1.2. Задачи криптографии. Понятие стойкости криптографического алгоритма.
Криптология - "особая" область исследований. О достижениях этой науки все
чаще сообщают не только научные, но и научно-популярные журналы и обычная
пресса. За рубежом в последние годы наблюдается небывалый бум в области
криптологии. Это связано с тем, что ее достижения стали применятьс не
только в узких ведомственных кругах, но и в жизни миллионов граждан.
Широкое внедрение вычислительных систем привело к тому, что они становитс
привлекательными для различного рода информационных нападений. Это
облегчаетс тем, что информация оказалась лишенной своего физического
воплощения, как было ранее (например, текст написан на бумаге и подписан
автором). Отсутствие такого физического воплощения, сопряженное с
невозможностью аутентификации его автора, открыло путь к различного рода
нарушениям. В связи с этим появилась необходимость не только в обеспечении
конфиденциальности, но и в обеспечении контроля подлинности и целостности
информации. Кроме того, рост ценности информации и информатизация общества
ставят вопросы разграничения доступа к информации (например, если
пользователь не оплатил работу с базой знаний) и вопросы защиты от
компьютерного терроризма. На сегодняшний день така защита осуществляется
эффективно с использованием средств криптографии.
Системы и средства защиты информации (СЗИ) отличаютс от "обычных" систем и
средств тем, что для них не существует простых и однозначных тестов,
которые позволяют убедиться в том, что информация надежно защищена. Кроме
того, эффективность СЗИ и просто их наличие никак не связываютс на
работоспособности основной системы. Поэтому задача эффективности СЗИ не
может быть решена обычным тестированием. Например, для проверки
работоспособности системы связи достаточно провести ее испытания. Однако
успешное завершение этих испытаний не позволяет сделать вывод о том, что
встроенная в нее подсистема защиты информации тоже работоспособна.
Задача определения эффективности СЗИ (особенно, если используются
криптографические методы защиты), зачастую более трудоемкая, чем
разработка СЗИ, требует наличия специальных знаний и, как правило, более
высокой квалификации, чем задача разработки. Часто анализ нового шифра
является новой научной, а не инженерной задачей.
Эти обстоятельства приводят к тому, что на рынке появляется множество
средств криптографической защиты информации, про которые никто не может
сказать ничего определенного. При этом разработчики держат криптоалгоритм
(как показывает практика, часто нестойкий) в секрете. Однако задача
точного определения данного криптоалгоритма не может быть гарантированно
сложной хотя бы потому, что он известен разработчикам. Кроме того, если
нарушитель нашел способ преодоления защиты, то не в его интересах об этом
заявлять. В результате, пользователи таких СЗИ попадают в зависимость как
минимум от разработчика. Поэтому обществу должно быть выгодно открытое
обсуждение безопасности СЗИ массового применения, а сокрытие
разработчиками криптоалгоритма должно быть недопустимым.
Криптосхемой или криптоалгоритмом будем называть собственно алгоритм
шифрования, имитозащиты, и других криптографических функций.
Криптографическим протоколом будем называть набор правил и процедур,
определяющий использование криптоалгоритма. Криптосистема представляет
собой совокупность криптосхемы, протоколов и процедур управления ключами,
включая изготовление и распространение. Эти определения не претендуют на
строгость и не позволяют провести четкую границу между криптоалгоритмом и
протоколом. Так, хэш-функция y = F( z , x ) + x , где F -
криптопреобразование с известным ключом z, может рассматриватьс и как
самостоятельный криптоалгоритм, и как протокол, использующий
преобразование F. Однако для дальнейшего изложения этих определений
достаточно.
Принято различать криптоалгоритмы по степени доказуемости их безопасности.
Существуют безусловно стойкие, доказуемо стойкие и предположительно
стойкие криптоалгоритмы. Безопасность безусловно стойких криптоалгоритмов
основана на доказанных теоремах о невозможности раскрытия ключа. Примером
безусловно стойкого криптоалгоритма являетс система с разовым
использованием ключей (шифр Вернама) или система квантовой криптографии,
основанная на квантовомеханическом принципе неопределенности. Стойкость
доказуемо стойких криптоалгоритмов определяется сложностью решени хорошо
известной математической задачи, которую пытались решить многие математики
и которая является общепризнанно сложной. Примером могут служить системы
Диффи-Хеллмана или Ривеста-Шамира-Адельмана, основанные на сложностях
соответственно дискретного логарифмирования и разложения целого числа на
множители. Предположительно стойкие криптоалгоритмы основаны на сложности
решения частной математической задачи, которая не сводится к хорошо
известным задачам и которую пытались решить один или несколько человек.
Примерами могут криптоалгоритмы ГОСТ 28147-89, DES, FEAL.
К сожалению безусловно стойкие криптосистемы неудобны на практике (системы
с разовым использованием ключа требуют большой защищенной памяти для
хранения ключей, системы квантовой криптографии требуют
волоконно-оптических каналов связи и являются дорогими, кроме того,
доказательство их безопасности уходит из области математики в область
физики).
Достоинством доказуемо стойких алгоритмов являетс хорошая изученность
задач, положенных в их основу. Недостатком их являетс невозможность
оперативной доработки криптоалгоритмов в случае появлени такой
необходимости, то есть жесткость этих криптоалгоритмов. Повышение
стойкости может быть достигнуто увеличением размера математической задачи
или ее заменой, что, как правило, влечет цепь изменений не только в
шифрованной, но и смежной аппаратуре.
Предположительно стойкие криптоалгоритмы характеризуютс сравнительно малой
изученностью математической задачи, но зато обладают большой гибкостью,
что позволяет не отказываться от алгоритмов, в которых обнаружены слабые
места, а проводить их доработку.
Задача обеспечения защищенной связи включает в себя целый комплекс
проблем. Это задача обеспечения секретности и имитозащиты, опознавания
(аутентификации) и задача управления ключами, включая их выработку,
распределение и доставку пользователям, а также их оперативную замену в
случае необходимости.
Общая схема организации защищенной связи приведена на рисунке 2.1. Этой же
схемой описывается и абонентское шифрование, когда пользователь шифрует
информацию, хранимую в памяти ЭВМ. В последнем случае источник сообщений и
получатель отождествляется, а канал связи может иметь произвольные
задержки.
Источник сообщений вырабатывает произвольную информацию (открытые тексты)
с каким-то распределением вероятностей. Шифратор шифрует это сообщение на
конфиденциальном (известном только отправителю и получателю) ключе Z и
переводит открытый текст в шифрованный текст или шифрограмму
(криптограмму, шифртекст). Ключи вырабатываются источником ключей и по
безопасным каналам рассылаются абонентом сети связи. Дешифратор раскрывает
принятую шифрограмму и передает получателю.
В схему на рисунке 2.1. включены еще рандомизатор и решающее устройство.
Рандомизатор делает все шифрограммы непохожими друг на друга, даже если
входные сообщения одинаковы. Цель этого будет разъяснена ниже. Решающее
устройство принимает решение о том, является ли принятое сообщение
подлинным, то есть выполняет функцию имитозащиты.
Операции шифрования и расшифрования можно описать так: Y = E(X), X = D(Y).
Для взаимной однозначности необходимо, чтобы DE было единичным
преобразованием. В этом разделе будет предполагатьс наличие у отправителя
и получателя общего секретного ключа Z. (На самом деле ключи у них не
обязательно одинаковые, но знание одного ключа, например шифрования,
позволяет легко вычислить другой. Поэтому рассматриваемые криптоалгоритмы
иногда называют симметричными, или одноключевыми. Соответственно, и
криптография, занимающаяся изучением таких алгоритмов, называется
одноключевой). Данна схема применяется в том случае, если абоненты сети
доверяют друг другу.
Ниже показано, как с помощью одноключевой криптографии решаются вопросы
имитозащиты и опознавания (секретность обеспечиваетс очевидным образом).
Подлинность и целостность сообщения обеспечиваютс его криптографическим
преобразованием, выполняемым с помощью секретного ключа. Например, если
отправитель передаст сразу и открытый (не требующий засекречивания), и
зашифрованный тексты, то это позволит получателю, знающему ключ,
утверждать, что текст при передаче по каналу связи не был изменен, если
результат расшифрования шифрограммы совпадает с открытым текстом.
Действительно, случайное совпадение соответствующих друг другу открытого
текста и шифрограммы - практически невозможное событие. Эту пару мог
составить лишь отправитель, знающий секретный ключ. Отсюда следует и
подлинность сообщения (отправитель отождествляется с владельцем ключа). В
действительности нет необходимости передавать всю шифрограмму, достаточно
передать лишь ее часть, называемую имитовставкой, которая должна зависеть
от всего открытого текста. Тогда получатель может на основании полученного
текста и ключа вычислить свою имитовставку и проверить ее соответствие
полученной.
Для опознавания пользователя используется следующий диалог. Проверяющий
вырабатывает случайный текст и посылает опознаваемому для шифрования.
Опознаваемый шифрует этот текст и возвращает проверяющему. Тот проверяет
соответствие шифрограммы тексту. Правильный ответ может составить только
владелец секретного ключа, который отождествляется с законным
пользователем. Очевидно, что прослушивающий диалог нарушитель не сможет
правильно зашифровать новый текст и назваться пользователем. (Исключением
является аналогия известного жульничества, примененного при игре в шахматы
по почте, когда нарушитель просто транслирует ответы и запросы подлинным
проверяющему и проверяемому, ведя диалог одновременно с каждым из них).
Принципиальное отличие данной системы от опознавания по паролю, где
подслушивание позволяет узнать секретный пароль и в дальнейшем
воспользоваться этим, заключается в том, что здесь по каналу связи
секретная информация не передается. Ясно, что и стойкость шифрования, и
имитостойкость, и стойкость опознавания могут быть обеспечены, если
положенное в основу криптопреобразование является стойким в смысле
раскрытия ключа.
Криптографические алгоритмы обычно строятся с использованием простых и
быстро выполняемых операторов нескольких типов. Множество обратимых
операторов, преобразующих текст длиной n бит в текст длинной n бит,
являются элементами группы обратимых операторов по умножению (подстановок
n-разрядных слов). Пусть f,g,h - обратимые операторы, то есть существуют f
-1, g -1 , h -1 . Поэтому hgf - последовательное выполнение операторов
f,g,h - тоже обратимый оператор (операторы выполняются справа налево) с
обратным оператором к этому произведению f -1, g -1 , h -1 . Поэтому
дешифратор выполняет те же операции, что и шифратор, но в обратном
порядке, и каждый оператор расшифрования является обратным к
соответствующему оператору шифрования. Некоторые операторы являются
взаимно обратными, то есть выполнение подряд два раза некоторой операции
над текстом дает исходный текст. В терминах теории групп это записывается
уравнением f 2 = e , где e - единичный оператор. Такой оператор называется
инволюцией. Можно сказать, что инволюция представляет собой корень из
единицы. Примером инволюции является сложение по модулю два текста с
ключом.
Нарушитель может решать следующие задачи. Он может пытаться раскрыть
зашифрованную информацию, организовать выборочное пропускание той или иной
информации, наконец, он может пытаться изменить подлинную или навязать
ложную информацию. Принципиальное различие задач засекречивания и
имитозащиты заключается в том, что ключ засекречивани должен быть не
доступен нарушителю в течение срока секретности информации, который обычно
гораздо больше, чем срок действия ключа и может составлять десятки лет.
Ключ имитозащиты представляет интерес для нарушителя только во время его
действия. Поэтому и требования к нему предъявляются менее жесткие, чем к
ключу засекречивани.
Существует еще одно важное применение одноключевой криптографии. Это
осуществление вычислимого в одну сторону преобразовани информации. Такое
преобразование называется хэш-функцией. Особенность этого преобразования
заключается в том, что прямое преобразование y=h(x) вычисляется легко, а
обратное x=h-1(y) - трудно. Вообще говоря, обратное преобразование не
является функцией, поэтому правильнее говорить о нахождении одного из
прообразов для данного значения хэш-функции. В этом случае ключа,
понимаемого как некоторая конфиденциальная информация, нет. Однако стойкие
хэш-функции, для которых прообраз по данному значению функции тяжело
найти, реализуются криптографическими методами и требуют для обоснования
стойкости проведения криптографических исследований. Типичное применение
хэш-функции - создание сжатого образа для исходного текста такого, что
найти другой текст, обладающий таким же образом, вычислительно невозможно.
Задача создания стойкой хэш-функции возникает, например, при цифровой
подписи текстов.
Одно из возможных самостоятельных применений хэш-функций - это опознавание
пользователя с помощью цепочки вида x , h(x) , h(h(x)) = h 2(x), h 3(x),
... h k(x).
Последнее значение цепочки h k(x) является контрольной информацией для
проверяющего, а пользователь знает h k-1(x) и предъявляет эту информацию
по требованию проверяющего. Проверяющий вычисляет h(h k-1(x)) и сравнивает
с контрольной. В следующий раз этот пользователь должен предъявить h
k-2(x), а контрольной информацией является h k-1(x) и т.д. Это интересное
решение, предложенное А. Конхеймом, однако имеет ряд недостатков.
Во-первых, пользователю надо хранить всю цепочку h i(x), что требует
большого объема памяти, если число опознаваний может быть велико.
Во-вторых, если у каждого пользователя есть несколько проверяющих , то
встает вопрос о синхронизации проверяющих по показателям последнего
использованного значения h i(x), то есть требуется каналы связи между
каждой парой проверяющих.
Способность криптосистемы противостоять атакам (активного или пассивного)
криптоаналитика называется стойкостью. Количественно стойкость измеряется
как сложность наилучшего алгоритма, приводящего криптоаналитика к успеху с
приемлемой вероятностью. В зависимости от целей и возможностей
криптоаналитика меняется и стойкость. Различают стойкость ключа (сложность
раскрытия ключа наилучшим известным алгоритмом), стойкость бесключевого
чтения, имитостойкость (сложность навязывания ложной информации наилучшим
известным алгоритмом) и вероятность навязывания ложной информации. Это
иногда совершенно различные понятия, не связанные между собой. Некоторые
криптосистемы, например RSA, позволяют навязывать ложную информацию со
сложностью, практически не зависящей от стойкости ключа. Аналогично можно
различать стойкость собственно криптоалгоритма, стойкость протокола,
стойкость алгоритма генерации и распространения ключей.
Уровень стойкости зависит от возможностей криптоаналитика и от
пользователя. Так, различают криптоанализ на основе только шифрованного
текста, когда криптоаналитик располагает только набором шифрограмм и не
знает открытых текстов, и криптоанализ на основе открытого текста, когда
криптоаналитик знает и открытие, и соответствующие шифрованные тексты.
Поскольку криптоалгоритм обычно должен быть достаточно универсальным,
естественным представляется требование, чтобы стойкость ключа не зависела
от распределени вероятностей источника сообщений. В общем случае источник
сообщений может вырабатывать "удобные" для нарушителя сообщения, которые
могут стать ему известными. В этом случае говорят о криптоанализе на
основе специально выбранных открытых текстов. Очевидно, что стойкость
ключа по отношению к анализу на основе выбранных текстов не может
превышать стойкости по отношению к анализу на основе открытых текстов, а
она, в свою очередь, не может превышать стойкости по отношению к анализу
на основе шифрованных текстов. Иногда разработчиком СЗИ допускается даже,
что враждебный криптоаналитик может иметь доступ к криптосистеме, то есть
быть "своим".
Обычно криптоалгоритмы разрабатывают так, чтобы они были стойкими по
отношению к криптоанализу на основе специально выбранных открытых текстов.
Понятие "наилучшего алгоритма" раскрытия ключа в определении стойкости
неконструктивно и допускает субъективное толкование (для кого-то из
разработчиков наилучшим алгоритмом может быть простой перебор ключей).
По-видимому, ни для одного из используемых криптоалгоритмов не определен
наилучший алгоритм раскрытия ключа, то есть задача нахождени наилучшего
алгоритма является чрезвычайно сложной. Поэтому на практике для оценки
стойкости пользуются наилучшим известным или найденным в ходе исследований
алгоритмом раскрытия. Таким образом, на практике никто не может помешать
способному криптоаналитику снизить оценку стойкости, придумав новый, более
эффективный метод анализа.
Создание новых эффективных методов раскрыти ключа или иного метода
ослабления криптоалгоритма может давать осведомленным лицам большие
возможности по нанесению ущерба пользователям, применяющим данный
криптоалгоритм. Публикация или замалчивание этих сведений определяютс
степенью открытости общества. Рядовой пользователь системы бессилен
помешать нарушителю в раскрытии его ключей.
Из изложенного следует, что понятие "наилучшего известного" алгоритма
неабсолютно: завтра может появиться новый более эффективный алгоритм
раскрытия, который приведет к недопустимому снижению стойкости
криптоалгоритма. С развитием математики и средств вычислительной техники
стойкость криптоалгоритма может только уменьшаться. Для уменьшения
возможного ущерба, вызванного несвоевременной заменой криптоалгоритма,
потерявшего свою стойкость, желательна периодическая перепроверка
стойкости криптоалгоритма. Для снижения вероятности непредсказуемого
"обвала" вновь разработанного криптоалгоритма необходимо проведение
криптографических исследований.
Из рассмотренного выше следует, что понятие стойкости криптосистемы
многогранно. Стойкость зависит не только от разработчика, но и от
особенностей использования данного криптоалгоритма в системе управлени или
связи, от физической реализации криптоалгоритма, а также от будущих
успехов математики и вычислительной техники. Ведь криптосистема может
эксплуатироватьс много лет, а необходимость сохранять в секрете в течение
длительного времени переданную ранее по открытым каналам связи информацию
может сделать необходимым прогнозировать развитие науки и техники на
десятилети.
1.3. Необходимость криптоанализа.
Последние десятилетие характеризуется резким увеличением числа открытых
работ по всем вопросам криптологии, а криптоанализ становится одной из
наиболее активно развивающихся областей исследований. Многие
криптосистемы, стойкость которых не вызывала особых сомнений, оказались
успешно раскрытыми. При этом разработан большой арсенал математических
методов, представляющих прямой интерес для криптоаналитика.
В начале 1970-х гг. была известна только классическая одноключевая
криптография, но число открытых работ по этой тематике было весьма
скромным. Отсутствие интереса к ней можно объяснить целым рядом причин.
Во-первых, острой потребности в криптосистемах коммерческого назначения,
по-видимому, еще не ощущалось. Во-вторых, большой объем закрытых
исследований по криптографии обескураживал многих ученых, которым,
естественно, хотелось получить новые результаты. И наконец, может быть,
самый важный фактор заключается в том, что криптоанализ как научная
дисциплина фактически по-прежнему представлял собой большой набор
разрозненных "трюков", не объединенных стройной математической концепцией.
В 1970-х гг. ситуация радикально изменилась. Во-первых, с развитием сетей
связи и повсеместным вторжением ЭВМ необходимость в криптографической
защите данных стала осознаваться все более широкими слоями общества.
Во-вторых, изобретение Диффи и Хелманном криптографии с открытым ключом
создало благоприятную почву для удовлетворения коммерческих потребностей в
секретности, устранив такой существенный недостаток классической
криптографии, как сложность распространения ключей. По существу, это
изобретение гальванизировало научное сообщество, открыв качественно новую
неисследованную область, которая к тому же обещала возможность широкого
внедрения новых результатов быстро развивающейся теории вычислительной
сложности для разработки конкретных систем с простым математическим
описанием. Ожидалось, что стойкость таких систем будет надежно опираться
на неразрешимость в реальном времени многих хорошо известных задач и что,
может быть, со временем удастся доказать принципиальную нераскрываемость
некоторых криптосистем.
Но надежды на достижение доказуемой стойкости посредством сведения задач
криптографии к хорошо известным математическим задачам не оправдалась, а,
скорее, наоборот. Именно то обстоятельство, что любую задачу отыскани
способа раскрытия некоторой конкретной криптосистемы можно
переформулировать как привлекательную математическую задачу, при решении
которой удаетс использовать многие методы той же теории сложности, теории
чисел и алгебры, привело к раскрытию многих криптосистем. На сегодняшний
день классическа лента однократного использования остается единственной,
безусловно, стойкой системой шифрования.
Идеальное доказательство стойкости некоторой криптосистемы с открытым
ключом могло бы состоять в доказательстве того факта, что любой алгоритм
раскрытия этой системы, обладающий не пренебрежимо малой вероятностью ее
раскрытия, связан с неприемлемо большим объемом вычислений. И хотя ни одна
из известных систем с открытым ключом не удовлетворяет этому сильному
критерию стойкости, ситуацию не следует рассматривать как абсолютно
безнадежную. Было разработано много систем, в отношении которых доказано,
что их стойкость эквивалентна сложности решения некоторых важных задач,
которые почти всеми рассматриваются как крайне сложные, таких, например,
как известная задача разложения целых чисел. (Многие из раскрытых
криптосистем были получены в результате ослабления этих предположительно
стойких систем с целью достижени большого быстродействия.) Кроме того,
результаты широких исследований, проводившихся в течение последних десяти
лет как в самой криптографии, так и в общей теории вычислительной
сложности, позволяют современному криптоаналитику гораздо глубже понять,
что же делает его системы нестойкими.
Проведение криптоанализа для давно существующих и недавно появившихс
криптоалгоритмов очень актуально, так как вовремя можно сказать, что
данный криптоалгоритм нестоек, и усовершенствовать его или заменить новым.
Дл того, чтобы выявлять нестойкие криптоалгоритмы необходимо все время
совершенствовать уже известные методы криптоанализа и находить новые.
2. Обзор известных методов криптоанализа классических шифров.
Направление криптоанализа могут быть различными, в соответствии с
направлениями криптографии: это раскрытие ключа, навязывание ложной
информации за счет нахождения слабостей в криптоалгоритме или протоколе,
возможность бесконечного чтения зашифрованной информации и т.п.
Криптоалгоритм, как правило, должен быть стойким по отношению к
криптоанализу на основе выбранных открытых текстов. Первое требование по
существу означает, что рассекречивание некоторой информации,
передававшейся по каналу связи в зашифрованном виде, не должно приводить к
рассекречиванию другой информации, зашифрованной на этом ключе. Второе
требование учитывает особенности эксплуатации аппаратуры и допускает
некоторые вольности со стороны оператора или лиц, имеющих доступ к
формированию засекреченной информации.
Криптоанализ может базироваться на использовании как общих математических
результатов (например методов разложения больших чисел для раскрытия
криптосистемы RSA), так и частных результатов, полученных для конкретного
криптоалгоритма. Как правило, алгоритмы криптоанализа являютс
вероятностными.
2.1. Типовые методы криптоанализа классических алгоритмов
2.1.1. Метод встречи посередине.
Если множество ключей криптоалгоритма замкнуто относительно композиции, то
есть для любых ключей z i и z j найдется ключ zk такой, что результат
шифрования любого текста последовательно на z i и z j равен шифрограмме
этого же числа на zk , то есть F(z j ,F(z i , x))= F(z k , x), то можно
воспользоваться этим свойством. Пусть нам нужно найти ключ zk. Тогда для
нахождения ключа zk, необходимо найти эквивалентную ему пару ключей zi ,
zj. Данный метод криптоанализа основан на "парадоксе дней рождения".
Известно, что если считать, что дни рождения распределены равномерно, то в
группе из 24 человек с вероятностью 0,5 у двух человек дни рождения
совпадут. В общем виде этот парадокс формулируется так: если a Ц n
предметов выбираются с возвращением из некоторой совокупности размером n,
то вероятность того что два из них совпадут, равна 1-exp(-a2 / 2) .
Пусть известен открытый текст x и его шифрограмма y. Для текста x строим
базу данных, содержащую случайное множество ключей z| и соответствующих
шифрограмм w=F(z| , x), и упорядочиваем ее по шифрограммам w. Объем базы
данных выбираем О( Ц # ). Затем подбираем случайным образом ключи z| |
для расшифровки текстов y и результат расшифровани v = F(z| | , y)
сравниваем с базой данных. Если текст v окажется равным одной из
шифрограмм w, то ключ z| z| | эквивалентен искомому ключу z. Временная
сложность метода составляет О( Ц # log#). Множитель log#
учитывает сложность сортировки. Требуемая память равна О( Ц # log#)
бит или ОЦ # ) блоков ( предполагается, что длина блока и длина ключа
различаются на ограниченную константу ).
Этот же метод применим, если множество ключей содержит достаточно большое
подмножество, являющееся полугруппой.
Другое применение этого метода для множества, не являющегося полугруппой,
можно продемонстрировать на хэш-функциях. Например, для подделки подписи
надо найти два текста, обладающих одним хэш-образом. После этого можно
подписанное сообщение заменить на другое, обладающее таким же хэш-образом.
Поиск двух таких сообщений можно выполнить с использованием метода
"встречи посередине". Сложность поиска равна О(Ц #), где # - число
всевозможных хэш-образов.
Этот алгоритм является вероятностным. Однако существуют и
детерминированный аналог этого алгоритма "giant step - baby step" с такой
же сложностью, предложенный американским математиком Д.Шенксом.
2.1.2. Метод Полларда.
Этот вероятностный метод основан на следующем факте. Если на некотором
конечном множестве М определить случайное отображение f и применить его
поочередно ко всем элементам М, а ребрами соответстви - y=f(x) для x,yН М.
Поскольку множество М конечно, то этот граф должен содержать деревья,
корни которых соединены в циклы. Дл случайного отображения f длина цикла
равна О(Ц #М ) и высота дерева в среднем равна О(Ц #М ).
Для нахождения ключа, например в криптоалгоритме, основанном на задаче
логарифма на некоторой группе, достаточно решить задачу о встрече на графе
случайного отображения. Для этого из двух разных стартовых точек x0|, x0|
| строятс траектория до входа в цикл. Затем одна из двух конечных точек,
лежащих в цикле, фиксируется, а траектория другой продолжается до встречи
с фиксированной точкой. Для функции f и точки входа x0 длина траектории
составляет О(Ц #М ) шагов. Типичный вид этой траектории содержит
предельный цикл длины О(Ц #М ) и отрезок до входа в цикл примерно такой же
длины. В качестве индикатора замыкания траектории Поллард предложил
использовать равенство xi = x2i , где xi - i-я точка траектории для входа
x0. Это равенство будет выполняться всегда. Значение индекса i не
превышает суммы длины пути до входа в цикл.
В среднем сложность нахождения равенства xi = x2i равна 3Ц (p /Cool#М.
Сложность встречи, когда обе точки лежат в цикле, равна 0,5Ц (p /Cool#М.
Таким образом, итоговая сложность равна 6,5Ц (p /Cool#М.
Метод Полларда применяется для решения задачи логарифма на циклической
группе, поиска частично эквивалентных ключей (коллизий), для нахождения
двух аргументов, дающих одинаковое значение хэш-функции, и в некоторых
других случаях. Применительно к задаче логарифмирования этот метод
позволяет отказаться от использования большого объема памяти по сравнению
с методом встречи посередине. Кроме того, пропадает необходимость
сортировки базы данных. В результате временная сложность по сравнению с
методом встречи посередине снижается на множитель О(log#М). Сложность
этого метода в данном случае составляет О(Ц #М ) шагов и требует памяти
объема О(1) блоков. Однако не всегда требуетс малая память.
Рассмотрим в качестве иллюстрации метода Полларда алгоритм нахождения
коллизии (двух аргументов, дающих одинаковое значение хэш-функции) для
вычислительной модели с объемом памяти О(v). Такими аргументами будут
элементы множества М, стрелки от которых под действием хэш-функции f ведут
в точку входа в цикл. Практически алгоритм сводится к нахождению точки
входа в цикл.
1. Войти в цикл, используя равенство xi = x2i = t .
2. Измерить длину цикла m, применяя последовательно отображение f к
элементу t до получения равенства fm(t)=t .
3. Разбить цикл m на v интервалов одинаковой или близкой длины и создать
базу данных, запомнив и упорядочив начальные точки интервалов.
4. Для стартовой вершины п.1 выполнять одиночные шаги до встречи с
какой-либо точкой из базы данных п.3. Отметить начальную и конечную точки
интервала, на котором произошла встреча.
5. Стереть предыдущую и создать новую базу данных из v точек, разбив
интервал, на котором произошла встреча, на равные по длине части, запомнив
и отсортировав начальные точки интервалов.
6. Повторить процедуры пп.4,5 до тех пор, пока не получится длина
интервала, равная 1. Вычислить точку встречи в цикле, вычислить коллизию
как пару вершин, одна из которых лежит в цикле, а друга - нет.
Этот алгоритм требует многократного выполнени О( Ц #М ) шагов до входа в
цикл и выполнени сортировки базы данных. На каждом этапе при создании
новой базы данных длина интервала сокращается в v раз, то есть количество
повторов равно О( logv #М ). Если v << Ц #М, то сложностью сортировки базы
данных можно пренебречь. Тогда сложность алгоритма равна О(Ц #М logv #М).
Рассмотрим возможность улучшения оценки сложности этого метода за счет
увеличения доступной памяти. Напомним, что почти все вершины графа
случайного отображения лежат на одном дереве. Поэтому будем решать задачу
о встрече на случайном ориентированном дереве. С ростом глубины h ширина
дерева b(h) уменьшается, то есть случайное отображение обладает сжимающими
свойствами. Поэтому с ростом глубины вершины, с одной стороны,
увеличивается сложность встречи за счет многократного применения
отображения, с другой стороны, увеличивается вероятность встречи в силу
сжимающих свойств. Доля вершин с глубиной не менее h равна О(1/h).
Рассмотрим два алгоритма для решения задачи о встрече. Первый алгоритм
предусматривает выбор множества m случайных начальных вершин, применение к
ним к раз отображения, сортировку множества конечных вершин и поиск среди
них равных. Второй алгоритм предусматривает запоминание всей траектории
спуска для каждой вершины, сортировку множества вершин, составляющих
траектории, и поиск среди равных. Второй алгоритм являетс не менее
сложным, чем первый, в силу сжимающих свойств случайного отображения.
Сложность первого алгоритма равна km (log m). Множитель log m учитывает
сложность сортировки. В силу парадокса дней рождения m = О(#M/h)0.5. Для
одного шага сложность алгоритма равна О(Ц #M log#M), то есть этот алгоритм
более эффективный, чем алгоритм встречи посередине.
После первого шага от листа глубины становитс равной О( log#М ). Однако в
дальнейшем рост глубины с каждым шагом замедляется. Это объясняется
существенно разрывным характером условной вероятности р(h|H) получения
глубины h при исходной глубине H. Действительно, из определения глубины
следует, что каждая вершина с глубиной H+1 связана ребром с вершиной с
глубиной H. Из каждой вершины исходит единственное ребро. Поэтому в силу
количественных оценок ширины графа р(H+1|H)=[O(H-2 -
(H+1)-2)]/O(H-2)=1-O(H-1).
Числитель этого выражения равен разности ширины графа на глубинах H и H+1,
знаменатель учитывает то, что исходная глубина равна Н. Вероятность
попасть на глубину h>H+1 определяется вероятностью непопадания на глубину
H+1 и шириной графа, р(h|H)=O(H-1h-2).
Сравним вероятность pk(h) получени глубины h после k шагов при спуске от
листа и вероятность pk(h|Mk-1) глубины h после k шагов при условии, что на
шаге k-1 глубина равнялась математическому ожиданию. Имеет место оценка
pk(h)> pk(h|Mk-1). Поэтому место вероятности сложного события pk(h) можно
рассматривать вероятность простого события pk(h|Mk-1).
Пусть стартовая вершина лежит на глубине H=O( log#M). Какова будет глубина
после очередного шага? Непосредственные вычисления показывают, что
математическое ожи

https://infomir.forum2x2.ru

Вернуться к началу  Сообщение [Страница 1 из 1]

Права доступа к этому форуму:
Вы не можете отвечать на сообщения