|
В муле хэш считается для каждого куска, это позволяет восстанавливать части файлов, а неправильные части скачивать заново. Даже если отправитель подменит хэш, получатель просто скачает эту часть с другого источника. Все равно получатель пересчитывает хэш. Максимум чего можно добиться - замедления скачивания. Действовать это должно только для специально выбранных файлов. То есть сначала надо отловить песню в сети, посчитать ее хэш, потом передавать фейк с этим же хэшем. Для скачивания распространенных файлов обычно доступно несколько десятков или сотен источников. Всего в мире миллионы хостов, пользующихся p2p. Неужели кто-то наивно полагает, что можно своими левыми источниками как-то помешать общему процессу? Как сказали уже в том линке, единичные хосты ( ну пусть даже сотни по миру) будут просто забанены. Уже сейчас стандартно применяются файлы типа ipfilter.dat. Просто туда добавится несколько хостов/сетей, не более. Идея обречена изначально. Это блеф. Только я не понимаю, на кого расчитана эта информация? Обывателю пофиг. Те, кто использует пир-ту-пир, сами понимают, что это бред.
Можно было бы предположить, что они будут создавать куски файлов, которые при подсчете контрольной суммы будут иметь тот же хэш. Но это под силу только суперкомпьютерам и для очень маленькой последовательности данных. Ведь там используется не обратимое шифрование на подобие MD5. Хэш на то и расчитан математически, чтобы повторить его было почти невозможно. Для примера: попробуйте подобрать брутфорсом пароль к какой-нибудь разновидности юниксов, чтобы он давал тот же хэш в /etc/shadow ( /etc/master.passwd). А ведь там значимыми являются только 8 символов ( против мегабайтов в передаваемых файлах). В файлах могут использоваться любые символы, то есть каждый следующий символ увеличивает сложность вычислений в 2^8=256 раз. Для двух дополнительных символов получаем 2 в шестнадцатой степени. Для 4 два в тридцать второй. Конечно, другие последовательности символов для получения того же хэша существуют. Но однозначного алгоритма кроме перебора для их поиска нет. А ведь если примерить разные методы подсчета хэша одного фрагмента, то перебор тоже теряет смысл, так как подобной комбинации символов, когда оба хэша совпадут одновременно, может просто не существовать. Цифры получаются астрономические.
|