Ты спрашиваешь:
- Действительно ли это осуществимо, как предполагают авторы? Согласно статье, их результаты очень эффективны и всегда сжимают данные до меньшего размера. Разве размер словаря не будет огромным?
Да, конечно. Даже для их подобранного вручную примера («БЫСТРЫЙ СЕРЕБРЯНЫЙ ФОКС ПЕРЕРЫВАЕТСЯ НА ЛЕНОЧНУЮ СОБАКУ») они не достигают сжатия, поскольку словарь содержит каждую 4-байтовую подстроку текста (минус 4 байта за одно повторение) ") ... и" сжатая "версия текста должна включать в себя весь словарь и всю эту хрень с простыми числами.
- Разве это не может быть использовано для повторного повторного сжатия сжатых данных с использованием того же алгоритма? Очевидно и было продемонстрировано, что такие методы (когда сжатые данные повторно сжимаются столько раз, сколько возможно, резко уменьшая размер файла) невозможны; действительно, не было бы биекции между набором всех случайных данных и сжатых данных. Так почему же это кажется возможным?
Снова вы, кажется, хорошо разбираетесь в ситуации. Вы интуитивно поняли, что никакая схема сжатия не может быть эффективной на всех входах, потому что если бы она была таковой, мы могли бы просто применять ее снова и снова, чтобы сжать любой вход до одного бита, а затем - в ничто!
Другими словами: после того, как вы сжали все ваши файлы .wav в .mp3, вы не получите никакого улучшения в размере файлов, сжав их. Если ваш MP3-компрессор справился со своей работой, не останется никаких шаблонов для использования ZIP-компрессором.
(То же самое относится и к шифрованию: если я возьму файл с нулями и зашифрую его в соответствии с моим выбранным алгоритмом шифрования, полученный файл лучше не сжимать , иначе мой алгоритм шифрования пропускает «образец» в свой вывод!)
- Даже если техника еще не совершенна, она, очевидно, может быть оптимизирована и значительно улучшена. Почему это не более широко известно / изучено? Если эти утверждения и экспериментальные результаты действительно верны, разве это не может революционизировать компьютерные технологии?
Эти утверждения и экспериментальные результаты не соответствуют действительности.
Как уже отмечал Том ван дер Занден, «алгоритм сжатия» Чакраборти, Кар и Гуше имеет недостатки в том, что он не только не обеспечивает какой-либо степени сжатия, но и необратим (в математическом выражении «не биективно»): множество текстов, которые все «сжимаются» в одно и то же изображение, потому что их алгоритм в основном является умножением, а умножение - коммутативным.
Вам должно быть приятно, что ваше интуитивное понимание этих концепций мгновенно привело вас к правильному выводу. И, если вы можете сэкономить время, вам следует пожалеть авторов статьи, которые явно потратили много времени на размышления на эту тему, даже не понимая ее.
Каталог файлов на один уровень выше размещенного вами URL-адреса содержит 139 «документов» такого же качества, все из которых, очевидно, приняты в «Труды Международной конференции по новейшим исследованиям в области вычислительной техники, информации, связи и приложений». Похоже, это фиктивная конференция обычного типа. Цель таких конференций - позволить мошенническим ученым требовать «публикации в журнале», а также позволить недобросовестным организаторам заработать кучу денег. (Для получения дополнительной информации о поддельных конференциях, ознакомьтесь с этой веткой reddit или различными сообщениями StackExchange по этой теме .) В каждой области существуют фиктивные конференции . Просто научитесь доверять своим инстинктам и не верьте всему, что вы читаете в «процессе конференции», и у вас все получится.