Я не уверен, что ТАК правильное место для этого вопроса, поэтому, пожалуйста, не будьте слишком резкими, если это неправильный форум 🙂
Наша компания стремится увеличить скорость загрузки страниц, и до сих пор мы сделали много стандартных вещей (используя кеш, CDN, исключая ненужный код / CSS, используя raw JS вместо jQuery и т. Д.).
Я читал Вот на алгоритмах сжатия gz. Один из авторов (Робин) говорит о том, как gzdeflate()
а также gzcompress()
были одинаково быстры, но gzinflate()
был в два раза быстрее, чем gzuncompress()
,
Если мы сжимаем / распаковываем статический HTML с помощью одной из этих функций Zlib, я подозреваю, что компонент внутреннего исполнения (всего процесса загрузки страницы) даже не будет заметно пользователю. Но 1MB HTML, обслуживаемый как 800kB HTML, может быть замечен.
Мой вопрос заключается в следующем: оказывает ли выполнение внутреннего сценария сценария с использованием собственного алгоритма сжатия / распаковки какое-либо влияние на скорость загрузки страницы для конечного пользователя, даже если алгоритм сжатия / распаковки является очень сложным? (многие вызовы функций, сам по себе сценарий бэкэнда большого размера, широко использует недорогие функции, такие как substr_count()
, так далее.)
Предполагая, что вы уже используете метод сжатия / распаковки, я бы сказал: Нет.
Степень сжатия одинакова, вы можете выбрать алгоритм в зависимости от загрузки процессора, но, отвечая на вопрос, пара дополнительных битов не будет заметна для конечного пользователя. Самые дорогие операции — «время до первого байта» (TTFB).
Вы можете сделать свои собственные тесты в Chrome Dev Tool, вот ссылка на сайт
Возьмите ссылки, посмотрев, какое сжатие используют крупные сайты, такие как Google, Facebook, Twitter и т. Д.
Других решений пока нет …