Оказывают ли какие-либо заметные влияния алгоритмы внутреннего сжатия / распаковки на воспринимаемые клиентом скорости загрузки страниц?

Я не уверен, что ТАК правильное место для этого вопроса, поэтому, пожалуйста, не будьте слишком резкими, если это неправильный форум 🙂

Наша компания стремится увеличить скорость загрузки страниц, и до сих пор мы сделали много стандартных вещей (используя кеш, CDN, исключая ненужный код / ​​CSS, используя raw JS вместо jQuery и т. Д.).

Я читал Вот на алгоритмах сжатия gz. Один из авторов (Робин) говорит о том, как gzdeflate() а также gzcompress() были одинаково быстры, но gzinflate() был в два раза быстрее, чем gzuncompress(),

Если мы сжимаем / распаковываем статический HTML с помощью одной из этих функций Zlib, я подозреваю, что компонент внутреннего исполнения (всего процесса загрузки страницы) даже не будет заметно пользователю. Но 1MB HTML, обслуживаемый как 800kB HTML, может быть замечен.

Мой вопрос заключается в следующем: оказывает ли выполнение внутреннего сценария сценария с использованием собственного алгоритма сжатия / распаковки какое-либо влияние на скорость загрузки страницы для конечного пользователя, даже если алгоритм сжатия / распаковки является очень сложным? (многие вызовы функций, сам по себе сценарий бэкэнда большого размера, широко использует недорогие функции, такие как substr_count(), так далее.)

-1

Решение

Предполагая, что вы уже используете метод сжатия / распаковки, я бы сказал: Нет.
Степень сжатия одинакова, вы можете выбрать алгоритм в зависимости от загрузки процессора, но, отвечая на вопрос, пара дополнительных битов не будет заметна для конечного пользователя. Самые дорогие операции — «время до первого байта» (TTFB).

Вы можете сделать свои собственные тесты в Chrome Dev Tool, вот ссылка на сайт

Возьмите ссылки, посмотрев, какое сжатие используют крупные сайты, такие как Google, Facebook, Twitter и т. Д.

1

Другие решения

Других решений пока нет …

По вопросам рекламы ammmcru@yandex.ru
Adblock
detector