У меня есть сканер, который использует cURL
очистить данные из множества массивов URL, но это довольно медленно, и я бы хотел ускорить его, используя многопоточность, разбившись на несколько дочерних процессов, которые выполняются одновременно.
Вопрос в том, как определить оптимальное количество потоков? У меня есть приличный выделенный сервер, но я не уверен, как рассчитать и распределить эти ресурсы для запуска моих сценариев за наименьшее количество времени.
Задача ещё не решена.
Других решений пока нет …