Каков оптимальный способ достижения большого количества таблиц с большим набором данных

У нас есть API, который запускается во время процесса приложения.
Этот API используется для модификации около 20 таблиц в базе данных.

Этот вызов API запускается пользователями только один раз,
Теперь мы хотим запустить этот поток вручную для 100000 пользователей.
каждый вызов занимает около 10-15 секунд, чтобы завершить запрос к базе данных
Какова будет оптимальная стратегия для этого.

0

Решение

Вот решение сервал, надеюсь, оно поможет.

1) Вы можете использовать NGINX. У этого есть лучшая балансировка нагрузки. Это дает лучший параллелизм. Вы можете посмотреть здесь https://www.nginx.com/blog/nginx-vs-apache-our-view/ .

2) Вы можете деамонизировать весь ваш процесс. Просто зарегистрируйте все свои вызовы API в вашей базе данных. Напишите одного Деймона, который постоянно читает из БД, пришла ли какая-нибудь новая запись. Как только поступит запись, она выполнит все операции для этой конкретной записи.

3) Вы можете использовать дочерний процесс разветвления также для своего Деймона. Вы можете сделать несколько дочерних процессов вашего Деймона.

Я думаю, с этим вы можете обрабатывать большее количество вызовов API.

0

Другие решения

Других решений пока нет …

По вопросам рекламы ammmcru@yandex.ru
Adblock
detector