Увеличение общей памяти и проблема / сбой синхронизированной очереди в процессе потребителя

Я пытаюсь использовать от дочернего процесса синхронизированную очередь в C ++. Я использую эту синхронизированную очередь в C ++ () (http://www.internetmosquito.com/2011/04/making-thread-safe-queue-in-c-i.html)

Я изменил очередь, чтобы она была сериализуемой в boost, а также заменил использованную boost::mutex io_mutex_ использовать вместо мьютекса inteprocess (спасибо @Sehe) boost::interprocess::interprocess_mutex io_mutex_ И при блокировке
Я изменил каждую строку, которая имеет boost::mutex::scoped_lock lock(io_mutex_); в scoped_lock<interprocess_mutex> lock(io_mutex_);

template<class T>
class SynchronizedQueue
{
friend class boost::serialization::access;
template<class Archive>
void serialize(Archive & ar, const unsigned int version)
{
ar & sQueue;
ar & io_mutex_;
ar & waitCondition;
}
... // queue implementation (see [http://www.internetmosquito.com/2011/04/making-thread-safe-queue-in-c-i.html][2])

}

В моем тестовом приложении я создаю синхронизированную очередь и сохраняю в ней 100 экземпляров этого класса:

class gps_position
{
friend class boost::serialization::access;
template<class Archive>
void serialize(Archive & ar, const unsigned int version)
{
ar & degrees;
ar & minutes;
ar & seconds;
}
public:
int degrees;
int minutes;
float seconds;

gps_position() {};
gps_position(int d, int m, float s) :
degrees(d), minutes(m), seconds(s)
{}
};

Общие определения между потребителем и производителем:

 char *SHARED_MEMORY_NAME = "MySharedMemory";
char *SHARED_QUEUE_NAME  =  "MyQueue";
typedef SynchronizedQueue<gps_position> MySynchronisedQueue;

Код процесса производителя:

    // Remove shared memory if it was created before
shared_memory_object::remove(SHARED_MEMORY_NAME);
// Create a new segment with given name and size
managed_shared_memory mysegment(create_only,SHARED_MEMORY_NAME, 65536);
MySynchronisedQueue *myQueue = mysegment.construct<MySynchronisedQueue>(SHARED_QUEUE_NAME)();
//Insert data in the queue
for(int i = 0; i < 100; ++i)  {
gps_position position(i, 2, 3);
myQueue->push(position);
}
// Start 1 process (for testing for now)
STARTUPINFO info1={sizeof(info1)};
PROCESS_INFORMATION processInfo1;
ZeroMemory(&info1, sizeof(info1));
info1.cb = sizeof info1 ; //Only compulsory field
ZeroMemory(&processInfo1, sizeof(processInfo1));
// Launch child process
LPTSTR szCmdline = _tcsdup(TEXT("ClientTest.exe"));
CreateProcess(NULL, szCmdline, NULL, NULL, TRUE, 0, NULL, NULL, &info1, &processInfo1);
// Wait a little bit ( 5 seconds) for the started client process to load
WaitForSingleObject(processInfo1.hProcess, 5000);

/* THIS TESTING CODE WORK HERE AT PARENT PROCESS BUT NOT IN CLIENT PROCESS
// Open the managed segment memory
managed_shared_memory openedSegment(open_only, SHARED_MEMORY_NAME);
//Find the synchronized queue using it's name
MySynchronisedQueue *openedQueue = openedSegment.find<MySynchronisedQueue>(SHARED_QUEUE_NAME).first;
gps_position position;
while (true) {
if (myQueue->pop(position)) {
std::cout << "Degrees= " << position.degrees << " Minutes= " << position.minutes << " Seconds= " << position.seconds;
std::cout << "\n";
}
else
break;
}*/// Wait until the queue is empty: has been processed by client(s)
while(myQueue->sizeOfQueue() > 0) continue;

// Close process and thread handles.
CloseHandle( processInfo1.hThread );

Мой потребительский код выглядит следующим образом:

    //Open the managed segment memory
managed_shared_memory segment(open_only, SHARED_MEMORY_NAME);
//Find the vector using it's name
MySynchronisedQueue *myQueue = segment.find<MySynchronisedQueue>(SHARED_QUEUE_NAME).first;
gps_position position;
// Pop each position until the queue become empty and output its values
while (true)
{
if (myQueue->pop(position)) { // CRASH HERE
std::cout << "Degrees= " << position.degrees << " Minutes= " << position.minutes << " Seconds= " << position.seconds;
std::cout << "\n";
}
else
break;
}

Когда я запускаю родительский процесс (производитель), который создает очередь и создает дочерний (потребительский) процесс, происходит сбой дочернего процесса при попытке «выскочить» из очереди.

Что я тут не так делаю? Любая идея ? Спасибо за понимание. Это мое первое приложение, созданное с использованием наддува и разделяемой памяти.

Моя цель — использовать эту очередь из нескольких процессов. В приведенном выше примере я создаю только один дочерний процесс, чтобы сначала убедиться, что он работает, прежде чем создавать другой дочерний процесс. Идея состоит в том, что очередь будет заранее заполнена элементами, и несколько созданных процессов будут «выталкивать» элементы из нее, не сталкиваясь друг с другом.

1

Решение

К обновленному коду:

  • вы должны использовать interprocess_mutex, если вы хотите поделиться очередью; Это подразумевает множество зависимых изменений.
  • ваша очередь следует использовать распределитель общей памяти если ты собираешься разделить очередь
  • условия должен быть поднят под мьютекс для надежного поведения на всех платформах
  • вы не удалось заблокировать внутри toString(), Даже если вы копируете коллекцию, этого недостаточно, поскольку контейнер может быть изменен во время этой копии.
  • Проектирование очереди имеет много смысла (зачем использовать «потокобезопасную» функцию, которая возвращает empty()? Он может больше не быть пустым / просто пустым, пока вы не обработаете возвращаемое значение … Они называются условия гонки и привести к действительно трудно отслеживать ошибки
  • При чем тут Boost Serialization? Кажется, только там, чтобы запутать картину, потому что это не требуется и не используется.
  • Аналогично для Boost Any. Почему any используется в toString()? Из-за дизайна очереди, typeid всегда gpsposition в любом случае.
  • Аналогично для boost::lexical_cast<> (почему вы делаете конкатенацию строк, если вы уже есть струнный поток в любом случае?)
  • Почему empty(), toString(), sizeOfQueue() не const?

Я настоятельно рекомендую использовать boost::interprocess::message_queue, это кажется быть тем, что вы на самом деле хотели использовать (так как вы были как-то

Вот модифицированная версия, которая помещает контейнер в общую память и работает:

#include <boost/interprocess/allocators/allocator.hpp>
#include <boost/interprocess/containers/deque.hpp>
#include <boost/interprocess/managed_shared_memory.hpp>
#include <boost/interprocess/sync/interprocess_condition.hpp>
#include <boost/interprocess/sync/interprocess_mutex.hpp>
#include <boost/thread/lock_guard.hpp>
#include <sstream>

namespace bip = boost::interprocess;

template <class T> class SynchronizedQueue {

public:
typedef bip::allocator<T, bip::managed_shared_memory::segment_manager> allocator_type;
private:
bip::deque<T, allocator_type> sQueue;
mutable bip::interprocess_mutex io_mutex_;
mutable bip::interprocess_condition waitCondition;
public:
SynchronizedQueue(allocator_type alloc) : sQueue(alloc) {}

void push(T element) {
boost::lock_guard<bip::interprocess_mutex> lock(io_mutex_);
sQueue.push_back(element);
waitCondition.notify_one();
}
bool empty() const {
boost::lock_guard<bip::interprocess_mutex> lock(io_mutex_);
return sQueue.empty();
}
bool pop(T &element) {
boost::lock_guard<bip::interprocess_mutex> lock(io_mutex_);

if (sQueue.empty()) {
return false;
}

element = sQueue.front();
sQueue.pop_front();

return true;
}
unsigned int sizeOfQueue() const {
// try to lock the mutex
boost::lock_guard<bip::interprocess_mutex> lock(io_mutex_);
return sQueue.size();
}
void waitAndPop(T &element) {
boost::lock_guard<bip::interprocess_mutex> lock(io_mutex_);

while (sQueue.empty()) {
waitCondition.wait(lock);
}

element = sQueue.front();
sQueue.pop();
}

std::string toString() const {
bip::deque<T> copy;
// make a copy of the class queue, to reduce time locked
{
boost::lock_guard<bip::interprocess_mutex> lock(io_mutex_);
copy.insert(copy.end(), sQueue.begin(), sQueue.end());
}

if (copy.empty()) {
return "Queue is empty";
} else {
std::stringstream os;
int counter = 0;

os << "Elements in the Synchronized queue are as follows:" << std::endl;
os << "**************************************************" << std::endl;

while (!copy.empty()) {
T object = copy.front();
copy.pop_front();
os << "Element at position " << counter << " is: [" << typeid(object).name()  << "]\n";
}
return os.str();
}
}
};

struct gps_position {
int degrees;
int minutes;
float seconds;

gps_position(int d=0, int m=0, float s=0) : degrees(d), minutes(m), seconds(s) {}
};

static char const *SHARED_MEMORY_NAME = "MySharedMemory";
static char const *SHARED_QUEUE_NAME  =  "MyQueue";
typedef SynchronizedQueue<gps_position> MySynchronisedQueue;

#include <boost/interprocess/shared_memory_object.hpp>
#include <iostream>

void consumer()
{
bip::managed_shared_memory openedSegment(bip::open_only, SHARED_MEMORY_NAME);

MySynchronisedQueue *openedQueue = openedSegment.find<MySynchronisedQueue>(SHARED_QUEUE_NAME).first;
gps_position position;

while (openedQueue->pop(position)) {
std::cout << "Degrees= " << position.degrees << " Minutes= " << position.minutes << " Seconds= " << position.seconds;
std::cout << "\n";
}
}

void producer() {
bip::shared_memory_object::remove(SHARED_MEMORY_NAME);

bip::managed_shared_memory mysegment(bip::create_only,SHARED_MEMORY_NAME, 65536);

MySynchronisedQueue::allocator_type alloc(mysegment.get_segment_manager());
MySynchronisedQueue *myQueue = mysegment.construct<MySynchronisedQueue>(SHARED_QUEUE_NAME)(alloc);

for(int i = 0; i < 100; ++i)
myQueue->push(gps_position(i, 2, 3));

// Wait until the queue is empty: has been processed by client(s)
while(myQueue->sizeOfQueue() > 0)
continue;
}

int main() {
producer();
// or enable the consumer code for client:
// consumer();
}
2

Другие решения


По вопросам рекламы ammmcru@yandex.ru
Adblock
detector