У меня есть PHP, Linux-сервер. В нем есть папка notes_docs
который содержит более 600 000 текстовых файлов. Структура папок notes_docs
как следует —
- notes_docs
- files_txt
- 20170831
- 1_837837472_abc_file.txt
- 1_579374743_abc2_file.txt
- 1_291838733_uridjdh.txt
- 1_482737439_a8weele.txt
- 1_733839474_dejsde.txt
- 20170830
- 20170829
Я должен предоставить утилиту быстрого текстового поиска, которая может показывать результаты в браузере. Так что, если мой пользователь ищет «нью-йорк», все файлы, содержащие «нью-йорк», должны быть возвращены в массив. Если пользователь ищет «foo», все файлы с «foo» должны быть возвращены.
Я уже пробовал код используя scandir
, а также Directory Iterator
, что слишком медленно. Поиск занимает больше минуты, даже тогда поиск не был завершен. Я пробовал убунту find
который снова был медленным и занял больше минуты. потому что существует слишком много итераций папок, и notes_docs
текущий размер превышает 20 ГБ.
Любое решение, которое я могу использовать, чтобы ускорить его, приветствуется. Я могу вносить изменения в дизайн, интегрировать свой код PHP, чтобы свернуться на другой язык кода. Я могу также вносить изменения в инфраструктуру в крайних случаях (например, при использовании чего-либо в памяти).
Я хочу знать, как люди в промышленности делают это? Люди на самом деле, Zip Recruiter все обеспечивают поиск файлов.
Обратите внимание, у меня есть 2 — 4 ГБ в ОЗУ, поэтому загрузка всех файлов в ОЗУ все время недопустима.
РЕДАКТИРОВАТЬ — Все нижеприведенные материалы великолепны. Для тех, кто придет позже, мы в конечном итоге использовали Lucene для индексации и текстового поиска. Он работал очень хорошо
Для простоты: нет быстрого способа открывать, искать и закрывать 600 тыс. Документов каждый раз, когда вы хотите выполнить поиск. Ваши тесты с «более минуты», вероятно, с одними тестовыми аккаунтами. Если вы планируете искать их через многопользовательский веб-сайт, вы можете быстро забыть об этом, потому что ваш disk IO
будет не в чартах и заблокирует весь ваш сервер.
Таким образом, ваши единственные варианты — индексировать все файлы. Как и любая другая утилита быстрого поиска. Неважно, используете ли вы Solr или ElasticSearch, как указано в комментариях, или создаете что-то свое. Файлы будут проиндексированы.
Принимая во внимание txt
файлы являются текстовыми версиями pdf
файлы, которые вы получаете, держу пари, что самое простое решение — записать текст в базу данных вместо файла. В любом случае это не займет много места на диске.
Тогда вы можете включить full text search
в вашей базе данных (mysql
, mssql
и другие поддерживают это), и я уверен, что время отклика будет намного лучше. Имейте в виду, что создание этих indexes
действительно требуется место для хранения, но то же самое относится и к другим решениям.
Теперь, если вы действительно хотите ускорить процесс, вы можете попытаться проанализировать резюме на более детальном уровне. Попробуйте найти места, образование, разговорные языки и другую информацию, которую вы регулярно ищете, и поместите их в отдельные таблицы / столбцы. Это очень сложная задача и почти проект сам по себе, но если вы хотите получить ценный результат поиска, это путь. Поскольку поиск по тексту без контекста дает очень разные результаты, просто подумайте о своем примере «Нью-Йорк»:
Я не буду вдаваться в подробности, но попытаюсь дать рекомендации по созданию концепции.
Сначала скачайте и извлеките упругий поиск отсюда: https://www.elastic.co/downloads/elasticsearch и затем запустите его:
bin/elasticsearch
Скачать https://github.com/dadoonet/fscrawler#download-fscrawler распакуйте его и запустите:
bin/fscrawler myCustomJob
Затем остановите его (Ctrl-C) и редактировать соответствующий myCustomJob/_settings.json
(Он был создан автоматически и путь был напечатан на консоли).
Вы можете редактировать свойства: "url"
(путь для сканирования),
"update_rate"
(ты можешь сделать это 1m
),
"includes"
(например. ["*.pdf","*.doc","*.txt"]
), "index_content"
(сделайте это ложным, чтобы остаться только на имя файла).
Запустите снова:
bin/fscrawler myCustomJob
Примечание. Индексирование — это то, что вы, возможно, позже захотите выполнить с помощью кода, но сейчас это будет сделано автоматически, используя fscrawler
, что напрямую говорит с упругим.
Теперь начните добавлять файлы в каталог, который вы указали в "url"
имущество.
Скачать клиент продвинутого отдыха для хрома и сделай следующее POST
:
URL: HTTP: // локальный: 9200 / _search
Сырая полезная нагрузка:
{
"query": { "wildcard": {"file.filename":"aFileNameToSearchFor*"} }
}
Вы получите обратно список подходящих файлов. Замечания: fscrawler
индексирует имена файлов под ключом: file.filename
,
Теперь вместо использования клиент продвинутого отдыха Вы можете использовать PHP, чтобы выполнить этот запрос. Либо с помощью вызова REST по указанному выше URL-адресу, либо с помощью API-интерфейса php-client: https://www.elastic.co/guide/en/elasticsearch/client/php-api/current/_search_operations.html
То же самое относится к индексации: https://www.elastic.co/guide/en/elasticsearch/client/php-api/current/_indexing_documents.html
Если вы хотите сохранить информацию обо всех файлах в базу данных:
<?php
function deep_scandir( $dir, &$query, &$files) {
$count = 0;
if(is_dir($dir)) {
if ($dh = opendir($dir)) {
while (($item = readdir($dh)) !== false) {
if($item != '.' && $item != '..') {
if(is_dir($dir.'/'.$item)){
deep_scandir($dir.'/'.$item, $query, $files);
}else{
$count++;
preg_match("/(\d\_\d+)\_(.*)\.txt/i", $item, $matches);
if(!empty($matches)){
$no = $matches[1];
$str = $matches[2];
$files[$dir][$no] = $str;
$content = addcslashes( htmlspecialchars( file_get_contents($dir.'/'.$item) ), "\\\'\"" );
$query[] = "INSERT INTO `mytable` (id, key, value, path, content)
VALUES\n(NULL, '$no', '$str', '$dir/$item', '$content');";
}
}
}
}
closedir($dh);
}
}
}
echo '<pre>';
$dir = 'notes_docs/files_txt';
$query = [];
$files = [];
deep_scandir($dir, $query, $files);
print_r($files);
echo '<br>';
print_r($query);
Теперь вы можете выполнить каждую строку в массиве
foreach($query as $no=>$line){
mysql_query($line) or trigger_error("Couldn't execute query no: '$no' [$line]");
}
Выход:
Array
(
[notes_docs/files_txt/20170831] => Array
(
[1_291838733] => uridjdh
[1_482737439] => a8weele
[1_579374743] => abc2_file
[1_733839474] => dejsde
[1_837837472] => abc_file
)
)
Array
(
[0] => INSERT INTO `mytable` (id, key, value, path, content)
VALUES
(NULL, '1_291838733', 'uridjdh', 'notes_docs/files_txt/20170831/1_291838733_uridjdh.txt', 'Lorem ipsum dolor sit amet, consectetur adipiscing elit. Phasellus in nisl quis lectus sagittis ullamcorper at faucibus urna. Suspendisse tristique arcu sit amet ligula cursus pretium vitae eu elit. Nullam sed dolor ornare ex lobortis posuere. Quisque venenatis laoreet diam, in imperdiet arcu fermentum eu. Aenean molestie ligula id sem ultricies aliquet non a velit. Proin suscipit interdum vulputate. Nullam finibus gravida est, et fermentum est cursus eu. Integer sed metus ac urna molestie finibus. Aenean hendrerit ante quis diam ultrices pellentesque. Duis luctus turpis id ipsum dictum accumsan. Curabitur ornare nisi ligula, non pretium nulla venenatis sed. Aenean pharetra odio nec mi aliquam molestie. Fusce a condimentum nisl. Quisque mattis, nulla suscipit condimentum finibus, leo ex eleifend felis, vel efficitur eros turpis nec sem. ');
[1] => INSERT INTO `mytable` (id, key, value, path, content)
VALUES
(NULL, '1_482737439', 'a8weele', 'notes_docs/files_txt/20170831/1_482737439_a8weele.txt', 'Nunc et odio sed odio rhoncus venenatis congue non nulla. Aliquam dictum, felis ac aliquam luctus, purus mi dignissim magna, vitae pharetra risus elit ac mi. Sed sodales dui semper commodo iaculis. Nunc vitae neque ut arcu gravida commodo. Fusce feugiat velit et felis pharetra posuere sit amet sit amet neque. Phasellus iaculis turpis odio, non consequat nunc consectetur a. Praesent ornare nisi non accumsan bibendum. Nunc vel ultricies enim, consectetur fermentum nisl. Sed eu augue ac massa efficitur ullamcorper. Ut hendrerit nisi arcu, a sagittis velit viverra ac. Quisque cursus nunc ac tincidunt sollicitudin. Cras eu rhoncus ante, ac varius velit. Mauris nibh lorem, viverra in porttitor at, interdum vel elit. Aliquam imperdiet lacus eu mi tincidunt volutpat. Vestibulum ut dolor risus. ');
[2] => INSERT INTO `mytable` (id, key, value, path, content)
VALUES
(NULL, '1_579374743', 'abc2_file', 'notes_docs/files_txt/20170831/1_579374743_abc2_file.txt', 'Vivamus aliquet id elit vitae blandit. Proin laoreet ipsum sed tincidunt commodo. Fusce faucibus quam quam, in ornare ex fermentum et. Suspendisse dignissim, tortor at fringilla tempus, nibh lacus pretium metus, vel tempus dolor tellus ac orci. Vestibulum in congue dolor, nec porta elit. Donec pellentesque, neque sed commodo blandit, augue sapien dapibus arcu, sit amet hendrerit felis libero id ante. Praesent vitae elit at eros faucibus volutpat. Integer rutrum augue laoreet ex porta, ut faucibus elit accumsan. Donec in neque sagittis, auctor diam ac, viverra diam. Phasellus vel quam dolor. Nullam nisi tellus, faucibus a finibus et, blandit ac nisl. Vestibulum interdum malesuada sem, nec semper mi placerat quis. Nullam non bibendum sem, vitae elementum metus. Donec non ipsum quis turpis semper lobortis.');
[3] => INSERT INTO `mytable` (id, key, value, path, content)
VALUES
(NULL, '1_733839474', 'dejsde', 'notes_docs/files_txt/20170831/1_733839474_dejsde.txt', 'Nunc faucibus, enim non luctus rutrum, lorem urna finibus turpis, sit amet dictum turpis ipsum pharetra ex. Donec at leo vitae massa consectetur viverra eget vel diam. Sed in neque tempor, vulputate quam sed, ullamcorper nisl. Fusce mollis libero in metus tincidunt interdum. Cras tempus porttitor nunc nec dapibus. Vestibulum condimentum, nisl eget venenatis tincidunt, nunc sem placerat dui, quis luctus nisl erat sed orci. Maecenas maximus finibus magna in facilisis. Maecenas maximus turpis eget dignissim fermentum. ');
[4] => INSERT INTO `mytable` (id, key, value, path, content)
VALUES
(NULL, '1_837837472', 'abc_file', 'notes_docs/files_txt/20170831/1_837837472_abc_file.txt', 'Integer non ex condimentum, aliquet lectus id, accumsan nibh. Quisque aliquet, ante vitae convallis ullamcorper, velit diam tempus diam, et accumsan metus eros at tellus. Sed lacinia mauris sem, scelerisque efficitur mauris aliquam a. Nullam non auctor leo. In mattis mauris eu blandit varius. Phasellus interdum mi nec enim imperdiet tristique. In nec porttitor erat, tempor malesuada ante. Etiam scelerisque ligula et ex maximus, placerat consequat nunc consectetur. Phasellus suscipit ligula sed elit hendrerit laoreet. Suspendisse ex sem, placerat pharetra ligula eu, accumsan rhoncus ex. Sed luctus nisi vitae metus maximus scelerisque. Suspendisse porta nibh eget placerat tempus. Nunc efficitur gravida sagittis. ');
)
Я бы попробовал сначала создать простую базу данных. Основная таблица будет содержать имя файла и текстовое содержимое. Таким образом, вы можете использовать возможности запросов к ядру БД и, вероятно, значительно повысите производительность по сравнению с текущим решением.
Это было бы самым простым решением, и оно могло бы расти, добавляя дополнительные таблицы, связывающие слова с именами файлов (это может быть что-то, что делается динамически, например, при самых частых поисках)
Файловая система или база данных?
Для работы с большим объемом данных вам нужно использовать какую-то БД. Как это делает Google!
Так я должен использовать реляционные базы данных, такие как Mysql?
Во многих случаях (например, в вашем случае) реляционные базы данных и SQL не являются правильным выбором.
Сегодня большинство поисковых систем и анализаторы больших данных используют Базы данных NOSQL.
БД NOSQL намного быстрее, чем БД SQL. Но они обычно используют много аппаратных ресурсов (RAM, …).
Ваше решение