после прочтения всего твиттера потокового API и Phirehose Документация PHP Я столкнулся с чем-то, что мне еще предстоит сделать, собрать и обработать данные по отдельности.Сбор и обработка данных с помощью PHP (Twitter Streaming API)
Логика позади него, если я правильно понимаю, заключается в том, чтобы предотвратить затор на этапе обработки, который будет поддерживать процесс сбора. Я видел примеры раньше, но они в основном пишут право на базу данных MySQL сразу после сбора, что, похоже, противоречит тому, что рекомендует твиттер.
Что я хотел бы получить совет или помощь, это лучший способ справиться с этим и тем, как это сделать. Кажется, что люди рекомендуют записывать все данные непосредственно в текстовый файл, а затем анализировать/обрабатывать его с помощью отдельной функции. Но с этим методом я бы предположил, что это может быть память.
Вот улов, все будет работать как процесс демона/фона. Так есть ли у кого-нибудь опыт решения такой проблемы, а точнее, библиотеки phirehose twitter? Благодаря!
Некоторые примечания: * Соединение будет через сокет, поэтому я предполагаю, что файл будет постоянно добавляться? не уверены, есть ли у кого-либо отзывы об этом