У нас только что появился экземпляр ECA Amazon, и мы уже развернули наше веб-приложение на экземпляре ec2, и приложение разработано в среде Laravel 5.0. Но мы, однако, сталкиваемся с некоторыми связанными с производительностью выпуск и нуждаются некоторые предложения/вход для same.Basically то, что мы делаем, мы имеем экземпляр AWS RDS и наша структура таблицы, как показано ниже:AWS EC2 PHP, Laravel, MySQL Производительность
CREATE TABLE IF NOT EXISTS `adwords_data` (
`id` int(10) unsigned NOT NULL AUTO_INCREMENT,
`client_id` bigint(20) NOT NULL,
`date_preset` enum('YESTERDAY','LAST_7_DAYS','LAST_14_DAYS','LAST_30_DAYS','ALL_TIME','7_DAYS_PRIOR_YESTERDAY','30_DAYS_PRIOR_YESTERDAY','60_DAYS_PRIOR_YESTERDAY','90_DAYS_PRIOR_YESTERDAY') COLLATE utf8_unicode_ci NOT NULL,
`CampaignId` bigint(20) NOT NULL,
`CampaignName` varchar(255) COLLATE utf8_unicode_ci NOT NULL,
`AdgroupId` bigint(20) NOT NULL,
`AdgroupName` varchar(255) COLLATE utf8_unicode_ci NOT NULL,
`Clicks` int(11) NOT NULL,
`Impressions` int(11) NOT NULL,
`ConvertedClicks` int(11) NOT NULL,
`Conversions` int(11) NOT NULL,
`Cost` decimal(10,2) NOT NULL,
`AveragePosition` decimal(10,2) NOT NULL,
`created_at` timestamp NOT NULL DEFAULT '0000-00-00 00:00:00',
`updated_at` timestamp NOT NULL DEFAULT '0000-00-00 00:00:00',
PRIMARY KEY (`id`),
KEY `adwords_data_client_id_index` (`client_id`),
KEY `adwords_data_date_preset_index` (`date_preset`),
KEY `adwords_data_campaignid_index` (`CampaignId`),
KEY `adwords_data_adgroupid_index` (`AdgroupId`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_unicode_ci AUTO_INCREMENT=1 ;
как выше у меня есть еще 6 таблиц, но поля являются немного отличаются
и вот как выглядит my.cnf
#
# The MySQL database server configuration file.
#
# You can copy this to one of:
# - "/etc/mysql/my.cnf" to set global options,
# - "~/.my.cnf" to set user-specific options.
#
# One can use all long options that the program supports.
# Run program with --help to get a list of available options and with
# --print-defaults to see which it would actually understand and use.
#
# For explanations see
# http://dev.mysql.com/doc/mysql/en/server-system-variables.html
# This will be passed to all mysql clients
# It has been reported that passwords should be enclosed with ticks/quotes
# escpecially if they contain "#" chars...
# Remember to edit /etc/mysql/debian.cnf when changing the socket location.
[client]
loose-local-infile = 1
port = 3306
socket = /var/run/mysqld/mysqld.sock
# Here is entries for some specific programs
# The following values assume you have at least 32M ram
# This was formally known as [safe_mysqld]. Both versions are currently parsed.
[mysqld_safe]
socket = /var/run/mysqld/mysqld.sock
nice = 0
[mysqld]
#
# * Basic Settings
#
local-infile = 1
user = mysql
pid-file = /var/run/mysqld/mysqld.pid
socket = /var/run/mysqld/mysqld.sock
port = 3306
basedir = /usr
datadir = /var/lib/mysql
tmpdir = /tmp
lc-messages-dir = /usr/share/mysql
lower_case_table_names=1
table_open_cache=512
query_alloc_block_size=16384
thread_concurrency=8
join_buffer_size=2M
read_buffer_size=4M
tmp_table_size=1024M
max_heap_table_size=1024M # added
innodb_lock_wait_timeout=50
#table_cache=4960
query_cache_size=99M # changed from 1024
query_cache_type=ON # added
myisam_sort_buffer_size=64M
symbolic-links=0
thread_cache_size=16
read_rnd_buffer_size=32M
query_prealloc_size=16384
key_buffer_size=1024M
sort_buffer_size=2M
tmpdir="/tmp"
ft_min_word_len=3
default-storage-engine=MyISAM
innodb_file_per_table=1
innodb_flush_log_at_trx_commit=2
max_allowed_packet=16M
open_files_limit=49996
user = mysql
skip-external-locking
#
# Instead of skip-networking the default is now to listen only on
# localhost which is more compatible and is not less secure.
bind-address = 127.0.0.1
#
# * Fine Tuning
#
key_buffer = 16M
max_allowed_packet = 16M
thread_stack = 192K
thread_cache_size = 8
# This replaces the startup script and checks MyISAM tables if needed
# the first time they are touched
myisam-recover = BACKUP
max_connections = 3000
#table_cache = 64
#thread_concurrency = 10
#
# * Query Cache Configuration
#
query_cache_limit = 1M
query_cache_size = 16M
#
# * Logging and Replication
#
# Both location gets rotated by the cronjob.
# Be aware that this log type is a performance killer.
# As of 5.1 you can enable the log at runtime!
#general_log_file = /var/log/mysql/mysql.log
#general_log = 1
#
# Error log - should be very few entries.
#
log_error = /var/log/mysql/error.log
#
# Here you can see queries with especially long duration
#log_slow_queries = /var/log/mysql/mysql-slow.log
#long_query_time = 2
#log-queries-not-using-indexes
#
# The following can be used as easy to replay backup logs or for replication.
# note: if you are setting up a replication slave, see README.Debian about
# other settings you may need to change.
#server-id = 1
#log_bin = /var/log/mysql/mysql-bin.log
expire_logs_days = 10
max_binlog_size = 100M
#binlog_do_db = include_database_name
#binlog_ignore_db = include_database_name
#
# * InnoDB
#
# InnoDB is enabled by default with a 10MB datafile in /var/lib/mysql/.
# Read the manual for more InnoDB related options. There are many!
#
# * Security Features
#
# Read the manual, too, if you want chroot!
# chroot = /var/lib/mysql/
#
# For generating SSL certificates I recommend the OpenSSL GUI "tinyca".
#
# ssl-ca=/etc/mysql/cacert.pem
# ssl-cert=/etc/mysql/server-cert.pem
# ssl-key=/etc/mysql/server-key.pem
[mysqldump]
quick
quote-names
max_allowed_packet = 16M
[mysql]
local-infile = 1
#no-auto-rehash # faster start of mysql but no tab completition
[isamchk]
key_buffer = 16M
#
# * IMPORTANT: Additional settings that can override those from this file!
# The files must end with '.cnf', otherwise they'll be ignored.
#
!includedir /etc/mysql/conf.d/
Приложение обращается к API Google Adwords для разных диапазонов дат и сохраняет возвращенные данные в CSV-файле. Мы обрабатываем этот файл CSV, сохраняем данные в таблице базы данных mysql (около 200 000 записей), а затем нам нужно обрабатывать это 200 000 записей, нам нужно сканировать каждую из записей 200 К, а затем применить некоторую бизнес-логику (это означает, что наша внутренняя логика означает применение некоторой агрегации mysql, такой как Sum, Avg и т. д.), но обработка этих 200 К записей занимает много времени около 2 часов, однако мы необходимо сократить время обработки.
Ниже базовый кода мы используем для обработки этого 200K Records.We использовали метод Laravel куска для обработки данных в пакете
https://laravel.com/docs/5.0/eloquent
\DB::table('adwords_data')->select('CampaignId', 'AdgroupId')->where('client_id', '=', $client_id)->groupBy('CampaignId', 'AdgroupId')->chunk('500', function ($adwords_data) {
foreach($adwords_data as $data){
// process each AdgroupId by checking the summation of conversion stats and apply conditions
}
}
После того, как процесс completeting из таблицы adwords_data мы повторить такой же процесс, как и выше, с другими 6 таблицами. Но производительность не так хороша, что нам нужно делать выполнение быстрее.
Может ли кто-нибудь предложить нам лучший способ улучшить производительность?
Спасибо!
Ваш вопрос не содержит достаточных подробностей для тех, кто предлагает хороший совет. Я не MySQL-гуру, но определение таблицы для меня отлично выглядит, а не ракета-наука - поэтому потенциальными проблемами являются: 1) MySQL config («my.cnf») не настроен optimium 2) ваш код обработки плохо написан 3) вы вполне может понадобиться более крупная машина, если вы используете AWS nano. Я предлагаю вам предоставить файл my.cnf и ваш код, хотя это может увеличить ваши шансы на разумную помощь. Удачи –
@fiprojects Конечно, я могу предоставить вам это! Можете ли вы рассказать мне свой адрес электронной почты? Подробнее. Я объясню вам по электронной почте. –
Нет ответа. мой адрес электронной почты - мой профиль –