Tamam, ben deneyeceğim ve tatlı, bu kısa tutmak ve-nokta.
Biz PHP tabanlı CMS MASİF CSV dosyası yükleyerek bizim sisteme büyük GeolP güncellemeleri yapmak. Bu şey genellikle IP adresi bilgilerinin fazla 100k kayıtları vardır. Şimdi, bu verilerin basit bir ithalat yapıyor hiç bir sorun değil, ama bizim güncel bölgesel IP adresi eşleşmelerinin karşı denetimlerini çalıştırmak zorunda.
Bu bizim, verileri doğrulamak vb çakışan IP adresini karşılaştırın ve bölünmüş. Ve bu kontroller her kayıt için yapılmalıdır gerektiği anlamına gelir.
O, ama sadece diğer satıcılar farklı biçimlerde kendi GeolP güncellemelerini uygulamak için izin verecek bir alan haritalama çözüm oluşturduk değil. Bu CSV güncelleme içinde IP'ler kayıtlara kurallar uygulanarak yapılır.
Örneğin bir kural gibi görünebilir:
'COUNTRYNAME' == 'Avustralya' sonra 'Avustralya IP Pool' göndermek
Çalıştırmak için ve her bir IP kayıt tüm bunları uygulamak zorundadır sahip birden fazla kural olabilir. Örneğin, 10 kurallara karşı denetlemek için 100k kayıtlar, 1 milyon tekrarlamalar olacaktır; eğlenceli değil.
Biz 100k kayıtları için 2 kurallarını buluyoruz işlem 10 dakika kadar sürer. Ben başarılı bir ithalat için gerçekleşmelidir yineleme kayma miktarı burada darboğaz tam olarak farkında değilim; tıpkı diğer seçeneklerin tam olarak farkında değil biz bir şeyleri biraz hızlandırmak zorunda kalabilirsiniz.
Birisi parçaları, sunucu tarafına dosya bölme önerilir. O zaten karmaşık bir sistemin henüz karmaşık bir katman ekler gibi bu kalıcı bir çözüm olduğunu düşünmüyorum. Dosyası ayrıştırılır ve bölünmüş açılmış olması gerekir. Sonra komut yanı sıra parçalar üzerinde yineleme gerekir.
Yani, soru, ne iyi yöntem biraz bu süreci hızlandırmak olacaktır, ben sadece ne yazdı düşünüyor? SADECE bu araç için sunucunun donanım yükseltme maalesef bir seçenek değildir, ama onlar ile başlamak oldukça yüksek-uç kutuları demektir.
Düşündüğüm gibi kısa, ama evet değil. Halps? (