Ben kullanıyorum bir çoklu cURL uygulanmasını 'yuvarlanan' (dayanarak, this SO post gibi this cURL code). Bu (evet, biliyorum, bu C ya da bir şey yazılmalıdır) cinleri olarak çalışan script 5 örnekleri ile, aynı anda 100 isteklerine kadar kullanarak URL binlerce işlemek için çalışıyor.
İşte sorun: (5 örnekleri arasında) işlem ~ 200.000 adresler curl_multi_exec()
script tüm örneklerini kırmaya görünüyor sonra. Sonra yeniden başlatmadan, komut kapatılıyor denedim, ve aynı şey (ama hemen yeniden başlatmada değil, 200,000 URL'ler sonra) olur, komut dosyası strong> curl_multi_exec()
çağrı askıda kalıyor .
Ben her seferinde bir düzenli cURL tanıtıcısı işleme, 'tek' moduna script koymak, ve bu iyi çalışıyor (ama ihtiyacım oldukça hız değil). Benim günlüğü (her öylesine sık sık tekrar sonra asmak URL işlemek gibi görünüyor beri) yavaş / sorunlu bağlantıları bir yama vurmak ki şüphelenmek için bana yol, ama that would mean my CURLOPT_TIMEOUT
bireysel kolları . Ya da belki sadece cURL ile birçok istekleri ile çalışan bir şey.
Anyone heard of anything like this?
Örnek kod (yine dayanan this):
//some logging shows it hangs right here, only looping a time or two
//so the hang seems to be in the curl call
while(($execrun =
curl_multi_exec($master, $running)) == CURLM_CALL_MULTI_PERFORM);
//code to check for error or process whatever returned
I CURLOPT_TIMEOUT
120
ayarlandığında, ancak curl_multi_exec()
nihayet bazı verileri döndürür durumlarda, bu bekleyen 10 dakika sonra bulunuyor.
Ben test / yapmak için henüz kontrol bir grup var, ama belki bu biriyle bir zili düşündüm.