У меня есть многопоточный скрипт, который иногда зависает при подключении к серверу, но сервер ничего не отправляет обратно. Netstat показывает подключенный сокет TCP. Это происходит, даже если у меня установлен TIMEOUT. Тайм-аут отлично работает в скрипте без потоков. Вот пример кода.
def xmlscraper(url):
htmlpage = StringIO.StringIO()
rheader = StringIO.StringIO()
c = pycurl.Curl()
c.setopt(pycurl.USERAGENT, "user agent string")
c.setopt(pycurl.CONNECTTIMEOUT, 60)
c.setopt(pycurl.TIMEOUT, 120)
c.setopt(pycurl.FOLLOWLOCATION, 1)
c.setopt(pycurl.WRITEFUNCTION, htmlpage.write)
c.setopt(pycurl.HEADERFUNCTION, rheader.write)
c.setopt(pycurl.HTTPHEADER, ['Expect:'])
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, url)
c.setopt(pycurl.HTTPGET, 1)
pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
t = threading.Thread(target=xmlscraper, args=(url,))
t.start()
Любая помощь будет принята с благодарностью! пытался решить это в течение нескольких недель.
изменить: URL-адрес имеет около 10 URL-адресов. Кажется, неважно, сколько их.
edit2: я только что проверил этот код ниже. Я использовал php-скрипт, который спит в течение 100 секунд.
import threading
import pycurl
def testf():
c = pycurl.Curl()
c.setopt(pycurl.CONNECTTIMEOUT, 3)
c.setopt(pycurl.TIMEOUT, 6)
c.setopt(pycurl.NOSIGNAL, 1)
c.setopt(pycurl.URL, 'http://xxx.xxx.xxx.xxx/test.php')
c.setopt(pycurl.HTTPGET, 1)
c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()
Pycurl в этом коде, кажется, правильно истекает. Я так понимаю, это как-то связано с количеством URL-адресов? ГИЛ?
редактировать3:
Я думаю, что это может быть связано с самой libcurl, потому что иногда, когда я проверяю скрипт, libcurl все еще подключен к серверу в течение нескольких часов подряд. Если бы время ожидания pycurl истекло, сокет был бы закрыт.