Я пишу программу .NET на С#, которая делает запросы GET и загружает страницы для анализа - своего рода сканер. Я заметил, что для загрузки каждой страницы приходится читать из потока несколько раз, потому что каждая страница очень большая.
В настоящее время я установил размер буфера потока на 5024 байта. Мой вопрос: было бы более эффективно увеличить этот размер и, следовательно, выполнять меньше потокового чтения? Или лучше обрабатывать меньше данных за раз, из которых можно парсить?
В основном сформулировано по-другому - быстрее ли анализировать больше данных одновременно и реже вызывать stream.read или наоборот?
Спасибо!