Сообщение Re[19]: Зачем нам асинхронность? от 24.08.2020 17:54
Изменено 24.08.2020 17:54 Sharowarsheg
Re[19]: Зачем нам асинхронность?
Здравствуйте, Serginio1, Вы писали:
S> Ну общее количество записей будет таким же и среднее наполнение тоже. Обычно это около 75%. При полном заполнении ищется простое число в 2 раза большее чем текущий размер.
S>Конечно если ты им не задашь начальный размер в миллионы записей. А так будет то же, что и при одной хэш таблице.
Хм, у меня обычно фактический размер начинается с десятков миллионов записей. Не то, чтобы я как-то старался задавать начальный размер особенно. Пришлось даже мутить специально коллекцию из многих Dictionary, потому что у библиотечного ограничение типа 25 или 30 миллионов всего.
S> Ну общее количество записей будет таким же и среднее наполнение тоже. Обычно это около 75%. При полном заполнении ищется простое число в 2 раза большее чем текущий размер.
S>Конечно если ты им не задашь начальный размер в миллионы записей. А так будет то же, что и при одной хэш таблице.
Хм, у меня обычно фактический размер начинается с десятков миллионов записей. Не то, чтобы я как-то старался задавать начальный размер особенно. Пришлось даже мутить специально коллекцию из многих Dictionary, потому что у библиотечного ограничение типа 25 или 30 миллионов всего.
Re[19]: Зачем нам асинхронность?
Здравствуйте, Serginio1, Вы писали:
S> Ну общее количество записей будет таким же и среднее наполнение тоже. Обычно это около 75%. При полном заполнении ищется простое число в 2 раза большее чем текущий размер.
S>Конечно если ты им не задашь начальный размер в миллионы записей. А так будет то же, что и при одной хэш таблице.
Хм, у меня обычно фактический размер начинается с десятков миллионов записей. Не то, чтобы я как-то старался задавать начальный размер особенно. Пришлось даже мутить специально коллекцию из многих Dictionary, потому что у библиотечного ограничение типа 25 или 30 миллионов всего. Если меньше, то непонятно, зачем вообще хештаблицы и многопоточка.
S> Ну общее количество записей будет таким же и среднее наполнение тоже. Обычно это около 75%. При полном заполнении ищется простое число в 2 раза большее чем текущий размер.
S>Конечно если ты им не задашь начальный размер в миллионы записей. А так будет то же, что и при одной хэш таблице.
Хм, у меня обычно фактический размер начинается с десятков миллионов записей. Не то, чтобы я как-то старался задавать начальный размер особенно. Пришлось даже мутить специально коллекцию из многих Dictionary, потому что у библиотечного ограничение типа 25 или 30 миллионов всего. Если меньше, то непонятно, зачем вообще хештаблицы и многопоточка.