Взаимодействие с сервером производится через вебсокеты таким образом: клиент подписывается на какие-то события, а потом они к нему сыплются с сервака в виде JSON-посылок. Объектов, которые генерят события, на которые можно подписаться — порядка нескольких тысяч. Некоторые события могут сыпаться довольно часто — к примеру, до нескольких раз в секунду. Но могут и не часто.
В протоколе прописано ограничение — не больше 32х соединений с одного адреса. Хорошо, сервак не тянет больше. Стал реализовывать — и что-то вот в упор не вижу смысла иметь больше одного соединения. У меня обмен идет до провайдера по 100 мегабитам, там дальше хз, но тоже вроде не особо тупит.
Надежность? Так если одно соединение отвалилось, то и остальные скорее всего отвалятся. Латентность? Так вроде у кучи соединений как раз хуже будет, не? Да и протокол по сути потоковый, какая тут латентность?
Простота реализации клиента? По мне — так проще либо одно соединение на все объекты, либо по соединению на каждый. Иначе — геммор с тем, что разбираться что отвалилось и какие подписки были через отвалившееся соединение.
А, ну да. Теоретически оно может работать через мобильный интернет. Может смысл в том, что дублировать подписки по нескольким соединениям, и держа несколько неактивных наготове — если соединение отвалилось — то активируем другое, и подписываемся на всё через него — может новую соту найдёт, и отдуплится быстрее, чем старое прочухает, что оно померло?