Сообщение Re[18]: Мне кажется или Microsoft сдувается? от 31.10.2022 8:28
Изменено 31.10.2022 8:40 Pauel
Re[18]: Мне кажется или Microsoft сдувается?
Здравствуйте, CreatorCray, Вы писали:
P>>Похоже, ты забыл про что речь. Удаляют по разным причинам.
CC>Не, просто ты по какой то причине думаешь что кто то другой должен хранить нужное тебе за тебя.
Я говорю совершенно другое — поскольку депенденсы могут отсутствовать, собранный релиз в докер имедже гораздо надежнее.
P>>Слишком дорого хранить все депенденсы, особенно публичные.
CC>Puh-lease! Сколько у тебя терабайт зависимостей?
Ты издержки в терабайтах меряешь Нужно мерить и сравнивать суммарную стоимость владения.
CC>Держать там терабайтный архив зависимостей, на случай если вдруг понадобятся ~$12.16 в год.
CC>Ну просто капец как дорого!!!
Во первых, терабата мало. Во вторых, сюда нужно добавить зп опсов которые будут заниматься всеми подобными вопросами, издержки на лишние билды и тд, см список внизу
P>> Скажем, из наших внутренних депенденсов чудовищное количество имеют единицы скачиваний. И только малая доля скачивается постоянно.
CC>Вопрос в том, почему вообще что то скачивается постоянно?
Элементарно — билды на фичи-баги-секюрити требуют зависимостей.
P>>Ога. Жалко, что индустрия не пошла по твоему варианту.
CC>Ты о какой индустрии говоришь то? В моей окрестности докера как то не наблюдается.
Потому, что ты работаешь в узенькой нише. Веб-приложений разного масштаба в тысячи раз бОльше.
Щас ты наверное скажешь "а я веб-приложениями не занимаюсь" ?
CC>И потом, чем хранение докер образа отличается от хранения "исходников", из которых этот образ собирается?
А ты вообще читал про докер?
Докер образ это наполовину продеплоеный артефакт. Секунды, и ты уже переключил энв на нужную версию.
Полная сборка проекта из исходников с деплойментом занимает часы, из которых бОльшую времени работает компилятор и идут тесты.
Тесты можно и отключить, но тогда проблемы с интеграцией будешь ловить в отладке.
За это время я могу перебрать десяток версий сервиса и найти вилку было-стало.
То есть, в случае с хранением исходников:
0. подкинуть нужные переменные окружения — где гарантия что они будут теми же, что и в прошлый раз? Есть ответ?
1. откопать тот самый пайплайн на дженкинсе или еще где, который умеет работать с билдами той самой версии и пускануть его
2. скачать нужную версию исходников по тегу
3. скачать все зависимости, коих обычно больше чем исходников, при чем намного
4. стартовать билд и собрать артефакты
5. собрать конфигурацию
6. залить на сервер, где лежат билды
7. скачать и пускануть пайплайн для деплоймента
И тут мы выясняем, что здесь ажно 8-10 разных шагов, каждый из которых время от времени отваливается по разными причинам — например
закончилось место на агенте, надо чпокать опсов
поменялся энвайрмент агента, надо чпокать опсов
протухли креденшиалы, надо чпокать опсов
отвалились пермишны, снова надо чпокать опсов
поменялась конфигурация сети, снова надо чпокать опсов или админов
итд итд, и каждый раз чпокаем опсов, админов, итд по списку
И самое забавное — пункт 0 — где гарантия, что ты подкинешь те самые переменные, что были использованы в первый раз?
P>>Похоже, ты забыл про что речь. Удаляют по разным причинам.
CC>Не, просто ты по какой то причине думаешь что кто то другой должен хранить нужное тебе за тебя.
Я говорю совершенно другое — поскольку депенденсы могут отсутствовать, собранный релиз в докер имедже гораздо надежнее.
P>>Слишком дорого хранить все депенденсы, особенно публичные.
CC>Puh-lease! Сколько у тебя терабайт зависимостей?
Ты издержки в терабайтах меряешь Нужно мерить и сравнивать суммарную стоимость владения.
CC>Держать там терабайтный архив зависимостей, на случай если вдруг понадобятся ~$12.16 в год.
CC>Ну просто капец как дорого!!!
Во первых, терабата мало. Во вторых, сюда нужно добавить зп опсов которые будут заниматься всеми подобными вопросами, издержки на лишние билды и тд, см список внизу
P>> Скажем, из наших внутренних депенденсов чудовищное количество имеют единицы скачиваний. И только малая доля скачивается постоянно.
CC>Вопрос в том, почему вообще что то скачивается постоянно?
Элементарно — билды на фичи-баги-секюрити требуют зависимостей.
P>>Ога. Жалко, что индустрия не пошла по твоему варианту.
CC>Ты о какой индустрии говоришь то? В моей окрестности докера как то не наблюдается.
Потому, что ты работаешь в узенькой нише. Веб-приложений разного масштаба в тысячи раз бОльше.
Щас ты наверное скажешь "а я веб-приложениями не занимаюсь" ?
CC>И потом, чем хранение докер образа отличается от хранения "исходников", из которых этот образ собирается?
А ты вообще читал про докер?
Докер образ это наполовину продеплоеный артефакт. Секунды, и ты уже переключил энв на нужную версию.
Полная сборка проекта из исходников с деплойментом занимает часы, из которых бОльшую времени работает компилятор и идут тесты.
Тесты можно и отключить, но тогда проблемы с интеграцией будешь ловить в отладке.
За это время я могу перебрать десяток версий сервиса и найти вилку было-стало.
То есть, в случае с хранением исходников:
0. подкинуть нужные переменные окружения — где гарантия что они будут теми же, что и в прошлый раз? Есть ответ?
1. откопать тот самый пайплайн на дженкинсе или еще где, который умеет работать с билдами той самой версии и пускануть его
2. скачать нужную версию исходников по тегу
3. скачать все зависимости, коих обычно больше чем исходников, при чем намного
4. стартовать билд и собрать артефакты
5. собрать конфигурацию
6. залить на сервер, где лежат билды
7. скачать и пускануть пайплайн для деплоймента
И тут мы выясняем, что здесь ажно 8-10 разных шагов, каждый из которых время от времени отваливается по разными причинам — например
закончилось место на агенте, надо чпокать опсов
поменялся энвайрмент агента, надо чпокать опсов
протухли креденшиалы, надо чпокать опсов
отвалились пермишны, снова надо чпокать опсов
поменялась конфигурация сети, снова надо чпокать опсов или админов
итд итд, и каждый раз чпокаем опсов, админов, итд по списку
И самое забавное — пункт 0 — где гарантия, что ты подкинешь те самые переменные, что были использованы в первый раз?
Re[18]: Мне кажется или Microsoft сдувается?
Здравствуйте, CreatorCray, Вы писали:
P>>Похоже, ты забыл про что речь. Удаляют по разным причинам.
CC>Не, просто ты по какой то причине думаешь что кто то другой должен хранить нужное тебе за тебя.
Я говорю совершенно другое — поскольку депенденсы могут отсутствовать, собранный релиз в докер имедже гораздо надежнее.
P>>Слишком дорого хранить все депенденсы, особенно публичные.
CC>Puh-lease! Сколько у тебя терабайт зависимостей?
Ты издержки в терабайтах меряешь Нужно мерить и сравнивать суммарную стоимость владения.
CC>Держать там терабайтный архив зависимостей, на случай если вдруг понадобятся ~$12.16 в год.
CC>Ну просто капец как дорого!!!
Во первых, терабата мало. Во вторых, сюда нужно добавить зп опсов которые будут заниматься всеми подобными вопросами, издержки на лишние билды и тд, см список внизу
И нам нужно городить вокруг этого инфраструктуру, которая будет заботливо сохранять все используемые версии всех используемых депенденсов. Подтянул сотню другую зависимостей — надо что бы они автоматом появились в этом архиве. Кто это будет делать и кто будет платить за этот банкет?
P>> Скажем, из наших внутренних депенденсов чудовищное количество имеют единицы скачиваний. И только малая доля скачивается постоянно.
CC>Вопрос в том, почему вообще что то скачивается постоянно?
Элементарно — билды на фичи-баги-секюрити требуют зависимостей.
P>>Ога. Жалко, что индустрия не пошла по твоему варианту.
CC>Ты о какой индустрии говоришь то? В моей окрестности докера как то не наблюдается.
Потому, что ты работаешь в узенькой нише. Веб-приложений разного масштаба в тысячи раз бОльше.
Щас ты наверное скажешь "а я веб-приложениями не занимаюсь" ?
CC>И потом, чем хранение докер образа отличается от хранения "исходников", из которых этот образ собирается?
А ты вообще читал про докер?
Докер образ это наполовину продеплоеный артефакт. Секунды, и ты уже переключил энв на нужную версию.
Полная сборка проекта из исходников с деплойментом занимает часы, из которых бОльшую времени работает компилятор и идут тесты.
Тесты можно и отключить, но тогда проблемы с интеграцией будешь ловить в отладке.
За это время я могу перебрать десяток версий сервиса и найти вилку было-стало.
То есть, в случае с хранением исходников:
0. подкинуть нужные переменные окружения — где гарантия что они будут теми же, что и в прошлый раз? Есть ответ?
1. откопать тот самый пайплайн на дженкинсе или еще где, который умеет работать с билдами той самой версии и пускануть его
2. скачать нужную версию исходников по тегу
3. скачать все зависимости, коих обычно больше чем исходников, при чем намного
4. стартовать билд и собрать артефакты
5. собрать конфигурацию
6. залить на сервер, где лежат билды
7. скачать и пускануть пайплайн для деплоймента
И тут мы выясняем, что здесь ажно 8-10 разных шагов, каждый из которых время от времени отваливается по разными причинам — например
закончилось место на агенте, надо чпокать опсов
поменялся энвайрмент агента, надо чпокать опсов
протухли креденшиалы, надо чпокать опсов
отвалились пермишны, снова надо чпокать опсов
поменялась конфигурация сети, снова надо чпокать опсов или админов
итд итд, и каждый раз чпокаем опсов, админов, итд по списку
И самое забавное — пункт 0 — где гарантия, что ты подкинешь те самые переменные, что были использованы в первый раз?
P>>Похоже, ты забыл про что речь. Удаляют по разным причинам.
CC>Не, просто ты по какой то причине думаешь что кто то другой должен хранить нужное тебе за тебя.
Я говорю совершенно другое — поскольку депенденсы могут отсутствовать, собранный релиз в докер имедже гораздо надежнее.
P>>Слишком дорого хранить все депенденсы, особенно публичные.
CC>Puh-lease! Сколько у тебя терабайт зависимостей?
Ты издержки в терабайтах меряешь Нужно мерить и сравнивать суммарную стоимость владения.
CC>Держать там терабайтный архив зависимостей, на случай если вдруг понадобятся ~$12.16 в год.
CC>Ну просто капец как дорого!!!
Во первых, терабата мало. Во вторых, сюда нужно добавить зп опсов которые будут заниматься всеми подобными вопросами, издержки на лишние билды и тд, см список внизу
И нам нужно городить вокруг этого инфраструктуру, которая будет заботливо сохранять все используемые версии всех используемых депенденсов. Подтянул сотню другую зависимостей — надо что бы они автоматом появились в этом архиве. Кто это будет делать и кто будет платить за этот банкет?
P>> Скажем, из наших внутренних депенденсов чудовищное количество имеют единицы скачиваний. И только малая доля скачивается постоянно.
CC>Вопрос в том, почему вообще что то скачивается постоянно?
Элементарно — билды на фичи-баги-секюрити требуют зависимостей.
P>>Ога. Жалко, что индустрия не пошла по твоему варианту.
CC>Ты о какой индустрии говоришь то? В моей окрестности докера как то не наблюдается.
Потому, что ты работаешь в узенькой нише. Веб-приложений разного масштаба в тысячи раз бОльше.
Щас ты наверное скажешь "а я веб-приложениями не занимаюсь" ?
CC>И потом, чем хранение докер образа отличается от хранения "исходников", из которых этот образ собирается?
А ты вообще читал про докер?
Докер образ это наполовину продеплоеный артефакт. Секунды, и ты уже переключил энв на нужную версию.
Полная сборка проекта из исходников с деплойментом занимает часы, из которых бОльшую времени работает компилятор и идут тесты.
Тесты можно и отключить, но тогда проблемы с интеграцией будешь ловить в отладке.
За это время я могу перебрать десяток версий сервиса и найти вилку было-стало.
То есть, в случае с хранением исходников:
0. подкинуть нужные переменные окружения — где гарантия что они будут теми же, что и в прошлый раз? Есть ответ?
1. откопать тот самый пайплайн на дженкинсе или еще где, который умеет работать с билдами той самой версии и пускануть его
2. скачать нужную версию исходников по тегу
3. скачать все зависимости, коих обычно больше чем исходников, при чем намного
4. стартовать билд и собрать артефакты
5. собрать конфигурацию
6. залить на сервер, где лежат билды
7. скачать и пускануть пайплайн для деплоймента
И тут мы выясняем, что здесь ажно 8-10 разных шагов, каждый из которых время от времени отваливается по разными причинам — например
закончилось место на агенте, надо чпокать опсов
поменялся энвайрмент агента, надо чпокать опсов
протухли креденшиалы, надо чпокать опсов
отвалились пермишны, снова надо чпокать опсов
поменялась конфигурация сети, снова надо чпокать опсов или админов
итд итд, и каждый раз чпокаем опсов, админов, итд по списку
И самое забавное — пункт 0 — где гарантия, что ты подкинешь те самые переменные, что были использованы в первый раз?