Сообщение Re: Похоже железо еще будет дорожать... от 04.01.2026 16:46
Изменено 04.01.2026 17:45 _ilya_
Re: Похоже железо еще будет дорожать...
Здравствуйте, Shmj, Вы писали:
S> уже не тянут в закон Мура — по этому решили тупо поднимать цены да и все
Может баксов напечатали, что нет товара под новый триллион, что за год не обеспеченных вбросили? Золото с 2600 до 4500 долетело, даже рубль укрепился на 45%.
А закон Мура вполне работает.
Производительность:
Чтобы не обанкротиться — надо всех неслабо пограбить. Европу пограбить, чтобы финансировали поставки Американского оружия — не хватает. Венесуэлы маловато будет, особенно на начальных этапах, там выхлоп начнется через несколько лет только. Будут грабить прощать свои долги — Японии, Саудитам, ОАЭ. Ну плюсом в пузырь ИИ как можно больше всех засунуть, схлопнуть, своим деньги напечатать(как в 2008 банкам дали), остальных кинуть (особо пострадал Deutsche Bank — которому поплохело на бумажках — CDO. По сути за доллары продали бумаги, своим банкам компенсировали, а зарубежным кукиш — тупо пограбили, с ИИ похоже подобный пузырь только еще безумнее. там хотябы сильно переоценённая но недвижка была, а тут выпаривают лишь идею что ИИ всех заменит).
S> уже не тянут в закон Мура — по этому решили тупо поднимать цены да и все
Может баксов напечатали, что нет товара под новый триллион, что за год не обеспеченных вбросили? Золото с 2600 до 4500 долетело, даже рубль укрепился на 45%.
А закон Мура вполне работает.
Производительность:
| Architecture | Blackwell | Blackwell | Hopper | Hopper | Ampere | Ampere | Blackwell | |
|---|---|---|---|---|---|---|---|---|
| NVIDIA B200 | NVIDIA B100 | NVIDIA H200 | NVIDIA H100 | NVIDIA A100 | 3080Ti | 5090 | ||
| FP32 | 80 teraFLOPS | 60 teraFLOPS | 67 teraFLOPS | 67 teraFLOPS | 19.5 teraFLOPS | 34.1 (68.2) teraFLOPS FP16 — 142 teraFLOPS teraFLOPS | 104.8 teraFLOPS | |
| FP32 Tensor Core | 2.2 petaFLOPS | 1.8 petaFLOPS | 989 teraFLOPS | 989 teraFLOPS | 312 teraFLOPS | 78.1 teraFLOPS | 209 teraFLOPS | |
| FP16/BF16 Tensor Core | 4.5 petaFLOPS | 3.5 petaFLOPS | 1979 teraFLOPS | 1979 teraFLOPS | 624 teraFLOPS | 285 teraFLOPS | 1676 teraFLOPS | |
| FP8 | 9 petaFLOPS | 7 petaFLOPS | 3958 teraFLOPS | 3958 teraFLOPS | - | - | 3352 teraFLOPS | |
| FP4 Tensor Core | 18 petaFLOPS | 14 petaFLOPS | - | - | - | - | - |
Re: Похоже железо еще будет дорожать...
Здравствуйте, Shmj, Вы писали:
S> уже не тянут в закон Мура — по этому решили тупо поднимать цены да и все
Может баксов напечатали, что нет товара под новый триллион, что за год не обеспеченных вбросили? Золото с 2600 до 4500 долетело, даже рубль укрепился на 45%.
А закон Мура вполне работает.
Производительность:
Чтобы не обанкротиться — надо всех неслабо пограбить. Европу пограбить, чтобы финансировали поставки Американского оружия — не хватает. Венесуэлы маловато будет, особенно на начальных этапах, там выхлоп начнется через несколько лет только. Будут грабить прощать свои долги — Японии, Саудитам, ОАЭ. Ну плюсом в пузырь ИИ как можно больше всех засунуть, схлопнуть, своим деньги напечатать(как в 2008 банкам дали), остальных кинуть (особо пострадал Deutsche Bank — которому поплохело на бумажках — CDO. По сути за доллары продали бумаги, своим банкам компенсировали, а зарубежным кукиш — тупо пограбили, с ИИ похоже подобный пузырь только еще безумнее. там хотябы сильно переоценённая но недвижка была, а тут выпаривают лишь идею что ИИ всех заменит. Нихрена не заменит, чтобы с пользой применять даже разработчик должен много времени на изучение потратить и новые скилы, чтобы в плюс было а не в минус, обычным юзерам не меньше навыков и это скорее сложнее).
S> уже не тянут в закон Мура — по этому решили тупо поднимать цены да и все
Может баксов напечатали, что нет товара под новый триллион, что за год не обеспеченных вбросили? Золото с 2600 до 4500 долетело, даже рубль укрепился на 45%.
А закон Мура вполне работает.
Производительность:
| Architecture | Blackwell | Blackwell | Hopper | Hopper | Ampere | Ampere | Blackwell | |
|---|---|---|---|---|---|---|---|---|
| NVIDIA B200 | NVIDIA B100 | NVIDIA H200 | NVIDIA H100 | NVIDIA A100 | 3080Ti | 5090 | ||
| FP32 | 80 teraFLOPS | 60 teraFLOPS | 67 teraFLOPS | 67 teraFLOPS | 19.5 teraFLOPS | 34.1 (68.2) teraFLOPS FP16 — 142 teraFLOPS teraFLOPS | 104.8 teraFLOPS | |
| FP32 Tensor Core | 2.2 petaFLOPS | 1.8 petaFLOPS | 989 teraFLOPS | 989 teraFLOPS | 312 teraFLOPS | 78.1 teraFLOPS | 209 teraFLOPS | |
| FP16/BF16 Tensor Core | 4.5 petaFLOPS | 3.5 petaFLOPS | 1979 teraFLOPS | 1979 teraFLOPS | 624 teraFLOPS | 285 teraFLOPS | 1676 teraFLOPS | |
| FP8 | 9 petaFLOPS | 7 petaFLOPS | 3958 teraFLOPS | 3958 teraFLOPS | - | - | 3352 teraFLOPS | |
| FP4 Tensor Core | 18 petaFLOPS | 14 petaFLOPS | - | - | - | - | - |