Здравствуйте, rameel, Вы писали:
R>Вообще-то, так работает процессор, что x86-64, что ARMы, и отражено в доках по архитектуре процессоров — значащие биты только первые 5
А каким боком "что делает процессор" относится к языку?!!

Ты ещё скажи, что ЦПУ не умеет ООП и поэтому его не существует!
R>PS. К тому же смысла сдвигать больше, чем на 31 бит все равно нет

Господи, ещё один с "мелкомягкостью головного мозга"....

То есть "всё, что не нужно инженерам микрософта — не нужно никому!" — я так понимаю логику??
Дело не в том, ЧТО ты получишь в результате, а в принципиальном подходе к сдвигу: ты не имеешь права "подгонять операцию под результат", сокращая число сдвигов! Клиент заказал дичь — значит надо выполнять дичь. Если клиент заказал умножение на ноль миллион раз — бери и умножай, ТАКОВ ПУТЬ.

Для этого и существует понятие "машина", что она делает РОВНО ТО, ЧТО ПРИКАЗАЛИ. Любая отсебятина, "оптимизация" и прочие ведут к таким вот тупым результатам — сдвинул число влево, а оно НЕ НОЛЬ!!

Это в какой вообще вселенной??