Здравствуйте, Serginio1, Вы писали:
CC>>Для этого по хорошему к каждому AP надо тянуть Ethernet иначе скорости и latency будут совсем не те S>Не обязательно. Усилители между собой прекрасно передают. То есть по открытым участкам.
Куда более лучшим вариантом выглядит поставить везде где надо PoE AP. Один фиг провода тянуть как минимум для питания, так пусть лучше будет один Ethernet провод, который и питать будет и данные гнать.
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Забанили по IP, значит пора закрыть эту страницу.
Всем пока
Re[3]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
Здравствуйте, Serginio1, Вы писали:
S>В 35 году все будет в облаках. Не нужны коробки. Нужны мониторы, клавы и мыши.
Так в облаках всё равно будут видеокарты или Теслы, что практически то же самое. Уже сейчас ChatGPT — это миллионы долларов ежедневно и десятки тысяч ускорителей типа А100.
Re[18]: пишут что видеокарты к 2035 году будут в 40 раз быст
Здравствуйте, CreatorCray, Вы писали:
CC>>>Для этого по хорошему к каждому AP надо тянуть Ethernet иначе скорости и latency будут совсем не те S>>Не обязательно. Усилители между собой прекрасно передают. То есть по открытым участкам.
CC>Куда более лучшим вариантом выглядит поставить везде где надо PoE AP. Один фиг провода тянуть как минимум для питания, так пусть лучше будет один Ethernet провод, который и питать будет и данные гнать.
У меня так. Но скорость так себе.
и солнце б утром не вставало, когда бы не было меня
Re[19]: пишут что видеокарты к 2035 году будут в 40 раз быст
Здравствуйте, CreatorCray, Вы писали:
S>> У меня так. Но скорость так себе. CC>Гигабит+ тебя не устраивает?
Меня то да. Только вот у меня стоит старый правда. В приложении показывает 250 в реалии меньше 50 ти
Для большинства задач выше крыши. Да прошу прощения. Спутал с PowerLine
и солнце б утром не вставало, когда бы не было меня
CC>Ты поди не в курсе что Apple сильно против того, чтоб на телефонах гоняли VM-based аппы. Пишите на любом компилируемом в бинарь языке.
Unity, Xamarin, Corona (Lua) никто вроде не запрещает. Как и родной JavaScriptCore с мостиком в платформенные вызовы.
Так что это ваше "сильно против" давно выродилось в "не рекомендуют".
Re[2]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
V>Как показывают последние майнинг бумы вопрос уже не в том во сколько видеокарты раз быстрее, вопрос в том во сколько они раз дороже. Количество смартфонов в мире растёт, а те же дискретные видеокарты в десктопах это по сути удел гиков.
А потом заходишь в ютуп — и видишь, что этих гиков чуть ли не больше, чем нормальных людей. Обзоры смартфончиков и софта для них уже мало кого интересуют, там сплошная скучная утилитарщина, а околомайнинг, полноценные игры стабильно собирают просмотры.
V>Россия как раз одна из стран, которая потребляет дискретные видеокарты. А у некоторых стран сразу появились смартфоны, то есть не ноутбуки и не десктопы.
Китай, Индия, Бразилия в этом отношении примерно такие же, как и Россия. А вот какие-нибудь страны сильно победнее те да, успели к шапочному разбору.
V>на котором в том числе можно поиграть.
Нельзя. Можно лишь испортить настроение. Вот как, например, поиграть в Atomic Heart без приличного GPU?
V>А пока Лиза и Хуанг игрались в кто кого перемайнит доля игроков на десктопах и ноутбуках отнюдь не увеличивалась. Ты не можешь позволить себе видеокарту, отлично, есть же смартфоны. Давай поиграй, игры говно, ну так они по большей части и на ПК говно.
На ПК "по большей части", а на смердфонах — полностью. Разница огромная.
Re[3]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
S>В 35 году все будет в облаках. Не нужны коробки. Нужны мониторы, клавы и мыши. S>Смартфоны то же будут облачные. Там экран по сути и нужен. Все более менее ресурсоемкое будет в облаках.
Мечтатели до сих пор бредят облаками, и в то же время прагматики начинают делать игры, которые без быстрого локального SSD вообще не заведутся.
Re[4]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
Здравствуйте, zx zpectrum, Вы писали:
S>>В 35 году все будет в облаках. Не нужны коробки. Нужны мониторы, клавы и мыши. S>>Смартфоны то же будут облачные. Там экран по сути и нужен. Все более менее ресурсоемкое будет в облаках. ZZ>Мечтатели до сих пор бредят облаками, и в то же время прагматики начинают делать игры, которые без быстрого локального SSD вообще не заведутся.
Облака чем хороши, что у них больший КПД. То есть оборудование намного мощнее чем обычный комп и может разделяться между игроками. Если дома ты играешь за компом максимум 2 часа, облака работают 24 часа. Выигрывают и игроки, так как железо быстро дешевеет так и владельцы облаков. Единственно, что нужны сервера рядом с облаками и связь достаточная для передачи видеопотока
и солнце б утром не вставало, когда бы не было меня
Re[6]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
Здравствуйте, zx zpectrum, Вы писали:
z> Unity, Xamarin, Corona (Lua) никто вроде не запрещает. Как и родной JavaScriptCore с мостиком в платформенные вызовы. z> Так что это ваше "сильно против" давно выродилось в "не рекомендуют".
Since applications using Xamarin.iOS are compiled to static code, it is not possible to use any facilities that require code generation at runtime.
These are the Xamarin.iOS limitations compared to desktop Mono:
Limited Generics Support
Unlike traditional Mono/.NET, code on the iPhone is statically compiled ahead of time instead of being compiled on demand by a JIT compiler.
Mono's Full AOT technology has a few limitations with respect to generics, these are caused because not every possible generic instantiation can be determined up front at compile time. This is not a problem for regular .NET or Mono runtimes as the code is always compiled at runtime using the Just in Time compiler. But this poses a challenge for a static compiler like Xamarin.iOS.
Здравствуйте, zx zpectrum, Вы писали:
CC>>Ты поди не в курсе что Apple сильно против того, чтоб на телефонах гоняли VM-based аппы. Пишите на любом компилируемом в бинарь языке. ZZ>Unity, Xamarin, Corona (Lua) никто вроде не запрещает. Как и родной JavaScriptCore с мостиком в платформенные вызовы. ZZ>Так что это ваше "сильно против" давно выродилось в "не рекомендуют".
A, ну эмитирование понятное дело запрещено, но это совершенно отдельная история, имеющая мало отношения к нативным-ненативным языкам. Иначе привет эмуляторы игровых приставок в аппсторе, привет стихийные магазины дополнительных кодовых модулей внутри приложений, в общем, всё то, что так не любят яблочные.
Re[8]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
Здравствуйте, zx zpectrum, Вы писали:
z> A, ну эмитирование понятное дело запрещено, но это совершенно отдельная история, имеющая мало отношения к нативным-ненативным языкам.
Речь не только про эмитирование, там даже джит запрещен.
R>Речь не только про эмитирование, там даже джит запрещен.
Так это оно и есть. JIT в данном случае и означает эмитирование двоичного кода в RAM с целью исполнения. Технически у яблочных это делается одним простым запретом на (PROT_WRITE | PROT_EXEC) для страниц памяти.
Re[21]: пишут что видеокарты к 2035 году будут в 40 раз быст
Здравствуйте, Serginio1, Вы писали:
S>Спутал с PowerLine
А, понятно.
Это увы хреново работает, у меня было — плюнул и перевёл комп на WiFi 6E, работает куда лучше.
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Забанили по IP, значит пора закрыть эту страницу.
Всем пока
Re: пишут что видеокарты к 2035 году будут в 40 раз быстрее
Здравствуйте, xma, Вы писали: xma>пишут что видеокарты к 2035 году будут в 40 раз быстрее
такое произойдёт если промышленность освоит 3д литографию, в которой
вместо увеличения площади кристалла начнут его утолщать и придумают как отвести тепло,
возможно это будет уже не кремний
а через 5 лет наверное в среднем останется 4k/8k, лет через 5..7 такое разрешение при 120fps
будет на каждый глаз и в VR шлемах
уже сейчас на RTX4090 добились +40% по сравнению с RTX3090 за счёт ML ядер в DLSS 3,
только за счёт предсказания кадров, т.е. это не вставка промежуточных кадров как в телевизорах,
а именно предсказание и рисование след кадров по движению, чтобы разгрузить основные ядра
-
Re[2]: пишут что видеокарты к 2035 году будут в 40 раз быстрее
Здравствуйте, trop, Вы писали:
T>уже сейчас на RTX4090 добились +40% по сравнению с RTX3090 за счёт ML ядер в DLSS 3, T>только за счёт предсказания кадров, т.е. это не вставка промежуточных кадров как в телевизорах, T>а именно предсказание и рисование след кадров по движению, чтобы разгрузить основные ядра
Не, этож фейковая генерация а не честная производительность
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Забанили по IP, значит пора закрыть эту страницу.
Всем пока