в официальном пресс-релизе рассказывается, что уже до конца этого года разработчики игр смогут начать внедрять элементы трассировки лучей для получения фотореалистичных изображений и визуальных эффектов кинематографического качества. И потребуются им для этого не только видеокарты с архитектурой Volta, но и их последователи
NVIDIA не только "прячет" преимущества трассировки лучей в закрытую экосистему GameWorks, но и намекает, что аппаратных ресурсов на адекватное по скорости воспроизведение соответствующих сцен хватит только у Volta и более современных видеокарт. По крайней мере, именно Volta оснащается неким аппаратным блоком, отвечающим за трассировку лучей.
Насчет того, зачем нужен raytracing. По-моему, это не только отражения.
Еще, это качественный расчет освещения в помещениях. Тени. Radiosity.
Когда лампа освещает белый потолок, и отраженным рассеянным светом освещается остальная часть комнаты.
Или когда свет, падающий на красную поверхность, освещает всю комнату в этот оттенок.
Ещё считаю, круто будет делать эффекты, когда в помещении есть некий туман
(динамический, расчитываемый по fluid dynamics), и сквозь него пускают свет, который
всё вокруг освещает с учетом затенения и отражений от тумана.
Еще круто сделать subsurface scattering.
Хотя вот, я б для достижения большей натуральности картинки, копал бы в сторону того,
как сделать движения разных предметов как можно естественнее. И в сторону того, чтобы
у всяких монстров/людей была бы естественная мимика, натуральная кожа/волосы,
натуральная ткань/аммуниция/экипировка. Чтобы, скажем, они естественным образом мялись,
гнулись, деформировались, рвались. Чтобы еще были бы всякие fluids с натуральным поведением.
Я эту 3DMark Port Royal смотрю, и не вижу ничего такого.
Они даже звездолет сделали словно из фольги. Люди там не люди, а невесть что.
Не двигаются, или двигаются коряво, позы неестественны. Какие-то засветки от солнца.
Сцена тоже очень абстрактна -- какие-то кольца с голубеньким на входе в док. "Типа футуристика".
Жидкость из люка на 2:23 — это вообще за гранью.
В общем I dont buy it.
Прибавлю, что естественности от компьютерной графики я не всегда видел даже в пререндеренных
фильмах, не то что в реальном времени. Вот скажите, какие подобные сцены вы знаете?
Что касается Battlefield 5 с RTX. Видно, что есть движение в сторону натуральности, но
все равно еще далеко. Посмотрите на физиономию солдата в самом начале. У людей физиономии,
они все с изъянами. Брови не симметричны, и их очертания не ограничены некоторой аккуратной линией,
волосы бровей не безупречны, иногда слипаются. Глаза у людей не блестят, аки фарфоровый чайник.
Формы лица не идут по таким аккуратным линиям — есть вмятины, неравномерности.
У носа часто есть горбинка. Клево, что они сделали блеск пота — добавляет натуральности.
Теперь про ткань его шапки, или чего там. Реальная ткань не столь однородна по свойствам, как здесь.
Не один и тот же цвет. Бугры ткани не блестят. Ткань плотно прилегает к телу, а тут есть зазоры.
Очертания одежды и головных уборов в реальности не идут по таким аккуратным, выверенным линиям.
Она мнется, обладает неравномерностью и складками.
Еще, реальная ткань имеет много уровней. Т.е. есть волокна снаружи, под ними другие волокна, и т.п.
Все это просвечивает, видно за одним уровнем, другой. Да еще затеняет друг друга.
А тут это все пластиковое. Ты видишь просто одну поверхность.
Что касается остального в демке, тут так. Материалы элементов сцены не очень натуральны.
Огонь вообще фейк. Слишком много отражающих поверхностей в сцене, и они слишком сильно отражают.
Отражение огня от асфальта и лужи на нем -- круто.
Еще хочу добавить про внешний вид частей тела в играх. Круто было бы, если б в них учитывался тот
факт, что тела живых существ не являются деревянными. Это же мясо на костях, и оно может
деформироваться в известных пределах. Вот демка Tomb Raider. Там героиня плывет в воде в 0:16. Почему, от
сопротивления воды, мышцы ее рук не деформируются? А еще, почему она из-за этого не испытывает
трудности в движениях, и так резво машет ручками? Но в общем, там все достаточно неплохо.
Круто, что на 0:24 волосы ее прически действительно двигаются, хотя материал кожи лица не натурален.
На 0:30, героиня может руки прижать к туловищу и поплотнее. Т.е. круто, если движения модели диктуются
не только анимациями, но и физикой, или всякими "неосознанными рефлексами". В смысле, желаниями чуть
двинуть руками, повернуться там, и т.п.
Демка NVIDIA Ray Tracing Demo 2 — хорошая. Материалы мне нравятся.
Здравствуйте, xma, Вы писали:
xma>Reflections Real-Time Ray Tracing Demo | Project Spotlight | Unreal Engine
xma>по слухам с GDC эта (верхняя) демка на четырёх Titan V крутилась
кому интересно ,
Getting a “cinematic” 24fps with real-time raytracing still requires some serious hardware: it’s currently running on Nvidia’s ultra-high-end, four-GPU DGX Station, which lists for $60,000.
Getting a “cinematic” 24fps with real-time raytracing still requires some serious hardware: it’s currently running on Nvidia’s ultra-high-end, four-GPU DGX Station, which lists for $60,000.
60К — означает что через AWS это доступно практически всем. Это я к том, что 10 лет назад подобное требовало вычислительного центра, который могли себе позволить лишь компании размера Pixar/Dreamworks.
Здравствуйте, xma, Вы писали:
xma>смотришь на эту демку и понимаешь в каком же мы самом начале впечатляющего будущего :D (особенно под музычку из демки — ваще чётко подобрано)
На самом деле сейчас уже уровень компьютерной графики таков, что узким местом становится не рендеринг, а тупо наполнение и детализация сцены. На 3D игры без мата и ужаса стало возможно смотреть даже на мощностях уровня PS2. PS3 и современное поколение уже выдает очень достойную картинку. Принципиально лучше картинка уже не будет, если отображать на мониторе или телевизоре. Впечатляющее будущее за технологиями виртуальной реальности, но пока железо не тянет такие нагрузки. Там нужно и разрешение на порядки больше, и частота кадров на порядки больше, и без малейшей задержки, и диапазон цветов должен быть больше и т.д. И это все должно работать дез проводов, то есть эта вся мощь должна быть не в огроменном системнике с черти каким охлаждением, а прямо в очках или на худой конец в шлеме. Теоретически я надеюсь дожить до нормального VR в массах, при этом надеюсь что зрение у меня к тому моменту будет достаточное чтобы это все заценить.
Сколько демок ни видел — ну не синематик там качество, не синематик, хоть убейся. Видно, что графика. И вроде и тени клевые, и отражения, и преломления, и туманчики, эмбиенты и рассеивания. Все клевое. Но не стнематик. И дело не в нереальности происходящего в ролике (это может дать эффект «графики»). Даже если в демке тупо архитектура — все равно видно, что не настоящее.
Это раз. А два — а не надо это никому. Ты глянь на графику Horizon Zero Dawn, последнего God Of War или выходящего скоро Detroit. И это все на примитивном ноутбучном железе приставок. Геймерам за глаза хватает этой графики на данный момент.
Здравствуйте, vsb, Вы писали:
vsb>А какой именно эффект даёт этот ray tracing, чего не дают стандартные подходы? Я правильно понимаю, что по сути это только отражения во всяких кривых зеркалах?
Визуально изображение становится _гораздо_ реалистичнее. Зеркала это мелочь.
Здравствуйте, Amygdala, Вы писали: A>Это раз. А два — а не надо это никому. Ты глянь на графику Horizon Zero Dawn, последнего God Of War или выходящего скоро Detroit. И это все на примитивном ноутбучном железе приставок. Геймерам за глаза хватает этой графики на данный момент.
Во-во. Давно уже пора инвестировать не в графику, а в ИИ по автогенерации ландшафтов, помещений, сюжетных ходов и отдельных сцен.
Вон, Стивену Кингу хватает 26 букв и десятка знаков препинания, чтобы создать такую атмосферу, что ночью стремаешься воды пойти попить.
Игра — она же не про пикселы. Там важно сопереживание персонажу.
Уже второй дум, со спрайтовыми монстрами, прекрасно создавал такое ощущение реалистичности, что взрослые дяди от выстрелов ажно за монитор уворачивались.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, vsb, Вы писали:
vsb>А какой именно эффект даёт этот ray tracing, чего не дают стандартные подходы? Я правильно понимаю, что по сути это только отражения во всяких кривых зеркалах?
не правильно. прежде всего — это освещение грамотное, и тени как следствие.
S>Во-во. Давно уже пора инвестировать не в графику, а в ИИ по автогенерации ландшафтов, помещений, сюжетных ходов и отдельных сцен.
Это мощная затея. Такая задача, думаю даже переплюнет задачу построения Strong AI.
Тут надо не то что понимать человека, его речь, распознавать изображения, думать как человек и т.п.
Тут вообще, надо аж уметь творить, как человек. Особенно когда далеко не всякие люди на это способны.
Может, ты хочешь AI, автогенерирующий на уровне Леонардо да Винчи, Сальвадора Дали,
Моцарта, Льва Толстого, Микеладжело, Антонио Гауди?
Здравствуйте, novitk, Вы писали:
N>60К — означает что через AWS это доступно практически всем. Это я к том, что 10 лет назад подобное требовало вычислительного центра, который могли себе позволить лишь компании размера Pixar/Dreamworks.
ну $60К это довольно мутно , т.к. фактически там 4x Tesla V100 — по сути эквивалент 4x Titan V = 4x $3k = $12k
что касается дальнейших перспектив , то можно взглянуть на эту картинку
Здравствуйте, Nikе, Вы писали:
xma>>понеслася ёпта N>И как ты с рейтресингом обеспечишь необходимый минимум в 200 фпс?
ээ.., эт чё за минимум ? минимум 30 FPS — его сейчас выдаёт GTX 1080 в демке ниже (инсайд от знакомого разработчика Futuremark ) (а новое поколение видях вскоре выходящих в ray tracing'е будет в несколько раз быстрее )
Здравствуйте, Nikе, Вы писали: xma>>ээ.., эт чё за минимум ? N>Так VR же. Будущее за VR или мобильными (слабыми) платформами, рейтрейсинг ни туда ни сюда.
смешно
в VR разрешение 1600x1400 на глаз .. всё потянет (на новых скоро выходящих видяшках). у вас кстати есть VR ?
ну и если говорить о будущем — то ожидается внедрение 5G c гигабитной скоростью и 1 ms задержкой , что позволит реализовать возможности облачного рендеринга и трассировки лучей при необходимости , с минимальными задержками .. уже сейчас есть такие сервисы — на Wi-Fi'е всё летает , качество збс ..
ну и с учётом 100-кратного ожидаемого прироста производительности в течение ближайших 10 лет , для ray tracing'а хватит и мобилок .. (в будущем)
Эх, помню в далеком 1998 заигрывался в Comanche 3, там воксельная графика, как я понимаю, это и есть трассировка лучей.
По тем временам графика была фантастическая, как будто кино смотришь, особенно если нет объектов близких.
Здравствуйте, vl690001x, Вы писали:
V>Эх, помню в далеком 1998 заигрывался в Comanche 3, там воксельная графика, как я понимаю, это и есть трассировка лучей. V>По тем временам графика была фантастическая, как будто кино смотришь, особенно если нет объектов близких.
нет , в этой теме примеры ray tracing по треугольникам , и в последующих поколениях видеокарт аппаратная оптимизация будет именно по треугольникам ..
Epic Games призывает разработчиков задуматься о применении технологии трассировки лучей. https://3dnews.ru/969299
«При наличии вычислительных мощностей на уровне 25 терафлопс трассировка лучей становится лучшим способом получения реалистичного изображения», — сказал Тим Суини.
«Вы можете обнаружить, что через два года будет хватать вычислительной мощности и в одном GPU (консольном ? — прим.). И вдруг это становится возможным на high-end», — сказал он.
А какой именно эффект даёт этот ray tracing, чего не дают стандартные подходы? Я правильно понимаю, что по сути это только отражения во всяких кривых зеркалах? По-моему все эти сцены высосаны из пальца. Я вот огляделся дома и нигде у меня нет каких-то искривлённых зеркал. Обычные зеркала висят в нескольких местах, но для них рейтрейсинг не нужен. Конечно круто, но по-моему на революцию не тянет.
Здравствуйте, vsb, Вы писали:
vsb>А какой именно эффект даёт этот ray tracing, чего не дают стандартные подходы? Я правильно понимаю, что по сути это только отражения во всяких кривых зеркалах?
Developers can access NVIDIA RTX technology through the NVIDIA OptiX application programming interface, Microsoft’s new DirectX Raytracing API and, in the future, Vulkan, an open, cross-platform graphics standard.
GV100 and NVIDIA RTX ray-tracing technology deliver unprecedented speed of cinematic-quality renderings.
Здравствуйте, Amygdala, Вы писали:
A>Сколько демок ни видел — ну не синематик там качество, не синематик, хоть убейся. Видно, что графика. И вроде и тени клевые, и отражения, и преломления, и туманчики, эмбиенты и рассеивания. Все клевое. Но не стнематик. И дело не в нереальности происходящего в ролике (это может дать эффект «графики»). Даже если в демке тупо архитектура — все равно видно, что не настоящее.
A>Это раз. А два — а не надо это никому. Ты глянь на графику Horizon Zero Dawn, последнего God Of War или выходящего скоро Detroit. И это все на примитивном ноутбучном железе приставок. Геймерам за глаза хватает этой графики на данный момент.
Здравствуйте, vl690001x, Вы писали:
V>Эх, помню в далеком 1998 заигрывался в Comanche 3, там воксельная графика, как я понимаю, это и есть трассировка лучей.
Здравствуйте, AlexRK, Вы писали:
vsb>>А какой именно эффект даёт этот ray tracing, чего не дают стандартные подходы? Я правильно понимаю, что по сути это только отражения во всяких кривых зеркалах?
ARK>Визуально изображение становится _гораздо_ реалистичнее. Зеркала это мелочь.
За счёт чего это достигается? Я в этих демках не увидел ничего гораздо реалистичней традиционных подходов.
Здравствуйте, vsb, Вы писали:
ARK>>Визуально изображение становится _гораздо_ реалистичнее. Зеркала это мелочь.
vsb>За счёт чего это достигается? Я в этих демках не увидел ничего гораздо реалистичней традиционных подходов.
Освещение выглядит реальным. Вот, например, демо ку2 с рейтресингом:
RT-ядра ускоряют расчёты движения света и звука в 3D-среде до 10 миллиардов лучей в секунду (Quadro RXT 8000 и 6000), что в 25 раз превосходит показатели старого «неускоренного» поколения Pascal.
Ну ок. Я то поработал с половиной рейтрейсеров на рынке, мне тут скорее хорошо, хотя и непонятно, когда оно выйдет в массы.
А вот Интелу неприятные новости.
Здравствуйте, vsb, Вы писали:
ARK>>Визуально изображение становится _гораздо_ реалистичнее. Зеркала это мелочь.
vsb>За счёт чего это достигается? Я в этих демках не увидел ничего гораздо реалистичней традиционных подходов.
до real time'а ещё далеко , особенного массового — с учётом того что на новой квадре RTX всего 10 FPS :gigi: (в сцене с Porsche) и 20 FPS — в сцене [del]с лунтиками[/del] со звёздными войнами ..
Скрытый текст
правда есть какие то обещания про
This is reportedly accomplished by a combination of the RT and Tensor cores, which together accelerate real-time ray tracing by “up to 25x” the abilities of Pascal-based chips.
Здравствуйте, AlexRK, Вы писали:
ARK>Освещение выглядит реальным. Вот, например, демо ку2 с рейтресингом:
Простите, а куда смотреть в этой демке? Она пережата так, что я вообще в половине кадров кроме пикселов в полкартинки ничего не вижу.
Когда персонаж встаёт между светильником и освещаемым объектом, ничего не меняется — ни тени нет, ни общая освещённость не меняется
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, Sinclair, Вы писали:
ARK>>Освещение выглядит реальным. Вот, например, демо ку2 с рейтресингом: S>Простите, а куда смотреть в этой демке? Она пережата так, что я вообще в половине кадров кроме пикселов в полкартинки ничего не вижу.
Это не ray tracing. Это path tracing, что намного хуже. Отсюда и визуальный шум — изображение не успевается сходится полностью.
Здравствуйте, vsb, Вы писали:
ARK>>Визуально изображение становится _гораздо_ реалистичнее. Зеркала это мелочь.
vsb>За счёт чего это достигается? Я в этих демках не увидел ничего гораздо реалистичней традиционных подходов.
Дженсен добавил, что когда вы смотрите на созданные при помощи Turing изображения, на всё предыдущее потом уже смотреть не хочется, настолько они хороши.
C>Это не ray tracing. Это path tracing, что намного хуже.
Не путаеш ? Качество path tracing лучше, т.к. расчет идет назд от источника света к камере вдоль по лучу (сорри за тавтологию, path-у).
C>Отсюда и визуальный шум — изображение не успевается сходится полностью.
Шум потому что шум и плюс потому что монте-карло.
Здравствуйте, eskimo82, Вы писали:
C>>Это не ray tracing. Это path tracing, что намного хуже. E>Не путаеш ? Качество path tracing лучше, т.к. расчет идет назд от источника света к камере вдоль по лучу (сорри за тавтологию, path-у).
а что там путать, там в заголовке видео написано, что это path tracing
Здравствуйте, eskimo82, Вы писали:
C>>Это не ray tracing. Это path tracing, что намного хуже. E>Не путаеш ? Качество path tracing лучше, т.к. расчет идет назд от источника света к камере вдоль по лучу (сорри за тавтологию, path-у).
Я имею в виду, что хуже с вычислительной точки зрения — намного медленнее обычной обратной трассировки лучей. По качеству оно сильно лучше.
Здравствуйте, Cyberax, Вы писали:
C>Я имею в виду, что хуже с вычислительной точки зрения — намного медленнее обычной обратной трассировки лучей. По качеству оно сильно лучше.
лучше , если есть время ждать пока path tracing сойдётся ..
Здравствуйте, elmal, Вы писали:
E>Здравствуйте, xma, Вы писали:
xma>>смотришь на эту демку и понимаешь в каком же мы самом начале впечатляющего будущего :D (особенно под музычку из демки — ваще чётко подобрано) E> Теоретически я надеюсь дожить до нормального VR в массах, при этом надеюсь что зрение у меня к тому моменту будет достаточное чтобы это все заценить.
ИМХО, сомнительно что доживете. Для этого нужен другой человек,
с другим вестибулярным аппаратом. Чтобы, извините, не проблевался, когда зрение
сигнализирует что происходит движение, а вот вестибулярный аппарат ничего такого не чувствует.
Здравствуйте, Zhendos, Вы писали:
Z>с другим вестибулярным аппаратом. Чтобы, извините, не проблевался, когда зрение Z>сигнализирует что происходит движение, а вот вестибулярный аппарат ничего такого не чувствует.
Вестибулярный аппарат тренируется. Причем достаточно быстро адаптируется, это дело нескольких дней.
Здравствуйте, elmal, Вы писали:
E>Здравствуйте, Zhendos, Вы писали:
Z>>с другим вестибулярным аппаратом. Чтобы, извините, не проблевался, когда зрение Z>>сигнализирует что происходит движение, а вот вестибулярный аппарат ничего такого не чувствует. E>Вестибулярный аппарат тренируется. Причем достаточно быстро адаптируется, это дело нескольких дней.
И как это будет работать? Допустим откуда-то найдется массовый потребитель,
который после того как ему стало плохо в VR, будет повторять попытки "поиграть"
несколько дней, а не выбросит это устройство.
И вот он натренировался. Но когда он будет потом в реальной жизни ходить,
бегать прыгать ему станет плохо, потом он опять "натренируется",
и опять станет плохо в VR и так по кругу?
Здравствуйте, Zhendos, Вы писали:
Z>И вот он натренировался. Но когда он будет потом в реальной жизни ходить, Z>бегать прыгать ему станет плохо, потом он опять "натренируется", Z>и опять станет плохо в VR и так по кругу?
Не будет ему плохо. Организм адаптируется так, что нормально будет и в реальной жизни, и в шлеме. Я сужу по авиации. Когда начинал, было реально кабздец. 1 раз реально проблевался (правда не в кабине к счастью, а после ), правда я тогда еще с бодунища додумался. Второй раз до этого не дошло, но зеленый был черти какой. Ибо полный рассинхрон того, что видишь, и того, что ощущаешь, такое, например, при выполнении бочек наблюдается, ну и от штопора тоже весьма веселые ощущения для вестибулярки. Буквально через несколько дней уже все было пофиг, и черти какие болтанки, и пару бочек и петель полупетель перед посадкой. Сейчас меня забавляет, когда новички блюют или почти блюют при болтанке, ну и при простеньком пилотаже. Хотя, сам помню, что на первых порах кабздец был полный.
Здравствуйте, elmal, Вы писали:
E>Здравствуйте, Zhendos, Вы писали:
Z>>И вот он натренировался. Но когда он будет потом в реальной жизни ходить, Z>>бегать прыгать ему станет плохо, потом он опять "натренируется", Z>>и опять станет плохо в VR и так по кругу? E>Не будет ему плохо. Организм адаптируется так, что нормально будет и в реальной жизни, и в шлеме. Я сужу по авиации. Когда начинал, было реально кабздец.
То есть вы летаете через день на реальном самолете и в VR, и у вас нет проблем.
Или вы все-таки только в реальном самолете летаете?
Здравствуйте, Zhendos, Вы писали:
Z>Или вы все-таки только в реальном самолете летаете?
На реальном, и несколько реже, чем хотелось бы. Но я отзывы на шлемы смотрел — говорят что привыкает организм.
Здравствуйте, vsb, Вы писали:
ARK>>Визуально изображение становится _гораздо_ реалистичнее. Зеркала это мелочь.
vsb>За счёт чего это достигается? Я в этих демках не увидел ничего гораздо реалистичней традиционных подходов.
Здравствуйте, xma, Вы писали:
xma>Pascal очень успешен, но с Turing ему не сравниться
Спорное утверждение. продавать будут фпс, а на все эти rt обычному игроку наплевать. Многие просто разницы не видят между старой и новой картинкой. а вот фпс — ОЧЕНЬ важен. Поэтому именно RT — в этом поколении не взлетит. А вот через пару поколений, когда условный 4050 будет рендерить как сейчас rtx 2080ti — тогда может и взлетит.
Здравствуйте, Zhendos, Вы писали:
E>>Вестибулярный аппарат тренируется. Причем достаточно быстро адаптируется, это дело нескольких дней. Z>И как это будет работать? Допустим откуда-то найдется массовый потребитель, Z>который после того как ему стало плохо в VR, будет повторять попытки "поиграть" Z>несколько дней, а не выбросит это устройство. Z>И вот он натренировался. Но когда он будет потом в реальной жизни ходить,
Не будет. Если снять VR-очки, то несколько минут чувствуешь себя странно, но потом всё проходит.
Здравствуйте, Sinclair, Вы писали:
S>Вон, Стивену Кингу хватает 26 букв и десятка знаков препинания, чтобы создать такую атмосферу, что ночью стремаешься воды пойти попить.
Серьезно? Оказывается, какие люди впечатлительные бывают
Тогда наверно лучше не подсказывать тебе ничего по настоящему страшного
Здравствуйте, eskimo82, Вы писали:
S>>Во-во. Давно уже пора инвестировать не в графику, а в ИИ по автогенерации ландшафтов, помещений, сюжетных ходов и отдельных сцен. E>Уже поздно.
Здравствуйте, jamesq, Вы писали:
J>Хотя вот, я б для достижения большей натуральности картинки, копал бы в сторону того, J>как сделать движения разных предметов как можно естественнее.
Если говорить о шутерах, то меня больше всего раздражают три вещи. Ландшафт — всякие там холмы, как правило, в стиле кубизма. Колеса и прочие вещи, которые должны быть круглыми — вместо этого, с углами. И LOD — идея сама по себе неплохая, но стабильно глючит.
Здравствуйте, jamesq, Вы писали:
S>>Во-во. Давно уже пора инвестировать не в графику, а в ИИ по автогенерации ландшафтов, помещений, сюжетных ходов и отдельных сцен.
J>Это мощная затея. Такая задача, думаю даже переплюнет задачу построения Strong AI. J>Тут надо не то что понимать человека, его речь, распознавать изображения, думать как человек и т.п. J>Тут вообще, надо аж уметь творить, как человек. Особенно когда далеко не всякие люди на это способны. J>Может, ты хочешь AI, автогенерирующий на уровне Леонардо да Винчи, Сальвадора Дали, J>Моцарта, Льва Толстого, Микеладжело, Антонио Гауди?
Нет, ничего этого не надо. Большая часть т.н. искусства — это прикладной дизайн.
Великие, на которых вы ссылаетесь, расширяют границы жанров. Да, это необходимая штука. Но сколько зданий построено по проектам Гауди, а сколько — по проектам ГИПРОНИИ?
Более того, стиль Гауди, будучи единожды изобретён, поддаётся освоению. То есть вот у нас раз в сто лет приходит кто-то, кто меняет понятие термина "архитектура".
Ок, пусть через пять лет у нас будет новая версия ИИ, который может решить архитектурную задачу "построить здание такого-то назначения в стиле Гауди, с учётом СанПин, СНИП-ов, местных стилевых гайдлайнов, и ограничений выбранного участка местности".
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, jamesq, Вы писали:
J>Когда лампа освещает белый потолок, и отраженным рассеянным светом освещается остальная часть комнаты. J>Или когда свет, падающий на красную поверхность, освещает всю комнату в этот оттенок.
Решается лайтмепами, АО и т.п.
Рейтрейсинг в обозримом будущем этого тянуть не будет в реалтайме.
J>у всяких монстров/людей была бы естественная мимика, натуральная кожа/волосы,
Тут странный парадокс есть — чем больше стараешься, тем хуже выходит. Если эмоции явно нарисованного чувака (посмотри хотя бы Рика и Морти) читаются и сопереживаются, то попытки сделать их анатомически верно — создаёт иллюзию фальши.
J>натуральная ткань/аммуниция/экипировка. Чтобы, скажем, они естественным образом мялись, J>гнулись, деформировались, рвались. Чтобы еще были бы всякие fluids с натуральным поведением.
Для всяких функциональных тканей есть давно — в принце персии уже всё было, а ткань именно в одежде? Кому она нужна?
J>Прибавлю, что естественности от компьютерной графики я не всегда видел даже в пререндеренных J>фильмах, не то что в реальном времени. Вот скажите, какие подобные сцены вы знаете?
А она не очень нужна.
J>Демка NVIDIA Ray Tracing Demo 2 — хорошая. Материалы мне нравятся.
Ну а по факту это кирпич на шее у нвидии. Отожрали площадь у проца под рт и АТИ показала лучший результат на более эффективных технологиях.
Здравствуйте, Nikе, Вы писали:
J>>Когда лампа освещает белый потолок, и отраженным рассеянным светом освещается остальная часть комнаты. J>>Или когда свет, падающий на красную поверхность, освещает всю комнату в этот оттенок. N>Решается лайтмепами, АО и т.п. N>Рейтрейсинг в обозримом будущем этого тянуть не будет в реалтайме.