Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.
Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).
Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?
И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?
На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.
Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU
В чужих глазах соринки не ищите. Посмотрите на графическую подсистему осей от МС.
win9x — графика в кернелмоде, сделали как шмогли.
NT < 4.0 — графика полностью в юзермоде (как подсистема в csrss.exe) — чтоб надежнее было.
NT >= 4.0 и до XP — графику утоптали в ядру — чтоб быстрее было.
В Висте в WDDM инициировади перенос тяжелой логики видеодрайвера в юзермод — чтоб надежнее было.
Как много веселых ребят, и все делают велосипед...
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Когда занимаешься сексом, делаешь два противоположных действия. И оба они — шаг вперед.
Если серьезно, GPU — это очень специфический процессор, с весьма ограниченным набором команд, но он их делает быстро, и в очень много потоков. Изобретение такого процессора для решения специфических задач было шагом вперед. Засовывание его физически на один кристалл с CPU тоже было шагом вперед.
Насколько я понимаю, при изготовлении чипов с очень регулярной структурой можно затолкать на один кристалл больше всего полезного, чем когда чип имеет "разнообразную структуру". Например, все очень гордятся, сколько транзисторов размещено на чипе процессора, но на чипе памяти их побольше будет, и никто этим особо не гордится. GPU тоже содержит много одинаковых вычислителей, и это позволяет запихнуть больше на кристалл. Совмещение на одном кристалле CPU и GPU означает совмещение двух разных технологий без существенного удорожания производства, и это, определенно, является достижением.
RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.
GPU, в силу своих особенностей, подходит не для всяких вычислений, в отличии от менее специализированного CPU, который универсален, но на некоторых задачах сильно проигрывает GPU.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Всем привет. RBE>Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.
Я тебе больше скажу — не удивлюсь, если вскоре оперативку тоже интегрируют в проц (с помощью 3D IC, или PoP — не суть). Потому что сейчас самый большой ограничитель роста скорости RAM — это соединительные линии от контроллера памяти к модулям памяти. Собственно в embedded такие штуки уже начали появляться (к примеру ATSAMA5D27C-D1G), а в мобилках такое уже давно используют.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.
RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).
RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?
Разделение не является. Разным людям нужны разные GPU. Кто-то печатает в Word и ему хватит встроенного GPU за 10 долларов. Кто-то играет в игры и ему нужен топовый GPU за 1000 долларов. Практика показала, что эти устройства достаточно автономные и размещение их на одном кристалле не является необходимым.
Про смысл APU в википедии тоже написано. Кому-то это важно, кому-то нет.
RBE>И при разделении, и при объединении электронщики нам без стыда и совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Разным пользователям нужны разные компьютеры с разной архитектурой. Это нормально.
RBE>Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?
CPU и GPU имеют принципиально разные архитектуры и объединить их невозможно, разве что просто печатать на одном кристалле рядом, но смысла большого в этом нет, если нужно выжимать максимум из аппаратуры.
RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.
Пока никаких обоснований для такого мнения я не вижу. GPU сегодня это процессор общего назначения со специфической архитектурой. Он хорошо справляется с обработкой графики, но это не единственная его задача.
RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
Если он на этом заработает миллион, значит всё правильно сделал.
vsb>CPU и GPU имеют принципиально разные архитектуры и объединить их невозможно, разве что просто печатать на одном кристалле рядом, но смысла большого в этом нет, если нужно выжимать максимум из аппаратуры.
Преимущества[править | править вики-текст]
Упрощает устройство компьютера, снижает количество возможных мест отказа.
Видеочип и процессор находятся под единым кулером; это даёт более мощное видео (по сравнению со встроенным в материнскую плату) и снижает шум в простое (по сравнению с дискретной видеоплатой).
Система может использовать в качестве видеопамяти оперативную память.
Особенно эти преимущества важны в ноутбуках и недорогих «офисных» компьютерах.
Недостатки[править | править вики-текст]
Чтобы вписаться в заявленное тепловыделение, некоторые APU при активном использовании встроенного видео снижают частоту процессора общего назначения.
В видеокартах высокого класса для настольных ПК технологии памяти на год-полтора опережают таковые на материнских платах. Поэтому применение APU на геймерских компьютерах неэффективно (хотя всегда остается возможность использования и «внешней» продвинутой видеокарты).[источник не указан
и солнце б утром не вставало, когда бы не было меня
RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
А это смотря сколько ножей нужно заточить одновременно. Если один — то удобней использовать точило, а если сотню — то вон ту нелепую конструкцию что ты описал.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.
Не могли впухнуть в один чип.
RBE>Ситуация такая же и с математическими сопроцессорами. К CPU Intel 80286 выпускался математический сопроцессор Intel 80287 (он у меня ещё даже остался с начала 1990-х). Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU
Разве разделяли? Вроде карты изначально шли отдельным устройством.
Объединять не начали. Начали паковать вместе, при этом GPU там скромный.
RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?
Все логично кмк.
RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Может не им?
RBE>Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?
Не является.
RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом. RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
Ложные аналогии — демагогия.
Лучше объясни, почему бы и нет. Я в твоем посте не увидел этого.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).
Вы сравниваете тёплое с мягким. Совершенно разные ниши. Что по пропускной способности, что по вычислительной мощности не говоря уже о тепловыделении.
RBE>Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?
Так что конкретно не устраивает? Есть Xeon Phi — http://www.nvidia.com/object/justthefacts.html
RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.
Данный метод позволяет достичь в некоторых задачах ускорения на несколько порядков. flops/cycle
RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
А что бы вы сказали про человека который покупает на алиэкспресе всяких хлам и снимает про это видео?
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?
Дык, противоречие существует не в голове инженеров, оно объективно существующее, из-за разного характера задач общего направления vs обсчета точек графических 2D/3D объектов или сэмплов аудио. Отсюда разная архитектура вычислительных блоков и разная система команд. Ведь существуют не только графические сопроцессоры, embedded audio тоже регулярно перемещают из южного моста в один чип с ЦПУ. Вернее, весь северный и южный мост.
RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем.
Так и есть. Как встроенный, так и отдельный графический модуль имеют свои как достоинства, так и недостатки. Тебе их перечислять или сам справишься? Напомню, что в последние лет 5 в мобильном сегменте популярной является компромиссная схема — когда и в центральном проце есть графический модуль и отдельный более мощный тоже присутствует, но используется лишь при надобности.
RBE>Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Любое наведение порядка с т.з. инженерии — это сбор и анализ требований. Очевидно, что ты этот этап пропустил, чем и породил вот этот бардак в собственной голове.
Вот за такую точку зрения должно быть банально стыдно:
использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика
Здравствуйте, vdimas, Вы писали:
V>Напомню, что в последние лет 5 в мобильном сегменте популярной является компромиссная схема — когда и в центральном проце есть графический модуль и отдельный более мощный тоже присутствует, но используется лишь при надобности.
Вот этого я вообще не понимаю. Если топовый Intel как-то может быть энергоэффективным в ноутбуке, что мешает быть мощной NVidia энергоэффективной, когда не запущены игры? Давайте ещё и процессоров пару штук ставить, один какой-нибудь Atom, второй Core i7. Кстати в мобильных телефонах в последнее время похоже так и делают. Но я всё равно этого не понимаю. Такое усложнение на всех уровнях.
S>Преимущества[править | править вики-текст]
S>Упрощает устройство компьютера, снижает количество возможных мест отказа.
S>Видеочип и процессор находятся под единым кулером; это даёт более мощное видео (по сравнению со встроенным в материнскую плату) и снижает шум в простое (по сравнению с дискретной видеоплатой).
S>Система может использовать в качестве видеопамяти оперативную память.
S>Особенно эти преимущества важны в ноутбуках и недорогих «офисных» компьютерах.
А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.
Ситуация такая же и с математическими сопроцессорами. К CPU Intel 80286 выпускался математический сопроцессор Intel 80287 (он у меня ещё даже остался с начала 1990-х). Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.
RBE>А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.
RBE>Ситуация такая же и с математическими сопроцессорами. К CPU Intel 80286 выпускался математический сопроцессор Intel 80287 (он у меня ещё даже остался с начала 1990-х). Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.
Ну вот консоли XBOX One и PS4 на APU. Проблема думаю в техпроцессе и тепловыделении. Плюс память для GPU не совсем подходила для оперативки. PlayStation 4
Первоначальные модели консоли использовали шестнадцать микросхем.
8Гб GDDR5 (256-разрядной GDDR5 (рабочая частота 5,5 ГГц) с пропускной способностью 176 Гб/с)[174].
Новая версия Sony PlayStation 4, анонсированная летом 2015 года, использует более плотные микросхемы памяти типа GDDR5, которые позволяют набрать искомый объём 8 ГБ всего восемью микросхемами вместо прежних шестнадцати. Кроме того, их напряжение питания снижено с 1.5 до 1.35 В, и это непосредственным образом влияет на уровень энергопотребления. Размеры материнской платы также удалось уменьшить в одном из направлений на 60 мм.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Всем привет.
RBE>Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.
RBE>[list=1] RBE>RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).
RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?
не является. Т.к. с годами эти устройства — развиваются, и приобретают разные функции. В зависимости от развития — в данный момент времени их выгодно развести или наоборот собрать вместе. Скажем, техпроцесс плохой, много транзисторов в один кристалл не засунешь — а GPU уже можно сложным схематически сделать — лучше развести на два кристалла. Потом техпроцесс стал лучше, плюс в GPU появились вычисления программируемые (шейдеры на языках программирования) а не фиксированные как раньше — уже можно частично в один кристалл собрать — т.к. на определенном классе задач от этого будет выигрыш.
RBE>А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.
потому что в те времена GPU не был универсальным вычислительным устройством (была фиксированная логика, из серии закрась треугольник, а не как сейчас — исполнение программ на шейдерах), и был — сложным устройством. поэтому, с одной стороны — его не было никакого смысла держать в процессоре — т.к. узкоспециализированное устройство с фиксированной логикой, никак не относящейся к универсальным вычислениям как CPU, плюс чтобы вместе собрать все — два в одном не влезали в доступный технологически транзисторный бюджет. Маркетологи тут десятое дело. И все весьма продуманно.
RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
Почему нет? У стиральных машин всегда стабильные версии, поддержка, большое комьюнити.
Здравствуйте, RBujfEOHIY, Вы писали:
RBE>Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.
Потому что процессор с FPU стоил бы тогда +XXX% денег. (ХХХ — существенное число). А нужен этот FPU далеко не всем.
Здравствуйте, andrey.desman, Вы писали:
AD>Разве разделяли? Вроде карты изначально шли отдельным устройством.
Не всегда. А когда шли, это был RAMDAC плюс память, без всяких мозгов. Потом добавили логики, научив ее рисовать линии и копировать/заливать участки изображения, и понеслось.
Переубедить Вас, к сожалению, мне не удастся, поэтому сразу перейду к оскорблениям.
RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).
Это нормально. Через некоторое время опять разделят.
RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Это развитие. Вот пример из моей области. Лет сорок была одна обобщенная модель, двадцать лет назад ее декомпозировали на три отдельных, пять лет две из них слили в обобщенную, в планах слить третью, а потом опять разделим. Это эволюция, это нормально, не пугайтесь, все хорошо .
Ops:
AD>>Разве разделяли? Вроде карты изначально шли отдельным устройством. Ops>Не всегда. А когда шли, это был RAMDAC плюс память, без всяких мозгов. Потом добавили логики, научив ее рисовать линии и копировать/заливать участки изображения, и понеслось.
Вот этот RAMDAC со своей памятью и был отдельным устройством. Обычно отдельной платой расширения, но бывало и на материнке.
Хочешь — бери обычный VGA, хочешь — более дорогой SuperVGA с большим разрешением.
Ну и не согласен, что совсем без мозгов. Плата могла генерировать прерывания (кадровые и по-моему даже строчные).
Plug-n-Play потом всякий пошел...
RBujfEOHIY:
RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?
Ну вот я застал времена, когда плавающая точка делелесь на отдельном чипе (x87).
Почему так делали? При тех технологиях, интегрированный сопроцессор отнимал заметную часть стоимости, но был нужен далеко не всем.
Потом, начиная с 487, их начали интегрировать в основной процессор, ибо их доля в стоимости процессора стала приемлемая.
Плюс, появилось большое число задач, требующих x87.
Здравствуйте, Дрободан Фрилич, Вы писали:
ДФ>Вот этот RAMDAC со своей памятью и был отдельным устройством. Обычно отдельной платой расширения, но бывало и на материнке. ДФ>Хочешь — бери обычный VGA, хочешь — более дорогой SuperVGA с большим разрешением.
Он не занимался никаким обсчетом. Это была просто память, что туда запишешь — то и нарисует.
ДФ>Ну и не согласен, что совсем без мозгов. Плата могла генерировать прерывания (кадровые и по-моему даже строчные).
Это делается одним-двумя транзисторами, если генератор развертки уже есть. Придавил к 0 линию — вот и прерывание.
ДФ>Plug-n-Play потом всякий пошел...
Именно потом. Но даже PNP — это еще не та логика. Она началась именно с рисования средствами видеоадаптера, когда ЦП не надо было считать каждую точку в линии.
Переубедить Вас, к сожалению, мне не удастся, поэтому сразу перейду к оскорблениям.
Ops:
ДФ>>Вот этот RAMDAC со своей памятью и был отдельным устройством. Ops>Он не занимался никаким обсчетом. Это была просто память, что туда запишешь — то и нарисует.
А я и не писал про обсчет.
ДФ>>Ну и не согласен, что совсем без мозгов. Плата могла генерировать прерывания (кадровые и по-моему даже строчные). Ops>Это делается одним-двумя транзисторами, если генератор развертки уже есть. Придавил к 0 линию — вот и прерывание.
Упрощаешь. Посмотри описание регистров VGA, например.
На рассыпухе такое не сделаешь...
А текстовый режим со знакогенератором? Он еще в CGA и EGA был
(то есть таки занимался обсчетом, хотя тоже довольно простым).
В общем неважно, считать контроллер тогдашней видюхи процессором или нет.
Главное — был смысл сделать ее отдельным модулем, хотя бы для возможности апгрейда/даунгрейда.
Здравствуйте, Дрободан Фрилич, Вы писали:
ДФ>Упрощаешь. Посмотри описание регистров VGA, например.
Так ты сам завел про прерывания — а их реализация проста и логична. ДФ>На рассыпухе такое не сделаешь...
Теоретически — можно и на рассыпухе. Но увеличивая интеграцию ты еще не создаешь процессор, память как пример. ДФ>А текстовый режим со знакогенератором? Он еще в CGA и EGA был ДФ>(то есть таки занимался обсчетом, хотя тоже довольно простым).
Точно обсчетом, а не коммутацией? Табличное решение очень даже напрашивается, а если с таймингами нет проблем, то можно и без буфера для графического представления.
Переубедить Вас, к сожалению, мне не удастся, поэтому сразу перейду к оскорблениям.
Ops:
Ops>Теоретически — можно и на рассыпухе. Но увеличивая интеграцию ты еще не создаешь процессор, память как пример.
Хорошо, пусть не процессор, только не волнуйся.