Нормальность CPU+GPU → APU
От: RBujfEOHIY Чехия  
Дата: 22.10.17 20:21
Оценка: 1 (1) -1 :))) :))) :)
Всем привет.

Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.

  1. Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).

    Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?

    И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?

  2. Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?

    На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.

    Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
cpu gpu apu
Re: Нормальность CPU+GPU → APU
От: andrey.desman  
Дата: 22.10.17 20:35
Оценка:
Здравствуйте, RBujfEOHIY, Вы писали:

RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU


Разве разделяли? Вроде карты изначально шли отдельным устройством.
Объединять не начали. Начали паковать вместе, при этом GPU там скромный.

RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?


Все логично кмк.

RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?


Может не им?

RBE>Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?


Не является.

RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.

RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?

Ложные аналогии — демагогия.
Лучше объясни, почему бы и нет. Я в твоем посте не увидел этого.
Re: Нормальность CPU+GPU → APU
От: Pzz Россия https://github.com/alexpevzner
Дата: 22.10.17 20:41
Оценка: 1 (1) +1
Здравствуйте, RBujfEOHIY, Вы писали:

RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?


Когда занимаешься сексом, делаешь два противоположных действия. И оба они — шаг вперед.

Если серьезно, GPU — это очень специфический процессор, с весьма ограниченным набором команд, но он их делает быстро, и в очень много потоков. Изобретение такого процессора для решения специфических задач было шагом вперед. Засовывание его физически на один кристалл с CPU тоже было шагом вперед.

Насколько я понимаю, при изготовлении чипов с очень регулярной структурой можно затолкать на один кристалл больше всего полезного, чем когда чип имеет "разнообразную структуру". Например, все очень гордятся, сколько транзисторов размещено на чипе процессора, но на чипе памяти их побольше будет, и никто этим особо не гордится. GPU тоже содержит много одинаковых вычислителей, и это позволяет запихнуть больше на кристалл. Совмещение на одном кристалле CPU и GPU означает совмещение двух разных технологий без существенного удорожания производства, и это, определенно, является достижением.

RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.


GPU, в силу своих особенностей, подходит не для всяких вычислений, в отличии от менее специализированного CPU, который универсален, но на некоторых задачах сильно проигрывает GPU.
Re: Нормальность CPU+GPU → APU
От: Muxa  
Дата: 22.10.17 22:37
Оценка: +1
RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?

А это смотря сколько ножей нужно заточить одновременно. Если один — то удобней использовать точило, а если сотню — то вон ту нелепую конструкцию что ты описал.
Re: Нормальность CPU+GPU → APU
От: kov_serg Россия  
Дата: 23.10.17 00:49
Оценка:
Здравствуйте, RBujfEOHIY, Вы писали:

RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).

Вы сравниваете тёплое с мягким. Совершенно разные ниши. Что по пропускной способности, что по вычислительной мощности не говоря уже о тепловыделении.

RBE>Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?

Так что конкретно не устраивает? Есть Xeon Phi — http://www.nvidia.com/object/justthefacts.html

RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.

Данный метод позволяет достичь в некоторых задачах ускорения на несколько порядков. flops/cycle

RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?

А что бы вы сказали про человека который покупает на алиэкспресе всяких хлам и снимает про это видео?
Re: Нормальность CPU+GPU → APU
От: ononim  
Дата: 23.10.17 01:17
Оценка: 2 (2) +1
RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU
В чужих глазах соринки не ищите. Посмотрите на графическую подсистему осей от МС.
win9x — графика в кернелмоде, сделали как шмогли.
NT < 4.0 — графика полностью в юзермоде (как подсистема в csrss.exe) — чтоб надежнее было.
NT >= 4.0 и до XP — графику утоптали в ядру — чтоб быстрее было.
В Висте в WDDM инициировади перенос тяжелой логики видеодрайвера в юзермод — чтоб надежнее было.
Как много веселых ребят, и все делают велосипед...
Re: Нормальность CPU+GPU → APU
От: vsb Казахстан  
Дата: 23.10.17 06:59
Оценка: 1 (1)
Здравствуйте, RBujfEOHIY, Вы писали:

RBE>Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.


RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).


RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?


Разделение не является. Разным людям нужны разные GPU. Кто-то печатает в Word и ему хватит встроенного GPU за 10 долларов. Кто-то играет в игры и ему нужен топовый GPU за 1000 долларов. Практика показала, что эти устройства достаточно автономные и размещение их на одном кристалле не является необходимым.

Про смысл APU в википедии тоже написано. Кому-то это важно, кому-то нет.

RBE>И при разделении, и при объединении электронщики нам без стыда и совести твердили, что это шаг вперёд в развитии технологии микросхем. Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?


Разным пользователям нужны разные компьютеры с разной архитектурой. Это нормально.

RBE>Не является ли это ненормальным переводить обычные вычисления на GPU (https://ru.wikipedia.org/wiki/GPGPU)? И даже теорий под это понапридумывали. Если кому-то не хватает каких-либо команд в CPU, так, может, прямым путём надо было идти (запросить у производителей внедрить нужные команды/технологии в CPU), а не идти обходным путём (использование GPU)?


CPU и GPU имеют принципиально разные архитектуры и объединить их невозможно, разве что просто печатать на одном кристалле рядом, но смысла большого в этом нет, если нужно выжимать максимум из аппаратуры.

RBE>На мой взгляд, использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика, стиральную машину в качестве точила. Это просто какое-то техноизвращение. Но они так не считают, а наоборот, считают это правильным подходом.


Пока никаких обоснований для такого мнения я не вижу. GPU сегодня это процессор общего назначения со специфической архитектурой. Он хорошо справляется с обработкой графики, но это не единственная его задача.

RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?


Если он на этом заработает миллион, значит всё правильно сделал.
Re: Нормальность CPU+GPU → APU
От: vdimas Россия  
Дата: 23.10.17 08:22
Оценка:
Здравствуйте, RBujfEOHIY, Вы писали:

RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?


Дык, противоречие существует не в голове инженеров, оно объективно существующее, из-за разного характера задач общего направления vs обсчета точек графических 2D/3D объектов или сэмплов аудио. Отсюда разная архитектура вычислительных блоков и разная система команд. Ведь существуют не только графические сопроцессоры, embedded audio тоже регулярно перемещают из южного моста в один чип с ЦПУ. Вернее, весь северный и южный мост.


RBE>И при разделении, и при объединении электронщики нам без стыда и зазрений совести твердили, что это шаг вперёд в развитии технологии микросхем.


Так и есть. Как встроенный, так и отдельный графический модуль имеют свои как достоинства, так и недостатки. Тебе их перечислять или сам справишься? Напомню, что в последние лет 5 в мобильном сегменте популярной является компромиссная схема — когда и в центральном проце есть графический модуль и отдельный более мощный тоже присутствует, но используется лишь при надобности.


RBE>Что это такое? Противоположные действия, и при этом оба действия — шаг вперёд. Может, им нужно в себе разобраться и порядок в мыслях, голове навести?


Любое наведение порядка с т.з. инженерии — это сбор и анализ требований. Очевидно, что ты этот этап пропустил, чем и породил вот этот бардак в собственной голове.

Вот за такую точку зрения должно быть банально стыдно:

использование GPU для обычных вычислений — это тоже самое, что использовать термос в качестве фонарика

Re[2]: Нормальность CPU+GPU → APU
От: Serginio1 СССР https://habrahabr.ru/users/serginio1/topics/
Дата: 23.10.17 09:51
Оценка: 1 (1)
Здравствуйте, vsb, Вы писали:


vsb>CPU и GPU имеют принципиально разные архитектуры и объединить их невозможно, разве что просто печатать на одном кристалле рядом, но смысла большого в этом нет, если нужно выжимать максимум из аппаратуры.


APU

Преимущества[править | править вики-текст]
Упрощает устройство компьютера, снижает количество возможных мест отказа.
Видеочип и процессор находятся под единым кулером; это даёт более мощное видео (по сравнению со встроенным в материнскую плату) и снижает шум в простое (по сравнению с дискретной видеоплатой).
Система может использовать в качестве видеопамяти оперативную память.
Особенно эти преимущества важны в ноутбуках и недорогих «офисных» компьютерах.
Недостатки[править | править вики-текст]
Чтобы вписаться в заявленное тепловыделение, некоторые APU при активном использовании встроенного видео снижают частоту процессора общего назначения.
В видеокартах высокого класса для настольных ПК технологии памяти на год-полтора опережают таковые на материнских платах. Поэтому применение APU на геймерских компьютерах неэффективно (хотя всегда остается возможность использования и «внешней» продвинутой видеокарты).[источник не указан

и солнце б утром не вставало, когда бы не было меня
Re[2]: Нормальность CPU+GPU → APU
От: vsb Казахстан  
Дата: 23.10.17 11:09
Оценка:
Здравствуйте, vdimas, Вы писали:

V>Напомню, что в последние лет 5 в мобильном сегменте популярной является компромиссная схема — когда и в центральном проце есть графический модуль и отдельный более мощный тоже присутствует, но используется лишь при надобности.


Вот этого я вообще не понимаю. Если топовый Intel как-то может быть энергоэффективным в ноутбуке, что мешает быть мощной NVidia энергоэффективной, когда не запущены игры? Давайте ещё и процессоров пару штук ставить, один какой-нибудь Atom, второй Core i7. Кстати в мобильных телефонах в последнее время похоже так и делают. Но я всё равно этого не понимаю. Такое усложнение на всех уровнях.
Отредактировано 23.10.2017 11:10 vsb . Предыдущая версия .
Re[3]: Нормальность CPU+GPU → APU
От: vdimas Россия  
Дата: 23.10.17 12:03
Оценка:
Здравствуйте, vsb, Вы писали:

vsb>Давайте ещё и процессоров пару штук ставить, один какой-нибудь Atom, второй Core i7.


Дык, так оно и есть.
В среднестатистическом т.н. 8-миядерном ARM-е присутствует одно маломощное ядро, три среднемощных и четыре самых мощных.
Re[3]: Нормальность CPU+GPU → APU
От: RBujfEOHIY Чехия  
Дата: 23.10.17 12:12
Оценка:
Здравствуйте, Serginio1, Вы писали:


S>

S>Преимущества[править | править вики-текст]
S>Упрощает устройство компьютера, снижает количество возможных мест отказа.
S>Видеочип и процессор находятся под единым кулером; это даёт более мощное видео (по сравнению со встроенным в материнскую плату) и снижает шум в простое (по сравнению с дискретной видеоплатой).
S>Система может использовать в качестве видеопамяти оперативную память.
S>Особенно эти преимущества важны в ноутбуках и недорогих «офисных» компьютерах.


А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.

Ситуация такая же и с математическими сопроцессорами. К CPU Intel 80286 выпускался математический сопроцессор Intel 80287 (он у меня ещё даже остался с начала 1990-х). Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.
Отредактировано 23.10.2017 12:14 RBujfEOHIY . Предыдущая версия .
Re[4]: Нормальность CPU+GPU → APU
От: Serginio1 СССР https://habrahabr.ru/users/serginio1/topics/
Дата: 23.10.17 12:22
Оценка:
Здравствуйте, RBujfEOHIY, Вы писали:



RBE>А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.


RBE>Ситуация такая же и с математическими сопроцессорами. К CPU Intel 80286 выпускался математический сопроцессор Intel 80287 (он у меня ещё даже остался с начала 1990-х). Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.


Ну вот консоли XBOX One и PS4 на APU. Проблема думаю в техпроцессе и тепловыделении. Плюс память для GPU не совсем подходила для оперативки.
PlayStation 4

Первоначальные модели консоли использовали шестнадцать микросхем.
8Гб GDDR5 (256-разрядной GDDR5 (рабочая частота 5,5 ГГц) с пропускной способностью 176 Гб/с)[174].
Новая версия Sony PlayStation 4, анонсированная летом 2015 года, использует более плотные микросхемы памяти типа GDDR5, которые позволяют набрать искомый объём 8 ГБ всего восемью микросхемами вместо прежних шестнадцати. Кроме того, их напряжение питания снижено с 1.5 до 1.35 В, и это непосредственным образом влияет на уровень энергопотребления. Размеры материнской платы также удалось уменьшить в одном из направлений на 60 мм.


http://www.amd.com/ru/technologies/hbm
и солнце б утром не вставало, когда бы не было меня
Отредактировано 23.10.2017 12:24 Serginio1 . Предыдущая версия .
Re: Нормальность CPU+GPU → APU
От: Grizzli  
Дата: 23.10.17 12:37
Оценка:
Здравствуйте, RBujfEOHIY, Вы писали:

RBE>Всем привет.


RBE>Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.


RBE>[list=1]

RBE>

  • RBE>Не является ли это какой-то психической патологией у электронщиков (возможно, на базе маркетинговых извращений), что когда-то разделили процессоры — центральный (CPU) и графический (GPU), а потом они начали объединять эти процессоры (APU (https://ru.wikipedia.org/wiki/Accelerated_Processing_Unit)).

    RBE>Они что, определиться не могут? Сами не знают, чего хотят? Сами не замечают в себе противоположные действия и мысли?


    не является. Т.к. с годами эти устройства — развиваются, и приобретают разные функции. В зависимости от развития — в данный момент времени их выгодно развести или наоборот собрать вместе. Скажем, техпроцесс плохой, много транзисторов в один кристалл не засунешь — а GPU уже можно сложным схематически сделать — лучше развести на два кристалла. Потом техпроцесс стал лучше, плюс в GPU появились вычисления программируемые (шейдеры на языках программирования) а не фиксированные как раньше — уже можно частично в один кристалл собрать — т.к. на определенном классе задач от этого будет выигрыш.

    В общем, все развивается, все изменчиво.
    Re[4]: Нормальность CPU+GPU → APU
    От: Grizzli  
    Дата: 23.10.17 12:40
    Оценка:
    Здравствуйте, RBujfEOHIY, Вы писали:


    RBE>А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.


    потому что в те времена GPU не был универсальным вычислительным устройством (была фиксированная логика, из серии закрась треугольник, а не как сейчас — исполнение программ на шейдерах), и был — сложным устройством. поэтому, с одной стороны — его не было никакого смысла держать в процессоре — т.к. узкоспециализированное устройство с фиксированной логикой, никак не относящейся к универсальным вычислениям как CPU, плюс чтобы вместе собрать все — два в одном не влезали в доступный технологически транзисторный бюджет. Маркетологи тут десятое дело. И все весьма продуманно.
    Re[4]: Нормальность CPU+GPU → APU
    От: Pzz Россия https://github.com/alexpevzner
    Дата: 23.10.17 12:45
    Оценка: +1
    Здравствуйте, RBujfEOHIY, Вы писали:

    RBE>А они что, раньше (в 1980-е, когда появились GPU) этих преимуществ не видели? Зачем в те времена начали делать отдельный GPU? Надо было в CPU графические возможности развивать, если столько преимуществ имеется в APU. Об этом я и веду речь: ненормальность электронщиков (под влиянием маркетологов), поспешность и непродуманность принимаемых решений.


    Не могли впухнуть в один чип.

    RBE>Ситуация такая же и с математическими сопроцессорами. К CPU Intel 80286 выпускался математический сопроцессор Intel 80287 (он у меня ещё даже остался с начала 1990-х). Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.


    Не могли впухнуть в один чип.
    Re: Нормальность CPU+GPU → APU
    От: TimurSPB Интернет  
    Дата: 23.10.17 14:10
    Оценка:
    RBE>Что бы вы сказали про человека, который для затачивания ножей не точило купил, а приделал абразивный круг к барабану стиральной машины, и точил ножи на этой конструкции, и при этом понапридумывал себе теорий, что это правильный путь, и сам поверил в эти свои теории?
    Почему нет? У стиральных машин всегда стабильные версии, поддержка, большое комьюнити.
    Make flame.politics Great Again!
    Re[4]: Нормальность CPU+GPU → APU
    От: IID Россия  
    Дата: 23.10.17 15:08
    Оценка:
    Здравствуйте, RBujfEOHIY, Вы писали:

    RBE>Потом одумались: внедрили в CPU математические инструкции, математические сопроцессоры исчезли. И зачем было трепыхаться? Не могли они сразу в 80286 внедрить математиские инструкции и получить все описанные выше преимущества? Ведут себя непоследовательно и непродуманно.


    Потому что процессор с FPU стоил бы тогда +XXX% денег. (ХХХ — существенное число). А нужен этот FPU далеко не всем.
    kalsarikännit
    Re: Нормальность CPU+GPU → APU
    От: koandrew Канада http://thingselectronic.blogspot.ca/
    Дата: 23.10.17 15:40
    Оценка: 1 (1) +1
    Здравствуйте, RBujfEOHIY, Вы писали:

    RBE>Всем привет.

    RBE>Хочется поделиться мыслями и узнать мнение публики по 2-м вопросам.

    Я тебе больше скажу — не удивлюсь, если вскоре оперативку тоже интегрируют в проц (с помощью 3D IC, или PoP — не суть). Потому что сейчас самый большой ограничитель роста скорости RAM — это соединительные линии от контроллера памяти к модулям памяти. Собственно в embedded такие штуки уже начали появляться (к примеру ATSAMA5D27C-D1G), а в мобилках такое уже давно используют.
    [КУ] оккупировала армия.
    Отредактировано 24.10.2017 15:29 koandrew . Предыдущая версия .
    Re[5]: Нормальность CPU+GPU → APU
    От: marcopolo Россия  
    Дата: 23.10.17 15:53
    Оценка:
    Здравствуйте, IID, Вы писали:

    IID>Потому что процессор с FPU стоил бы тогда +XXX% денег. (ХХХ — существенное число). А нужен этот FPU далеко не всем.


    В те времена был эмулятор FPU.
    Подождите ...
    Wait...
    Пока на собственное сообщение не было ответов, его можно удалить.