С чего начинались процессоры, без которых мы теперь не представляем свою жизнь?
Графический процессор, известный сегодня как GPU, начинал вовсе не как опора суперкомпьютеров или движок генеративного ИИ. Его история стартовала в игровом автомате Galaxian от Namco, впервые показанном в 1979 году. Плата внутри этой аркадной машины впервые доказала: специализированные микросхемы, созданные исключительно ради изображения, могут рисовать больше цветов, анимировать больше объектов и зарабатывать больше монет, чем любой универсальный компьютер того времени. Это стало первым толчком к зарождению отдельного класса аппаратуры, способной обрабатывать визуальные задачи независимо от центрального процессора.
Именно это стремление к более плавному, яркому и массовому визуальному опыту со временем превратилось в четыре масштабных технологических сдвига: домашние игры, научные вычисления, криптовалютный бум и, наконец, эра генеративного ИИ. Проследив этот путь, можно увидеть, как чип, созданный ради развлечений, шаг за шагом стал основой дата-центров и в перспективе может лечь в архитектуру роботов-гуманоидов и автономных транспортных систем.
Первый скачок начался в аркадах, где Galaxian генерировал изображение 62×128 пикселей, обрабатывая задники и спрайты без участия основного процессора. Именно независимость от CPU позволила разработать схему, заточенную исключительно под графику. Идея оказалась коммерчески успешной: автомат стал хитом в Японии и США, подтолкнув Namco к созданию ещё более популярной Galaga. Это убедило индустрию в том, что отдельная графическая электроника — не излишество, а конкурентное преимущество.
Параллельно с бурным ростом аркад развивались и домашние игровые устройства. Atari 2600 использовала элемент под названием Television Interface Adapter, совмещавший видеовывод, звук и работу с контроллерами. Это был примитивный, но уже «встроенный» графический модуль. С другой стороны, военные проекты уровня Evans & Sutherland CT5 на базе мини-компьютеров DEC PDP‑11 стоили десятки миллионов долларов, доказывая, насколько дороги были реалистичные визуализации при нехватке доступного железа.
Nintendo сделала ставку на софт и маркетинг. В её 8-битной Famicom (вышедшей как NES в 1985 году) не было мощной графики, но были хитроумные игровые приёмы. А настоящие визуальные инновации пришли в 1990-х с Super Nintendo: 16-битным процессором, дополнительными ускорителями (вроде Super FX) и псевдотрёхмерной проекцией Mode 7, позволившей, например, трассам в Mario Kart выглядеть объёмно. Тем не менее, аркады всё ещё опережали домашние устройства: в 1984 году Atari представила автомат I, Robot, впервые использовавший полноценную 3D-графику.
Революция 3D в домашних ПК произошла с выходом карты Voodoo 1 от 3dfx в 1996 году. В отличие от других решений, она не замещала основную видеокарту, а активировалась только в режиме 3D. Правильно настроенная, она позволяла запускать Quake с частотой 40 кадров в секунду при разрешении 512×384 — небывалое на тот момент достижение. Конкуренты, включая ATI с 3D Rage Pro, спешили нагнать и предлагали первые приёмы сглаживания краёв.
Настоящим водоразделом стал анонс Для просмотра ссылки Войдиили Зарегистрируйся 256 в 1999 году — впервые прозвучал сам термин «graphics processing unit». Этот чип впервые объединил трансформации, освещение, растеризацию и шейдинг в одном устройстве, полностью сняв зависимость от CPU в графических расчётах. Это дало ПК возможность выводить полноценное 32-битное изображение в разрешениях, которые прежде были доступны только аркадным автоматам. Деморолики Quake III на фоне GeForce выглядели как смена эпохи — с чёткой картинкой и стабильным фреймрейтом.
В 2000-х началась борьба за архитектурное превосходство. В то время как NVIDIA доминировала на рынке ПК, ATI добилась решающего успеха в консолях. Для просмотра ссылки Войдиили Зарегистрируйся в 2005 году получил графический чип Xenos, первый массовый GPU с унифицированной шейдерной архитектурой. Это означало, что ядра могли выполнять любые задачи — не только работу с вершинами, но и пиксельные вычисления — что резко повысило эффективность и частоту кадров. Именно такой подход стал стандартом в последующих поколениях видеокарт.
По мере усложнения игровых миров разработчики наращивали количество ядер и пропускную способность памяти, чтобы поддерживать динамическое освещение, физику и реалистичные текстуры. В этот момент учёные заметили: если видеокарта умеет отслеживать миллионы лучей, она может с такой же эффективностью решать задачи из области моделирования молекул, атмосферы, медицины и квантовой физики. С внедрением OpenCL появилась возможность объединять CPU и GPU в один вычислительный ресурс — так зародилась эпоха GPGPU, или универсальных вычислений на видеокартах.
Следующий всплеск вызвала криптовалюта. Для майнинга требовалась огромная параллельная мощность, и GPU оказались идеальным инструментом: они решали криптографические задачи в разы быстрее процессоров. С ростом стоимости Ethereum и Bitcoin в 2017 году видеокарты исчезли с прилавков, а цены взлетели. Пандемия и дефицит полупроводников лишь усугубили ситуацию. Скальперы скупали всё, магазины вводили лимиты, а попытки NVIDIA ограничить Для просмотра ссылки Войдиили Зарегистрируйся оказались неэффективными. Только переход Ethereum на модель proof-of-stake снял нагрузку с потребительского рынка.
Тем временем NVIDIA делала ставку на нейросети. Архитектура Volta 2017 года представила тензорные ядра — блоки, оптимизированные под матричные вычисления, необходимые для обучения ИИ. Первые платы GV100 заняли нишу, но уже серия Tesla для дата-центров стала хитом. Позднее тензорные блоки появились и в потребительских GPU на архитектуре Turing, где также дебютировали RT-ядра — ускорители трассировки лучей в реальном времени. Всё это легло в основу DLSS — технологии, позволяющей выводить 4K-картинку при рендеринге в более низком разрешении.
Широкая публика ощутила силу GPU в 2022 году, когда вышел GPT-3 с интерфейсом ChatGPT. Его обучение потребовало тысяч видеокарт, объединённых через шину NVLink, способную передавать до 900 ГБ/с. В 2024 финансовом году доход NVIDIA от дата-центров достиг $18,4 млрд — рост более чем на 400% год к году. GPU H100 предоставил свыше 3 ТБ/с пропускной способности памяти и возможность разделять себя на несколько независимых экземпляров для параллельной работы.
На CES 2025 компания представила архитектуру Blackwell с удвоенной производительностью и пониженным энергопотреблением, нацеленной на обучение больших языковых моделей и управление роботами. NVIDIA также обозначила курс на автономные системы, включая роботов и транспорт — задачи, идеально ложащиеся на архитектуру Для просмотра ссылки Войдиили Зарегистрируйся .
Впереди, возможно, квантовые процессоры или оптические межсоединения. Но всё это — продолжение пути, начавшегося с 62×128 пикселей в небе аркадной игры. Скромный GPU, рождённый ради развлечений, стал краеугольным камнем современной Для просмотра ссылки Войдиили Зарегистрируйся . И его история далека от завершения.
Графический процессор, известный сегодня как GPU, начинал вовсе не как опора суперкомпьютеров или движок генеративного ИИ. Его история стартовала в игровом автомате Galaxian от Namco, впервые показанном в 1979 году. Плата внутри этой аркадной машины впервые доказала: специализированные микросхемы, созданные исключительно ради изображения, могут рисовать больше цветов, анимировать больше объектов и зарабатывать больше монет, чем любой универсальный компьютер того времени. Это стало первым толчком к зарождению отдельного класса аппаратуры, способной обрабатывать визуальные задачи независимо от центрального процессора.
Именно это стремление к более плавному, яркому и массовому визуальному опыту со временем превратилось в четыре масштабных технологических сдвига: домашние игры, научные вычисления, криптовалютный бум и, наконец, эра генеративного ИИ. Проследив этот путь, можно увидеть, как чип, созданный ради развлечений, шаг за шагом стал основой дата-центров и в перспективе может лечь в архитектуру роботов-гуманоидов и автономных транспортных систем.
Первый скачок начался в аркадах, где Galaxian генерировал изображение 62×128 пикселей, обрабатывая задники и спрайты без участия основного процессора. Именно независимость от CPU позволила разработать схему, заточенную исключительно под графику. Идея оказалась коммерчески успешной: автомат стал хитом в Японии и США, подтолкнув Namco к созданию ещё более популярной Galaga. Это убедило индустрию в том, что отдельная графическая электроника — не излишество, а конкурентное преимущество.
Параллельно с бурным ростом аркад развивались и домашние игровые устройства. Atari 2600 использовала элемент под названием Television Interface Adapter, совмещавший видеовывод, звук и работу с контроллерами. Это был примитивный, но уже «встроенный» графический модуль. С другой стороны, военные проекты уровня Evans & Sutherland CT5 на базе мини-компьютеров DEC PDP‑11 стоили десятки миллионов долларов, доказывая, насколько дороги были реалистичные визуализации при нехватке доступного железа.
Nintendo сделала ставку на софт и маркетинг. В её 8-битной Famicom (вышедшей как NES в 1985 году) не было мощной графики, но были хитроумные игровые приёмы. А настоящие визуальные инновации пришли в 1990-х с Super Nintendo: 16-битным процессором, дополнительными ускорителями (вроде Super FX) и псевдотрёхмерной проекцией Mode 7, позволившей, например, трассам в Mario Kart выглядеть объёмно. Тем не менее, аркады всё ещё опережали домашние устройства: в 1984 году Atari представила автомат I, Robot, впервые использовавший полноценную 3D-графику.
Революция 3D в домашних ПК произошла с выходом карты Voodoo 1 от 3dfx в 1996 году. В отличие от других решений, она не замещала основную видеокарту, а активировалась только в режиме 3D. Правильно настроенная, она позволяла запускать Quake с частотой 40 кадров в секунду при разрешении 512×384 — небывалое на тот момент достижение. Конкуренты, включая ATI с 3D Rage Pro, спешили нагнать и предлагали первые приёмы сглаживания краёв.
Настоящим водоразделом стал анонс Для просмотра ссылки Войди
В 2000-х началась борьба за архитектурное превосходство. В то время как NVIDIA доминировала на рынке ПК, ATI добилась решающего успеха в консолях. Для просмотра ссылки Войди
По мере усложнения игровых миров разработчики наращивали количество ядер и пропускную способность памяти, чтобы поддерживать динамическое освещение, физику и реалистичные текстуры. В этот момент учёные заметили: если видеокарта умеет отслеживать миллионы лучей, она может с такой же эффективностью решать задачи из области моделирования молекул, атмосферы, медицины и квантовой физики. С внедрением OpenCL появилась возможность объединять CPU и GPU в один вычислительный ресурс — так зародилась эпоха GPGPU, или универсальных вычислений на видеокартах.
Следующий всплеск вызвала криптовалюта. Для майнинга требовалась огромная параллельная мощность, и GPU оказались идеальным инструментом: они решали криптографические задачи в разы быстрее процессоров. С ростом стоимости Ethereum и Bitcoin в 2017 году видеокарты исчезли с прилавков, а цены взлетели. Пандемия и дефицит полупроводников лишь усугубили ситуацию. Скальперы скупали всё, магазины вводили лимиты, а попытки NVIDIA ограничить Для просмотра ссылки Войди
Тем временем NVIDIA делала ставку на нейросети. Архитектура Volta 2017 года представила тензорные ядра — блоки, оптимизированные под матричные вычисления, необходимые для обучения ИИ. Первые платы GV100 заняли нишу, но уже серия Tesla для дата-центров стала хитом. Позднее тензорные блоки появились и в потребительских GPU на архитектуре Turing, где также дебютировали RT-ядра — ускорители трассировки лучей в реальном времени. Всё это легло в основу DLSS — технологии, позволяющей выводить 4K-картинку при рендеринге в более низком разрешении.
Широкая публика ощутила силу GPU в 2022 году, когда вышел GPT-3 с интерфейсом ChatGPT. Его обучение потребовало тысяч видеокарт, объединённых через шину NVLink, способную передавать до 900 ГБ/с. В 2024 финансовом году доход NVIDIA от дата-центров достиг $18,4 млрд — рост более чем на 400% год к году. GPU H100 предоставил свыше 3 ТБ/с пропускной способности памяти и возможность разделять себя на несколько независимых экземпляров для параллельной работы.
На CES 2025 компания представила архитектуру Blackwell с удвоенной производительностью и пониженным энергопотреблением, нацеленной на обучение больших языковых моделей и управление роботами. NVIDIA также обозначила курс на автономные системы, включая роботов и транспорт — задачи, идеально ложащиеся на архитектуру Для просмотра ссылки Войди
Впереди, возможно, квантовые процессоры или оптические межсоединения. Но всё это — продолжение пути, начавшегося с 62×128 пикселей в небе аркадной игры. Скромный GPU, рождённый ради развлечений, стал краеугольным камнем современной Для просмотра ссылки Войди
- Источник новости
- www.securitylab.ru