NVIDIA сделала много объявлений во время своего основного выступления на GTC 2020, но в центре многих из них находится новая архитектура графического процессора Ampere. Первый графический процессор, который будет использовать эту архитектуру — NVIDIA A100. Однако, есть одно «но» для геймеров, которые ждут графику на новой архитектуре — A100 определенно не является потребительской видеокартой для игровых ПК или рабочих станций.

Вместо этого A100 — это корпоративная видеокарта для центров обработки данных и задач, которые сильно нагружают видеокарту, будь то аналитика данных или углубленное изучение искусственного интеллекта. В этом отношении A100 похож на видеокарты на базе Volta и Pascal, которые были до него, особенно когда дело доходит до его сложных характеристик.

NVIDIA выпустила первую сверхмощную видеокарту на архитектуре Ampere

A100 построен с использованием 7-нм техпроцесса TSMC и использует невероятное количество транзисторов — 54 миллиарда. Он обслуживает 6 912 ядер CUDA, а ядра Tensor третьего поколения в этом графическом процессоре обещают 20-кратное увеличение производительности по углубленному обучению по сравнению с предыдущим поколением. A100 также имеет колоссальные 40 ГБ видеопамяти с пропускной способностью памяти, превышающей 1,6 ТБ / с. A100 также использует технологию Multi-instance GPU, которая позволяет пользователям разделить его на семь видеокарт и повысить производительность в зависимости от рабочей нагрузки.

Итак, если посмотреть на этот список технических характеристик, даже если кто-то захочет поместить его в игровой компьютер или рабочую станцию, становится ясно, что цена за это будет слишком высокой. Неизвестно, сколько будет стоить отдельный A100, но NVIDIA предлагает кластеры DGX A100 для корпораций, которые состоят из восьми A100, по стартовой цене $199 000.

Это огромная сумма денег, но NVIDIA говорит, что у нее уже есть несколько крупных заказчиков на эти графические процессоры, включая Google, Microsoft и Amazon. Предположительно, в конечном итоге, архитектура Ampere появится на потребительских RTX-картах, но сейчас она, похоже, будет использоваться только в суперкомпьютерах и облачных вычислениях.

Источник