AI-акселераторы Qualcomm Cloud AI 100 для дата-центров

Новый рынок, которого ещё не существовало в начале этого десятилетия, за последние несколько лет стал центром, вокруг которого крутятся все современные научные достижения и огромные доходы. Но эта современная эра искусственного интеллекта всё ещё находится в пелёночной стадии, а рынок ещё не нашел потолок; центры обработки данных продолжают покупать ускорители ИИ оптом, а развертывание технологий все больше и больше ускоряется уже и в потребительских процессорах. На рынке, который, по мнению многих, все еще находится на подъеме, производители процессоров по всему миру пытаются выяснить, как они могут отхватить долю побольше на одном из величайших новых рынков. Проще говоря, золотая лихорадка ИИ в полном разгаре, и прямо сейчас все выстраиваются в очередь, чтобы продать свои инструменты.

С точки зрения базовой технологии и производителей, стоящих за ними, золотая лихорадка ИИ привлекла интерес специалистов со всех уголков технологического мира. Начиная от крупных производителей GPU и CPU, и заканчивая небольшими производителями FPGA и ASIC, - все бросились производить решения для искусственного обучения, рассчитанные на персональное и промышленное применение.

Среди этой иерархии, датацентры - это самый лучший рынок для любого производителя процессоров: быстрорастущий, дорогой, с огромными бюджетами, и до сих пор живущий старыми технологиями, практически нетронутый. И вот на этот рынок выходит Qualcomm.

Семейство Qualcomm Cloud AI 100

Сегодня Qualcomm объявила, что они выходят на рынок ускорителей AI с семейством чипов Qualcomm Cloud AI 100. Разработанный с нуля для рынка искусственного интеллекта, этот чип должен будет выйти аж в 2020 году. При этом, Qualcomm подчёркивает, что новый чип будет совместим с существующим программным обеспечением для приложений искусственного интеллекта.

Qualcomm Cloud AI 100

Но конечно, вы можете сказать, что до 2020 года ещё ой как далеко, а то, что Qualcomm объявила, это скорее "заявление о намерениях", эдакая демо-версия, тизер, чем реальный продукт. Первые образцы появятся лишь в конце этого года, а коммерческие поставки начнутся в 2020 году. Проще говоря, у нас есть минимум год, а пока что крупные клиенты серверного мира услышали, что на рынке, где доминирует NVIDIA, зажглась новая звезда...

Архитектура Qualcomm Cloud AI 100: это ASIC для датацентров

Как обычно, информации очень мало, но известно, что чипы будут изготовлены по 7-нм техпроцессу на фабриках TSMC. Компания будет предлагать различные карты расширения, но в настоящее время неясно, действительно ли они разрабатывают более одного процессора, или процессоры будут комбинироваться на одной плате. Однако, уже сегодня компания Qualcomm достаточно чётко дала понять, что новые акселераторы будут использоваться для вычислений на базе уже обученных ИИ-моделей, то есть относиться к устройствам ИИ-обработки.е

Это очень важное уточнение, поскольку в данном случае чипы Qualcomm могут использоваться только для вывода ИИ-данных, примерно как TPU от компании Google. Конечно, Qualcomm - не первая компания, которая придумала использовать ASIC для искусственного интеллекта, но как вы видели, все прочие ASIC-и рассчитаны на low-end сегмент рынка. Это, в основном, USB-устройства для ноутбуков или внешние платы для экспериментаторов или для встройки в какие-то устройства. В любом случае, это не решения для дата-центров, как Qualcomm Cloud AI 100.

Qualcomm AI 100
Особенность ASIC-чипов такова, что чем меньше их гибкость, чем сильнее ограничен их функционал, тем более они эффективны. Так же как GPU дают десятикратное превосходство перед CPU в задачах, связанных с машинным обучением, так же и ASIC дают десятикратное превосходство уже перед GPU, но при этом они ограничены по функционалу. Именно поэтому Qualcomm ориентируется на клиентов, которым нужно использовать AI-функции для вывода в приложение, а не для обучения. Например, для генерации текста или для распознавания видео на основе обученных ранее моделей.

У компании Qualcomm уже есть хороший позитивный опыт использования AI-ядер в процессорах Snapdragon 820 и Snapdragon 855 для мобильных устройств, но в то же время полноценного AI-чипа у производителя ещё не было, тем более, рассчитанного на рынок датацентров.

К тому же, учитывая размеры компании Qualcomm, можно сказать, что у них не будет проблем с объёмами производства. Конечно, этот фактор не повлияет на конкуренцию с Intel и Nvidia, но обязательно абстрагирует Qualcomm от сотен мелких стартапчиков, разрабатывающих свои ASIC-и для искусственного интеллекта.

Рынок ИИ-обработки

Интересно, что если мы говорим о GPU, то их можно использовать для универсальных задач: обучения моделей и их реализации, но в целом же, это совершенно разные задачи и совершенно разные рынки. ИИ-обработка - это такие задачи, как распознавание жестов, видео, аудио, да и любые другие работы по заранее обученным моделям. Самый простой пример - это обработка смартфонами ваших селфи в автоматическом режиме. Конечно, мы привыкли, что ИИ-обработка осуществляется на конечном устройстве, таком как смартфон, но в то же время эксперты прогнозируют рост ИИ-обработки в ЦОД-ах в 10 раз, а объём рынка ИИ-ускорителей к 2025 году составит 17 миллиардов долларов!

Ещё раз следует отметить, что речь идёт только о рынке устройств для ИИ-обработки, а не для построения моделей. Это важно, поскольку требования к оборудованию для машинного обучения совершенно другие: обработка может совершаться на целочисленных 8-битных операциях, а обучение - на 16-битных с плавающей точкой, и вы не можете создать процессор, который поддерживает 8 бит для обучения и 4 бита для обработки - всегда будут модели, требующие более высокой или более низкой точности.

Для обучения нейронной сети необходимо большое количество ресурсов, которые затрачиваются только один раз. Впоследствии, полученная модель может быть использована отправлена на целых фермах, состоящих из акселераторов обработки. То есть, типичные потребители, использующие ИИ в бизнесе, будут покупать больше акселераторов обработки, чем GPU для обучения.

Важнейшим вопросом здесь является поддержка со стороны софта. Успех Nvidia определяется в том числе существующей программной экосистемой, коорую компания взращивала на протяжении последних 10 лет. На сегодняшний день уже сформировались лидеры в области ИИ-фреймворков: TensorFow, Caffe2 и ONNX, которые как обещает Qualcomm, будут поддерживаться, но вообще для удачного старта эта поддержка имеет определяющее значение.

Рон Амадео
12/04.2019


Комментарии

Похожие статьи:

Эпичный хостинг: изучаем как AMD меняет рынок VDS-хостинга на примере компании VDSina.ru

Сегодня хостеры могут размещать до 1024 виртуалок на одной машине, что позволяет им демпинговать, наращивая клиентскую базу в условиях жёсткой конкуренции. Мы выясним, почему 64-ядерные процессоры AMD EPYC лежат в основе нового в

Новая схема адресации памяти в IBM Power10 изменит взгляд на ИИ приложения

А что, если существует новый вид рабочей нагрузки, и я хочу собрать гораздо больше памяти, чем вы можете себе вообразить? Что, если я хочу, чтобы один компьютер адресовал петабайт памяти? Но сегодня никто не знает, как построить та

Что такое NVME-oF? И как работает самый быстрый протокол данных?

В последние годы мы наблюдаем рост производительности технологий хранения данных, которая, в конечном счете, достигла физических пределов, обусловленных устаревшими протоколами обмена данными в дата-центрах. Несмотря на использован

Как Microsoft планирует сделать свои дата-центры "зелёными"

По мере роста облачного бизнеса растет и его влияние на окружающую среду. Многие компании стремятся к нулевым чистым выбросам, но Microsoft идёт ещё дальше: компания не просто сводит выбросы к нулю, а стремится удалить углерод, который она выбра

FAQ по применению литий-ионных батарей в ИБП для ЦОД-ов

Литий-ионные аккумуляторы обладают рядом преимуществ перед традиционными свинцово-кислотными батареями с клапанным регулированием (VRLA), широко используемыми сегодня в ИБП. Гораздо более длительный срок службы, меньшие размеры