О чем говорит Nvidia: искусственный интеллект, дата-центры, облака, робомобили
О чем говорит Nvidia: искусственный интеллект, дата-центры, облака, робомобили

Дженсен Хуанг: «Мало создать инновационный чип-ускоритель — если не заинтересовать им разработчиков и пользователей, большого смысла не будет. Именно поэтому так важно взаимодействие с экосистемой»


09:50 01.04.2019   |  Ханна Уильямс |  Computerworld, Великобритания

Рубрика Технологии |   535 прочтений



На своей ежегодной конференции GPU Technology Conference компания по традиции анонсировала широкий спектр новых продуктов и технологий.

 

На очередной ежегодной конференции GPU Technology Conference (GTC) компании Nvidia ее руководители, как всегда, сделали множество анонсов новых продуктов. Центральной темой докладов, как и все последние годы, стало аппаратное обеспечение и услуги, помогающие во внедрении технологий искусственного интеллекта.

Выступая на сцене выставочного комплекса Калифорнийского университета в Сан-Хосе, основатель и генеральный директор компании Дженсен Хуанг заявил: «Продвигаемый нами подход к ускорению вычислений сегодня по-настоящему набирает обороты. Если окинуть взглядом успехи компании за прошлый год, вектор развития вполне очевиден».

Во всех начинаниях Nvidia, от разработок в области глубинного обучения до многочисленных инициатив по созданию ускорителей для систем различного назначения, прослеживается стремление компании более прочно закрепиться в сегменте центров обработки данных. В условиях растущей актуальности искусственного интеллекта соответствующие технологии активно внедряются в дата-центрах по всему миру. Буквально пару недель назад в Nvidia снова убедительно подтвердили свои намерения двигаться в этом направлении, договорившись о приобретении за 6,9 млрд долл. израильской компании Mellanox, производителя интегральных схем для высокопроизводительных межсоединений вычислительных систем и систем хранения.

Недавно компания также представила CUDA-X AI, универсальный набор библиотек для ускорения задач исследования данных. CUDA-X AI интегрируется с популярными фреймворками глубинного обучения, в том числе TensorFlow, Pytorch и MXNET, и оптимизирован для работы с ними. Помимо прочего библиотеки реализуют технологии cuDNN, cuML и Nvidia TensorRT, ускоряющие работу алгоритмов машинного обучения и заранее обученных моделей для инференса (inference — «формирование логических выводов»).

«Мало создать инновационный чип-ускоритель, — отметил Хуанг. — Если не заинтересовать им разработчиков и пользователей, большого смысла не будет. Именно поэтому для нас так важно взаимодействие с экосистемой с опорой на принцип открытости платформы: сегодня мы предлагаем гибкие программные библиотеки, интегрируемые с популярными технологиями искусственного интеллекта».

Партнерство с провайдерами публичных облаков

CUDA-X AI уже внедряется провайдерами облачных сервисов во главе с AWS, Google Cloud и Microsoft Azure.

На конференции топ-менеджеры AWS и Nvidia рассказали о расширении семилетнего сотрудничества двух компаний, объявив, что отныне в AWS будут использовать чипы Nvidia T4 Tensor Core, предназначенные для центров обработки данных. Начиная с апреля, AWS задействует их для экземпляров Elastic Compute Cloud (EC2). Новые экземпляры AWS, получившие название с G4, обещают клиентам эффективную платформу для развертывания широкого круга сервисов искусственного интеллекта с поддержкой использования CUDA-X AI и других профильных программных средств.

«С экземплярами G4 клиентам станет еще проще и экономически выгоднее ускорять работу систем инференса и ресурсоемкие задачи обработки графики», — заявил Мэтт Гармен, вице-президент AWS по вычислительным сервисам.

Nvidia T4 также будет задействован в сервисе Amazon Elastic Container Service for Kubernetes, который можно будет применять для задач формирования логических выводов, трассировки лучей в реальном времени и симуляционного моделирования.

В Nvidia сообщили, что T4 будет применяться в центрах обработки данных Google Cloud, и что ведутся переговоры по его поставкам китайским гигантам Baidu, Tencent и Alibaba.

«В прошлом предприятия мало интересовались искусственным интеллектом, поскольку для соответствующих внедрений вам по сути нужно было купить суперкомпьютер, — отметил Иэн Бак, вице-президент и генеральный менеджер Nvidia по ускоренным вычислениям. — А сегодня, когда есть T4, вы можете оснастить им серверы, широко закупаемые службами ИТ, например, Dell R7490 или Cisco USC, и у вас появляется доступ к самым современным решениям в сфере машинного обучения».

Кроме того, серверы с T4 помогают ускорять задачи, связанные с исследованием данных. «Специалистам соответствующего профиля больше не нужно заниматься реализацией или адаптацией вспомогательных систем — мы предлагаем универсальный сервер и единую платформу, вот в чем смысл CUDA-X и T4», — добавил Бак.

Компьютеры Nano

Важной частью стратегии привлечения производителей и разработчиков к платформе Nvidia является выпуск Jetson Nano, компьютера карманных размеров для приложений искусственного интеллекта с вычислительной мощностью до 472 GFLOPS и ценой в США всего 99 долл. Он обещает поддержку всех современных рабочих нагрузок искусственного интеллекта, а потребляет лишь 5 Вт. При этом, как заявляют в Nvidia, на нем может работать то же ПО, которое выполняется на самых быстрых суперкомпьютерах мира.

Представив Nano, как Raspberry Pi для задач искусственного интеллекта, Хуанг добавил: «Если вы пользуетесь Raspberry Pi и вам не хватает вычислительной мощности, вы можете просто купить Jetson Nano, и на нем сможет работать весь стек CUDA-X AI».

Вице-президент и генеральный менеджер Nvidia по автономным машинам Дипу Талла, в свою очередь, сообщил: «Продукты линейки Jetson пользуются высокой популярностью среди участников отрасли и разработчиков. На сегодня у нас более 200 тыс. активных разработчиков на Jetson и более двух тысяч клиентов, которые создают реальные продукты на базе Jetson, уже внедряемые на различных вертикальных рынках, в том числе в сфере промышленной робототехники».

По словам Таллы, компьютеры Jetson внедряются курьерскими службами и логистическими компаниями в США и Китае, а кроме того, на основе этих устройств и оборудования видео-конференц-связи Cisco WebEx создаются решения для видеоаналитики.

Говоря о преимуществах Nano, основными отличительными чертами этих одноплатных компьютеров Талла назвал широкий круг поддерживаемых ими датчиков, включая радары, звуковые, температурные и др., а также возможность работы с датчиками, имеющими высокую разрешающую способность:

«Если вам требуется система распознавания брака на производственной линии, например, система контроля качества пищевых продуктов или печатных плат, то будет лучше, если ваша нейронная сеть способна работать со снимками разрешения 1080p, а не что-нибудь вроде 300х300, иначе нужной точности вы не добьетесь. Более того, информация с датчиков обычно проходит через несколько нейросетей. Например, если говорить о видеодатчике, вначале вы обнаруживаете объекты, а затем их классифицируете. Таким образом, основной плюс наших компьютеров — это возможности работы с многочисленными датчиками высокого разрешения и использования нескольких нейронных сетей для каждого».

В Nvidia также объявили о свободной доступности Isaac SDK, набора инструментов, ускоряющих разработку робототехники с искусственным интеллектом. В числе входящих в него компонентов — фреймворк Robot Engine для быстрого построения модульных приложений; набор модулей GEMS, реализующих различные типовые задачи наподобие распознавания препятствий, оценки расстояния до объектов и др.; а также виртуальная лаборатория-симулятор Sim.

В компании обещают, что платформа поможет стартапам и крупным компаниям экономить время в процессе проектировании роботов за счет значительного упрощения использования средств искусственного интеллекта и машинного обучения.

Реагируя на рост популярности концепции периферийных вычислений, в Nvidia объявили об интеграции всех устройств семейства Jetson с сервисом AWS Greengrass, который позволяет локально обрабатывать данные устройств Интернета вещей и периодически соединяться с облаком для реализации управляющих функций. А компьютер Jetson Nano теперь поддерживает AWS RoboMaker, облачный сервис разработки, тестирования и развертывания масштабных робототехнических приложений.

Еще одно объявление — о доступности платформы видеоаналитики Nvidia Deepstream в облаке Microsoft Azure. «Вы выполняете вычислительно сложные задачи аналитики локально — например, на сервере с Tesla, затем метаданные передаются в Azure, и таким образом выстраивается необходимый цикл обработки», — добавил Талла.

Робомобили

Свой трехчасовой доклад Хуанг завершил объявлением о том, что Nvidia продлила сотрудничество с исследовательским институтом Toyota и его филиалом в США.

Компания Toyota, в которой хотят со временем выпустить самоуправляемый автомобиль, займется оценкой возможностей применения технологий симуляции Nvidia для испытаний роботизированнных транспортных средств.

Nvidia анонсировала Drive Constellation, решение для центров обработки данных на базе специализированных серверов Drive Sim и Drive Constellation Vehicle, которые благодаря новым видеочипам Nvidia и технологии Drive AGX Pegasus AI позволяют выполнять в режиме симуляции выполнять «испытания с побитовой точностью».

Drive Constellation моделирует окружающую обстановку в режиме дополненной или полностью виртуальной реальности, имитируя различные сценарии, в том числе опасные ситуации и изменения при распознавании предупреждающих знаков, например, попадание в зону ограничения скорости и т. п.

Развивая платформу робомобилей Drive, в Nvidia ведут собственные исследования в области безопасного вождения. В частности, в компании объявили о подготовке Safety Force Field — набора правил предотвращения аварий, созданного по результатам симуляций.

«Реализация автопилота — одна из самых актуальных на сегодня вычислительных задач повышенной сложности, — отметил Хуанг. — Мы, в частности, работаем над алгоритмами распознавания окружающих автомобилей и прогнозирования их действий, который помогает избегать аварийных ситуаций. Nvidia находится в эпицентре революции робомобилей, но мы сами не создаем самоуправляемые автомашины, а строим экосистему, инфраструктуру и предоставляем инженерные возможности, которые нужны отрасли автомобилей-роботов в целом».


Теги: показывать на главной Самое интересное Nvidia Искусственный интеллект Графические процессоры Беспилотные автомобили Дженсен (Джен-Сан) Хуанг
На ту же тему: