Этот стартап хочет бросить вызов Nvidia с помощью сервера-на-чипе, чтобы исправить то, что он называет и без того испорченной системой: более быстрый графический процессор, процессор, LPU, TPU или сетевая карта не совершит скачок, к которому стремятся многие компании.

По данным израильского стартапа NeuReality, многие возможности ИИ не реализованы в полной мере из-за стоимости и сложности создания и масштабирования систем ИИ.
Текущие решения не оптимизированы для вывода и основаны на процессорах общего назначения, которые не предназначены для искусственного интеллекта. Кроме того, архитектуры, ориентированные на ЦП, требуют наличия нескольких аппаратных компонентов, что приводит к недостаточному использованию ускорителей глубокого обучения (DLA) из-за узких мест ЦП.
Ответом NeuReality на эту проблему является решение NR1AI Inference Solution, сочетание специализированного программного обеспечения и уникального сетевого сервера вывода на кристалле. NeuReality утверждает, что это обеспечит улучшенную производительность и масштабируемость при меньших затратах, а также более низкое энергопотребление. Экспресс-полоса для основных конвейеров искусственного интеллекта
«Наша революционная технология AI Inference не привязана к обычным процессорам, графическим процессорам и сетевым картам», — сказал Моше Танах, генеральный директор NeuReality. «Мы не просто пытались улучшить и без того несовершенную систему. Вместо этого мы распаковали и переопределили идеальную систему AI Inference сверху вниз, от начала до конца, чтобы обеспечить революционную производительность, экономию средств и энергоэффективность».
Ключом к решению NeuReality является сетевой адресный процессор (NAPU), новая архитектура, использующая возможности DLA. NeuReality NR1, сетевой адресный сервер вывода на кристалле, имеет встроенный механизм нейронной сети и NAPU.
Эта новая архитектура обеспечивает аппаратный вывод с помощью AI-over-Fabric, гипервизора AI и разгрузки конвейера AI.
У компании есть два продукта, использующих сервер на кристалле: модуль вывода искусственного интеллекта NR1-M и устройство вывода искусственного интеллекта NR1-S. Первая представляет собой полноразмерную карту PCIe двойной ширины, содержащую одну систему-на-кристалле NR1 NAPU и сервер вывода с сетевой адресацией, который может подключаться к внешнему DLA. Последний представляет собой сервер вывода, ориентированный на искусственный интеллект, с модулями NR1-M и NAPU NR1. NeuReality утверждает, что сервер «снижает затраты и энергоэффективность почти в 50 раз, но не требует развертывания ИТ-инфраструктуры конечным пользователем».
Подпишитесь на информационный бюллетень Ny Breaking и получайте все лучшие новости, мнения, функции и рекомендации, необходимые вашему бизнесу для успеха!
«Инвестиции во все больше и больше DLA, графических процессоров, LPU, TPU… не решат основную проблему неэффективности системы», — сказал Танах. «Это все равно, что установить в машину более быстрый двигатель, чтобы преодолевать пробки и тупики; Это просто не доставит вас к месту назначения быстрее. NeuReality, с другой стороны, обеспечивает экспресс-канал для крупных конвейеров искусственного интеллекта, плавно перенаправляя задачи на специально созданные устройства искусственного интеллекта и быстро предоставляя ответы вашим клиентам, экономя при этом как ресурсы, так и капитал».
NeuReality недавно получила финансирование в размере 20 миллионов долларов от Фонда Европейского инновационного совета (EIC), Varana Capital, Cleveland Avenue, XT Hi-Tech и OurCrowd. Другие работы из Нью-Йорка Брейкинга

Статья добавлена ботом, с использованием машинного перевода : https://nybreaking.com/category/tech/

Понравилась статья? Поделиться с друзьями:
Интересно о полезном
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.