ИТ Блог. Администрирование серверов на основе Linux (Ubuntu, Debian, CentOS, openSUSE)

Гонка за чипами ИИ. Почему правительства и технические гиганты борются за разработку первого чипа следующего поколения

В течение многих лет Америка доминировала на рынке компьютерных микросхем, но с появлением ИИ сохранение этого доминирования и инвестиции в ИИ-чипы нового поколения приобрели новую актуальность. Amazon, Google, Nvidia и Microsoft объединились с DARPA и множеством небольших стартапов в гонке, чтобы создать гибкую, эффективную и мощную архитектуру микросхем, которая может обеспечить процесс глубокого обучения.

Область разработки чипов в настоящее время невероятно динамична в связи с ростом интереса к разработке новых чипов. Новая архитектура чипов появляется, по крайней мере, ежемесячно, причем некоторые инновации более перспективны, чем другие.

Микросхемы в ассортименте по доступной цене по ссылке zoom-ec.ru/emikroskhemy-importnye-raznye/. Каталог микросхем содержит десятки вариантов от известных зарубежных производителей, которые представлены следующими типами: аналоговые, цифровые, аналого-цифровые, демодуляторы.

 

Достижение искусственного интеллекта программного и аппаратного симбиоза: разработка чипов AI

Примерно в 2015 году интерес к чипам начал расти: к 2017 году венчурные капиталисты утроили инвестиции в космос, а к 2019 году инвестиции в космос достигли почти 1 млрд долларов. Только в прошлом году Graphcore получила финансирование в размере 200 миллионов долларов США во главе с BMW и Microsoft, в то время как другие компании, такие как Wave Computing и Mythic Inc., также привлекли десятки миллионов средств. Это лишь небольшая часть огромной картины: публичные компании, включая Nvidia, Qualcomm и AMD, не говоря уже об Amazon и Google, также вступили в борьбу.

Так что же это за чипы, за которыми следят все?

До недавнего времени программное обеспечение ИИ в основном работало на графических чипах (графических процессорах). Эти чипы обладают высокой емкостью для параллельной обработки, а также большей емкостью, чем процессоры на транзисторах. Однако, поскольку закон Мура (идея о том, что число транзисторов в чипе будет удваиваться примерно каждые 18 месяцев) начал замедляться, все больше и больше исследователей начинают утверждать, что микросхемы, разработанные специально для вычислений с глубоким обучением, могут быть даже более мощными, чем традиционные Графические процессоры. Многие исследователи считают, что мы достигли наименьшего возможного напряжения для графических процессоров, а это означает, что, хотя можно еще добавить транзисторы, мы достигли предела скорости их работы. Например, ноутбуки по-прежнему работают на частоте 2 ГГц, в них просто больше ядер. Для машинного обучения нам нужны тысячи ядер – это означает, что в зависимости от старой архитектуры GPU может быть недостаточно.

В этом году на конференции MARS исследователь из MIT, финансируемый DARPA и работающий с исследователями из Nvidia, представил Eyeriss, новый чип глубокого обучения, который позволяет выполнять современные вычисления и в 10-1000 раз более эффективен, чем существующее оборудование. Микросхема достаточно гибкая, чтобы адаптироваться к многочисленным приложениям, но также и эффективна – две функции, которые ранее было трудно сбалансировать в одной архитектуре.

Чип Eyeriss – едва ли единственный игрок в этой игре: IBM разрабатывает специальный AI-процессор , Tensor Processing Unit от Google или TPU, специальный AI-чип для нейронных сетей (Google по-прежнему использует как CPU, так и GPU для других приложений AI), и Microsoft начала работу над собственным AI-процессором для Azure в конце 2018 года. Упомянутая выше компания по производству микросхем Graphcore разработала так называемые интеллектуальные процессорные блоки (IPU), которые основаны на архитектуре, совершенно отличной от GPU и CPU.

Новейшие iPhone и другие высококлассные конкуренты уже используют более простые чипы AI; более эффективные микросхемы граничных вычислений позволили бы создать более мощный код с более сложными возможностями – необходимость в автомобилях с автоматическим управлением, которые в настоящее время используют несколько больших компьютеров, и другие сложные вычисления AI.

 

Кто победит в гонке AI Chips Arms?

Нет четких указаний на то, какой подход – построение на графических процессорах, TPU, IPU или любом количестве других архитектур – окажется наиболее эффективным при обработке кода AI. Из-за этого рынок в настоящее время очень конкурентоспособен и сильно разрушен. Эксперты по чипам прогнозируют, что к 2025 году архитектура новых чипов укрепится, и конкуренция переключит направление, чтобы сосредоточиться на стоимости за возможности, а не на подходе.

Exit mobile version