"Генеративный ИИ съедает мир" так начинает свой рассказ о последнем достижении компании Андрю Фельдман, генеральный директор компании Cerebras (США), которая производит компьютеры для работы с ИИ в Силиконовой долине совместно с компанией G42 (ОАЭ).
ИИ-суперкомпьютер способный выполнять 2 квинтиллиона операций в секунду (2 экзафлопса) получил название Condor Galaxy 1. И это только начало, количество операций должно удвоиться уже в этом году. В начале 2024 года к компании присоединятся еще две системы вдвое большего размера. Компания планирует продолжать добавлять установки Condor Galaxy, пока не будет создана сеть из девяти суперкомпьютеров общей производительностью 36 эксафлопсов.

Если большие языковые модели и другие генеративные ИИ "пожирают" мир, то план Cerebras состоит в том, чтобы помочь им "переварить" его. Cerebras в этом не одиноки. Другие производители компьютеров, ориентированных на ИИ, строят массивные системы либо на базе собственных специализированных процессоров, либо на базе новейшего процессора Nvidia H100.
Система Condor Galaxy 1 была собрана и запущена в эксплуатацию всего за десять дней и состоит из 32 компьютеров Cerebras CS-2, а в дальнейшем планируется расширить ее до 64. Следующие две системы, которые будут построены в Остине (штат Техас) и Эшвилле (штат Северная Каролина), также будут иметь по 64 компьютера CS-2.
Сердцем каждого CS-2 является Waferscale Engine 2 процессор, ориентированный на ИИ, с 2,6 трлн транзисторов и 850 тыс ядер ИИ, изготовленный из цельной кремниевой пластины.

По словам Фельдмана, спрос на обучение больших нейронных сетей резко возрос и число компаний, занимающихся обучением нейросетевых моделей с 50 млрд и более параметров, выросло с 2 в 2021 году до более чем 100 в этом году.
Cerebras не единственная компания, ориентированная на предприятия, которым требуется обучение очень больших нейронных сетей. Свои предложения есть у таких крупных игроков, как Amazon (США), Google (США), Meta (США) и Microsoft (США).
Вычислительные кластеры, построенные на базе графических процессоров от компании Nvidia (США), доминируют в этом бизнесе, но некоторые из этих компаний разработали свой собственный кремний для ИИ, например, серия TPU от Google и Trainium от Amazon. Есть и стартапы-конкуренты Cerebras, создающие собственные ускорители и компьютеры для ИИ, в том числе Habana (США), Graphcore (Британия) и Samba Nova (США).
Компания Meta, например, построила свой AI Research SuperCluster на базе более чем 6000 процессоров Nvidia A100. На втором этапе планируется довести производительность кластера до 5 эксафлопсов.
Google построил систему, содержащую 4096 ускорителей TPU v4 общей производительностью 1,1 эксафлопс. Эта система справилась с нейронной сетью процессора естественного языка BERT, которая значительно меньше современных LLM, чуть более чем за 10 секунд. Google также использует Compute Engine A3, имеющий скорость вычислений 26 экзафлопсов, построенный на базе графических процессоров Nvidia H100 и настроенного блока обработки инфраструктуры, созданного совместно с Intel.
Облачный провайдер CoreWeave (США) в сотрудничестве с Nvidia протестировал систему из 3584 процессоров H100, которая обучила языковую модель GPT-3 всего за 10 минут. В 2024 году Graphcore планирует создать 10 экзафлопсную систему Good Computer, состоящую из более чем 8000 процессоров Bow.
-------------------
В США имеются следующие суперкомпьютеры, использующиеся и для нужд искусственного интеллекта, скорость ИИ вычислений (не путайте с математическими вычислениями) которых от 7 до 100 экзафлопов:
1. Aurora;
2. El Capitan;
3. Research SuperCluster;
4. Frontier;
5. Compute Engine A3;
6. Inflection;
7. Condor Galaxy;
8. Tesla Dojo.
И это только недавно построенные и только малая часть из них. Я уже со счету сбился сколько их всего и не знаю обо всех. Но где-то примерно около 200.
ИИ-суперкомпьютер способный выполнять 2 квинтиллиона операций в секунду (2 экзафлопса) получил название Condor Galaxy 1. И это только начало, количество операций должно удвоиться уже в этом году. В начале 2024 года к компании присоединятся еще две системы вдвое большего размера. Компания планирует продолжать добавлять установки Condor Galaxy, пока не будет создана сеть из девяти суперкомпьютеров общей производительностью 36 эксафлопсов.

Если большие языковые модели и другие генеративные ИИ "пожирают" мир, то план Cerebras состоит в том, чтобы помочь им "переварить" его. Cerebras в этом не одиноки. Другие производители компьютеров, ориентированных на ИИ, строят массивные системы либо на базе собственных специализированных процессоров, либо на базе новейшего процессора Nvidia H100.
Система Condor Galaxy 1 была собрана и запущена в эксплуатацию всего за десять дней и состоит из 32 компьютеров Cerebras CS-2, а в дальнейшем планируется расширить ее до 64. Следующие две системы, которые будут построены в Остине (штат Техас) и Эшвилле (штат Северная Каролина), также будут иметь по 64 компьютера CS-2.
Сердцем каждого CS-2 является Waferscale Engine 2 процессор, ориентированный на ИИ, с 2,6 трлн транзисторов и 850 тыс ядер ИИ, изготовленный из цельной кремниевой пластины.

По словам Фельдмана, спрос на обучение больших нейронных сетей резко возрос и число компаний, занимающихся обучением нейросетевых моделей с 50 млрд и более параметров, выросло с 2 в 2021 году до более чем 100 в этом году.
Cerebras не единственная компания, ориентированная на предприятия, которым требуется обучение очень больших нейронных сетей. Свои предложения есть у таких крупных игроков, как Amazon (США), Google (США), Meta (США) и Microsoft (США).
Вычислительные кластеры, построенные на базе графических процессоров от компании Nvidia (США), доминируют в этом бизнесе, но некоторые из этих компаний разработали свой собственный кремний для ИИ, например, серия TPU от Google и Trainium от Amazon. Есть и стартапы-конкуренты Cerebras, создающие собственные ускорители и компьютеры для ИИ, в том числе Habana (США), Graphcore (Британия) и Samba Nova (США).
Компания Meta, например, построила свой AI Research SuperCluster на базе более чем 6000 процессоров Nvidia A100. На втором этапе планируется довести производительность кластера до 5 эксафлопсов.
Google построил систему, содержащую 4096 ускорителей TPU v4 общей производительностью 1,1 эксафлопс. Эта система справилась с нейронной сетью процессора естественного языка BERT, которая значительно меньше современных LLM, чуть более чем за 10 секунд. Google также использует Compute Engine A3, имеющий скорость вычислений 26 экзафлопсов, построенный на базе графических процессоров Nvidia H100 и настроенного блока обработки инфраструктуры, созданного совместно с Intel.
Облачный провайдер CoreWeave (США) в сотрудничестве с Nvidia протестировал систему из 3584 процессоров H100, которая обучила языковую модель GPT-3 всего за 10 минут. В 2024 году Graphcore планирует создать 10 экзафлопсную систему Good Computer, состоящую из более чем 8000 процессоров Bow.
-------------------
В США имеются следующие суперкомпьютеры, использующиеся и для нужд искусственного интеллекта, скорость ИИ вычислений (не путайте с математическими вычислениями) которых от 7 до 100 экзафлопов:
1. Aurora;
2. El Capitan;
3. Research SuperCluster;
4. Frontier;
5. Compute Engine A3;
6. Inflection;
7. Condor Galaxy;
8. Tesla Dojo.
И это только недавно построенные и только малая часть из них. Я уже со счету сбился сколько их всего и не знаю обо всех. Но где-то примерно около 200.






Комментарий