Объявление

Свернуть
Пока нет объявлений.

Super Meta

Свернуть
X
 
  • Фильтр
  • Время
  • Показать
Очистить всё
новые сообщения

  • Super Meta

    Оказывается, супер-компьютеры El Capitan и Aurora genAI, со скоростью вычисления 2 экзафлопса каждый, будут не самыми быстрыми компьютерами в мире.

    Супер-компьютер американской компании Meta Platforms, Inc для задач в области ИИ крупнейшая на сегодня клиентская система на базе NVIDIA DGX A100 обеспечит производительность в 5 экзафлопс благодаря передовым вычислительным системам NVIDIA, сетевым технологиям InfiniBand и программному обеспечению для оптимизации работы тысяч GPU.



    Meta выбрала технологии NVIDIA, чтобы создать самую мощную на сегодня вычислительную систему для задач ИИ.

    Анонсированный кластер AI Research SuperCluster (RSC) уже обучает новые модели, продолжая совершенствовать алгоритмы ИИ.

    Ожидается, что после полного развертывания Meta RSC станет крупнейшей клиентской системой на базе NVIDIA DGX A100.

    "Мы надеемся, что кластер RSC поможет нам создать совершенно новые системы искусственного интеллекта, которые смогут, например, обеспечивать голосовой перевод в реальном времени для больших групп людей, говорящих на разных языках, чтобы они могли совместно работать над исследовательскими проектами или играть в игры с дополненной реальностью", говорится в сообщении компании в блоге.

    Обучение самых больших моделей ИИ

    Когда RSC будет полностью построен чуть позже в этом году Meta планирует использовать его для обучения моделей ИИ с более чем триллионом параметров. Это может улучшить такие области, как обработка естественного языка, для таких задач, как выявление вредоносного контента в режиме реального времени.

    Помимо масштабируемой производительности в качестве ключевых критериев RSC компания Meta назвала исключительную надежность, безопасность, конфиденциальность и гибкость для работы с "широким спектром моделей ИИ".

    Кластер RSC от Meta построен на базе сотен систем NVIDIA DGX, объединенных в сеть с помощью коммутаторов NVIDIA Quantum InfiniBand, для ускорения работы команд исследователей.

    Под капотом

    В качестве вычислительных узлов в новом супер-компьютере для ИИ используется 760 систем NVIDIA DGX A100. В общей сложности они содержат 6080 графических процессоров NVIDIA A100, объединенных в сеть с помощью NVIDIA Quantum 200 Гбит/с InfiniBand, что обеспечивает производительность TF32 в 1895 петафлопс.

    Несмотря на проблемы, вызванные COVID-19, потребовалось всего 18 месяцев, чтобы перейти от идеи на бумаге к работающему супер-компьютеру для ИИ, в том числе благодаря технологиям NVIDIA DGX A100.



    20-кратный прирост производительности

    Meta уже во второй раз выбирает технологии NVIDIA в качестве основы для исследовательской инфраструктуры компании. В 2017 году Meta построила первое поколение этой инфраструктуры для исследований ИИ на базе 22 000 графических процессоров NVIDIA V100 с тензорными ядрами, которые ежедневно выполняют порядка 35 000 заданий по обучению ИИ.

    Предварительные тесты Meta показали, что RSC может обучать большие NLP-модели в 3 раза быстрее и выполнять задачи компьютерного зрения в 20 раз быстрее, чем система 2017 года.

    На втором этапе RSC расширится до 16 000 графических процессоров, которые, по мнению Meta, обеспечат производительность в задачах ИИ в 5 экзафлопс в операциях со смешанной точностью. Также Meta планирует расширить систему хранения RSC до эксабайта при скорости в 16 терабайт в секунду.

    Масштабируемая архитектура

    Технологии искусственного интеллекта NVIDIA доступны компаниям любого масштаба.

    Система NVIDIA DGX, которая включает в себя полный стек программного обеспечения для ИИ от NVIDIA, легко масштабируется от одной системы до уровня кластера DGX SuperPOD, работающего локально или через провайдеров. Клиенты также могут арендовать системы DGX через NVIDIA DGX Foundry.



    Так же прочтите эту тему с интересными новостями из мира ИИ - https://www.vforum.org/forum/t7047.html.
    О супер-компьютере El Capitan - https://www.vforum.org/forum/t7047-p...tml#post443887.
    О супер-компьютере Aurora genAI - https://www.vforum.org/forum/t7047-p...tml#post443916.
    Последний раз редактировалось Oscar Smith; 06-10-2023, 04:58 PM.

  • #2
    Нью-Йоркский университет и NVIDIA сотрудничают в создании большой языковой модели для прогнозирования реадмиссии пациентов.

    NYUTron, модель ИИ, о которой рассказывается в журнале Nature, развернута в NYU Langone Health.



    Выписка из больницы является важным событием для пациентов, но иногда это не конец их пути к выздоровлению. Почти 15% пациентов больниц в США повторно госпитализируются в течение 30 дней после первоначальной выписки, что часто связано с худшими результатами и большими расходами как для пациентов, так и для больниц.

    Исследователи из NYU Langone Health, академического медицинского центра Нью-Йоркского университета, в сотрудничестве с экспертами NVIDIA разработали большую языковую модель (LLM), которая предсказывает риск повторной госпитализации пациента в течение 30 дней, а также другие клинические результаты.

    Развернутая в шести стационарных учреждениях системы здравоохранения, модель NYUTron, о которой сегодня рассказывается в научном журнале Nature, предоставляет врачам основанные на ИИ данные, которые могут помочь им определить пациентов, нуждающихся в клиническом вмешательстве для снижения вероятности повторной госпитализации.

    "Когда вы выписываете пациента из больницы, вы не ожидаете, что ему понадобится вернуться, или, возможно, вам следовало бы продержать его в больнице дольше", - сказал доктор Эрик Оерманн, доцент радиологии и нейрохирургии в Школе медицины Гроссмана Нью-Йоркского университета и ведущий сотрудник NYUTron. "Используя анализ, проведенный с помощью модели искусственного интеллекта, мы вскоре сможем дать врачам возможность предотвращать или исправлять ситуации, в которых пациенты подвергаются повышенному риску повторной госпитализации".

    На данный момент модель была применена к более чем 50 000 пациентов, выписанных из системы здравоохранения Нью-Йоркского университета, где она делится прогнозами риска реадмиссии с врачами посредством уведомлений по электронной почте. Далее команда Оерманна планирует провести клинические испытания, чтобы проверить, снижают ли вмешательства, основанные на анализе NYUTron, уровень реадмиссии.

    Борьба с угрозой быстрой реадмиссии и многое другое

    Правительство США отслеживает показатели 30-дневной реадмиссии как индикатор качества лечения, предоставляемого больницами. Медицинские учреждения с высокими показателями штрафуются - такой уровень контроля стимулирует больницы к улучшению процесса выписки.

    Существует множество причин, по которым недавно выписанному пациенту может потребоваться повторная госпитализация - среди них инфекция, чрезмерное назначение антибиотиков, слишком рано удаленные хирургические дренажи. Если эти факторы риска могут быть выявлены раньше, врачи могут вмешаться, скорректировав планы лечения или дольше наблюдая за пациентами в больнице.

    "Хотя вычислительные модели для прогнозирования реадмиссии пациентов существуют с 1980-х годов, мы рассматриваем это как задачу обработки естественного языка, для решения которой необходим корпус клинических текстов в масштабах системы здравоохранения", - сказал Оерманн. "Мы обучили наш LLM на неструктурированных данных электронных медицинских карт, чтобы посмотреть, сможет ли он уловить суть, которую люди раньше не рассматривали".

    NYUTron была предварительно обучена на 10-летних медицинских записях из NYU Langone Health: более 4 миллиардов слов клинических записей, представляющих почти 400 000 пациентов. Модель достигла точности более чем на 10 процентов по сравнению с самой современной моделью машинного обучения для прогнозирования реадмиссии.

    После того, как LLM была обучена для первоначального варианта использования - 30-дневной реадмиссии, команда смогла создать четыре других алгоритма прогнозирования примерно за неделю. К ним относятся прогнозирование продолжительности пребывания пациента в больнице, вероятности внутрибольничной смертности и вероятности отказа в страховом возмещении.

    "Управление больницей в некотором смысле похоже на управление отелем", - говорит Оерманн. "Информация, которая помогает больницам работать более эффективно, означает больше коек и лучший уход для большего числа пациентов".

    Переход LLM от обучения к развертыванию

    NYUTron - это LLM с сотнями миллионов параметров, обученный с помощью фреймворка NVIDIA NeMo Megatron на большом кластере графических процессоров NVIDIA A100 Tensor Core.



    "Большая часть разговоров о языковых моделях сейчас ведется вокруг гигантских моделей общего назначения с миллиардами параметров, обученных на грязных наборах данных с помощью сотен или тысяч GPU", - сказал Оерманн. "Вместо этого мы используем модели среднего размера, обученные на очень точных данных, для решения задач, специфичных для здравоохранения".

    Чтобы оптимизировать модель для выводов в реальных больницах, команда разработала модифицированную версию программного обеспечения NVIDIA Triton с открытым исходным кодом для упрощенного развертывания моделей ИИ с помощью набора средств разработки NVIDIA TensorRT.

    "Чтобы развернуть такую модель в реальной медицинской среде, она должна работать эффективно", - сказал Оерманн. "Triton предоставляет все, что нужно в системе выводов, делая нашу модель молниеносно быстрой".

    Команда Оерманна обнаружила, что после предварительного обучения их LLM, ее тонкая настройка на месте с использованием данных конкретной больницы помогла значительно повысить точность - эта особенность может помочь другим медицинским учреждениям развернуть подобные модели.

    "Не у всех больниц есть ресурсы для обучения большой языковой модели с нуля своими силами, но они могут взять на вооружение предварительно обученную модель типа NYUTron и затем доработать ее на небольшой выборке местных данных с помощью графических процессоров в облаке", - сказал он. "Это доступно практически каждому в здравоохранении".
    Последний раз редактировалось Oscar Smith; 06-10-2023, 06:24 PM.

    Комментарий


    • #3
      Компания Google обновила свою нейросеть Bard.

      Что нового?

      1. Более релевантные ответы с информацией о местоположении

      Что: Bard может начать предоставлять более релевантные ответы, если вы разрешите ему использовать точное местоположение вашего устройства. Вы можете управлять своими предпочтениями в настройках местоположения.
      Зачем: Точное местоположение помогает Bard предоставлять более релевантные ответы о ресторанах поблизости и многом другом, что касается вашего региона.

      2. Bard коды для вас для улучшения математики и анализа данных

      Что: Начиная с английского языка, мы обновили Bard для обнаружения вычислительных подсказок и запуска кода в фоновом режиме, благодаря чему Bard лучше справляется с математическими задачами, вопросами по кодированию и манипуляциями со строками.
      Зачем: Мы повышаем вашу способность анализировать данные, делая Bard лучше в вычислениях, например, в поиске того, сколько раз определенное число встречается в наборе данных. Bard не всегда будет делать это правильно, но будет постоянно совершенствоваться благодаря вашей обратной связи.

      3. Экспорт таблиц, сгенерированных Bard, в Google Sheets

      Что: Когда Bard создает таблицы, теперь вы можете экспортировать их прямо в Google Sheets.
      Зачем: Продолжайте свои творческие изыскания везде, где вам нужно, перемещая ответы Bard в другие ваши любимые приложения.

      Обо всех обновлениях читайте здесь - What's new with Bard. Пока нужен VPN, чтобы соединиться с Bard через американские или британские IP адреса.
      Последний раз редактировалось Oscar Smith; 06-12-2023, 07:17 AM.

      Комментарий

      Обработка...
      X