Объявление

Свернуть
Пока нет объявлений.

ИИ от Intel

Свернуть
X
 
  • Фильтр
  • Время
  • Показать
Очистить всё
новые сообщения

  • ИИ от Intel

    Intel Labs американской компании Intel Corp в сотрудничестве с Blockade Labs представили латентную диффузионную ИИ-модель для создания панорамных трехмерных изображений (LDM3D) с 360-градусным обзором, которая первой в отрасли обеспечивает отображение глубины сцены. LDM3D может произвести революцию в создании реалистичного визуального 3D-контента, приложениях метавселенной и цифровом опыте, найти применение в широком спектре отраслей от развлечений и игр до архитектуры и дизайна.



    LDM3D была обучена на наборе данных, созданном из подмножества 10 000 образцов базы данных LAION-400M, которая содержит более 400 миллионов пар изображений и подписей к ним. Для отображения точной относительной глубины каждого пикселя была использована разработанная Intel Labs модель Dense Prediction Transformer (DPT). Набор данных LAION-400M создан, чтобы обеспечить возможность широкомасштабного тестирования модели для широкого круга исследователей и других заинтересованных сообществ.

    Модель LDM3D обучалась на суперкомпьютере Intel AI на базе процессоров Intel Xeon и ускорителей Intel Habana Gaudi AI. Полученная модель и конвейер объединяют сгенерированное изображение и карту глубины для создания 360-градусных панорамных представлений.



    Чтобы продемонстрировать потенциал LDM3D, исследователи разработали приложение DepthFusion, которое использует стандартные 2D-фотографии RGB и карты глубины для создания интерактивной 360-градусной панорамы. Для превращения текстовых подсказок в 3D-панорамы применяется язык визуального программирования TouchDesigner на основе узлов для интерактивного мультимедийного контента в реальном времени. Модель LDM3D объединяет изображение RGB и его карту глубины, что приводит к экономии памяти и ускорению работы.



    Это 3D видео, которое вы можете вращать, нажав и удерживая левую кнопку мыши на видео. Желательно развернуть его на весь экран и включить максимальное качество.

    "Технология генеративного ИИ направлена на расширение человеческого творчества и экономию времени. Однако большинство сегодняшних моделей ИИ ограничены созданием 2D-изображений. В отличие от них LDM3D позволяет пользователям генерировать изображение и карту глубины из заданной текстовой подсказки. Это обеспечивает более точную относительную глубину для каждого пикселя по сравнению со стандартными методами постобработки и экономит разработчикам значительное время при разработке сцен", пояснил Васудев Лал (Vasudev Lal), научный сотрудник Intel Labs.

    Это исследование может революционизировать взаимодействие с цифровым контентом, позволяя пользователям отображать текстовые подсказки ранее немыслимыми способами. Изображения и карты глубины, сгенерированные LDM3D, позволяют пользователям превратить текстовое описание безмятежного тропического пляжа, современного небоскреба или научно-фантастической вселенной в детализированную панораму. Способность создавать карту глубины изображения может мгновенно повысить общий реализм и погружение, позволяя создавать инновационные приложения для различных отраслей, от развлечений и игр до дизайна интерьеров и каталогов недвижимости, а также виртуальных музеев и иммерсивной виртуальной реальности.

    Внедрение LDM3D и DepthFusion прокладывает путь к дальнейшему развитию генеративного ИИ и компьютерного зрения. Intel продолжит исследования генеративного ИИ для расширения человеческих возможностей и создания экосистемы разработок в области ИИ с открытым исходным кодом, которая демократизирует доступ к этой технологии. LDM3D предоставляется с открытым исходным кодом через сообщество HuggingFace, а это значит, что в скором времени могут появиться аналоги, взявшие за основу технологию LDM3D.

    ----------------

    Еще почитайте эту тему - https://www.vforum.org/forum/t7075.html. Не забывайте переходить по ссылкам в теме.
    Последний раз редактировалось Oscar Smith; 06-26-2023, 11:47 AM.

  • #2
    В Аргоннской национальной лаборатории Министерства энергетики США установили 10 624-й и последний блейд-сервер суперкомпьютера Aurora, созданного Intel в сотрудничестве с Hewlett Packard Enterprise. Суперкомпьютер готов к началу работы и способен обеспечить более двух экзафлопс вычислительной мощности.

    Aurora состоит из 10 624 блейд-серверов, размещенных в 166 стойках. Как сообщают в Аргоннской лаборатории, команда Aurora собирала систему полтора года. Руководству лаборатории пришлось провести несколько крупных модернизаций помещений и оборудования, чтобы обеспечить достаточно места для суперкомпьютера, который занимает площадь, эквивалентную двум баскетбольным площадкам.

    За работу Aurora отвечают 63 744 процессора Intel Data Center GPU Max серии Ponte Vecchio и 21 248 процессоров Intel Xeon CPU Max серии Sapphire Rapids. Суперкомпьютер включает также более 1024 узлов хранения данных общей емкостью 220 петабайт и максимальной пропускной способностью 31 терабайт в секунду.



    Aurora, один из первых в США и в мире экзафлопсных суперкомпьютеров, позволит проводить научные исследования и эксперименты, которые сегодня считаются невозможными, отмечают в лаборатории. В ближайшее время команда проекта готовится провести последние тесты перед тем, как открыть доступ к системе для ученых.

    "Мы с нетерпением ждем возможности испытать Aurora и убедиться, что все работает, как задумано, прежде чем мы передадим систему более широкому научному сообществу", заявила директор проекта Aurora Сьюзан Коглан.



    ----------------------

    Обязательно прочтите эту тему - https://www.vforum.org/forum/t7068.html.
    И вот эту - https://www.vforum.org/forum/t7047.html. В этой теме прочтите все две страницы. Много интересного про строящиеся суперкомпьютеры.
    Последний раз редактировалось Oscar Smith; 06-26-2023, 05:25 PM.

    Комментарий


    • #3
      Google Cloud объявила о создании суперкомпьютера Compute Engine A3 для нужд развития искусственного интеллекта. Он будет служить для обучения и обслуживания самых требовательных моделей ИИ.



      Виртуальные машины A3 сочетают в себе графические процессоры Nvidia H100 с тензорными ядрами и передовые достижения Google. A3 это первый экземпляр графического процессора, в котором используются специально разработанные IPU со скоростью 200 Гбит/с, при этом передача данных от одного графического процессора к другому осуществляется в обход узла ЦП и проходит через отдельные интерфейсы от других сетей виртуальных машин и трафика данных. Это обеспечивает до 10 раз большую пропускную способность сети по сравнению с виртуальными машинами A2.



      При этом интеллектуальная сетевая структура центра обработки данных Jupiter масштабируется до десятков тысяч высокосвязанных графических процессоров и позволяет использовать реконфигурируемые оптические каналы с полной пропускной способностью, которые могут регулировать топологию по требованию. Почти для каждой структуры рабочей нагрузки достигается пропускная способность на уровне более дорогих готовых неблокирующих сетевых структур, что приводит к снижению совокупной стоимости владения.

      Масштаб суперкомпьютера A3 обеспечивает производительность ИИ до 26 экзафлопс, что значительно сокращает время и затраты на обучение больших моделей машинного обучения.

      Виртуальные машины также хорошо подходят для рабочих нагрузок логических выводов, обеспечивая 30-кратное повышение производительности логических выводов по сравнению с A2.

      Вот основные особенности A3:

      - 8 графических процессоров H100 с архитектурой Nvidia Hopper, обеспечивающие 3-кратную вычислительную производительность;- пропускная способность 3,6 ТБ/с пополам между 8 графическими процессорами A3 через Nvidia NVSwitch и NVLink 4.0;
      - масштабируемые процессоры Intel Xeon 4-го нового поколения;
      - 2 ТБ оперативной памяти через модули DIMM DDR5 4800 МГц;
      - увеличенная в 10 раз пропускная способность сети благодаря аппаратным IPU, специализированному стеку межсерверной связи GPU и оптимизации NCCL.

      Виртуальные машины A3 позволят компаниям обучать более сложные модели с высокой скоростью и создавать большие языковые модели и генеративный ИИ, отмечают в Google Cloud.

      A3 можно развернуть на Vertex AI, комплексной платформе для создания моделей машинного обучения в полностью управляемой инфраструктуре.

      Клиенты, желающие создать собственный программный стек, могут также развернуть виртуальные машины в Google Kubernetes Engine и Compute Engine.

      Чтобы присоединиться к списку ожидания предварительного просмотра для A3, нужно зарегистрироваться.

      Ранее компания объявила на конференции Google I/O 2023 о внедрении поддержки генеративного ИИ в Vertex AI для большего количества клиентов, а также представила новые функции и базовые модели. Также Google представила обновленную модель искусственного интеллекта PaLM 2 и рассказала о внедрении ИИ в целый ряд своих продуктов.
      Последний раз редактировалось Oscar Smith; 06-26-2023, 07:18 PM.

      Комментарий


      • #4
        В США строятся следующие суперкомпьютеры:

        1. El Capitan - 2 экзафлопса;
        2. Aurora - 2 экзафлопса;
        3. Research SuperCluster - 5 экзафлопсов;
        4. Compute Engine A3 - 26 экзафлопсов.

        Все эти суперкомпьютеры будут самыми мощными в мире.

        Действующих же суперкомпьютеров в США на данный момент 150 (мировое лидерство), самый мощный из которых Frontier со скоростью вычислений почти в 2 экзафлопса, что пока является мировым рекордом.

        Комментарий


        • #5
          Американское космическое агентство NASA разрабатывает для астронавтов помощника на базе искусственного интеллекта, который будет иметь интерфейс, сходный с чат-ботом ChatGPT. Система поможет экипажу космических полетов выполнять маневры, проводить эксперименты и общаться с диспетчерами.



          По словам представителя НАСА, технологию развернут на орбитальной лунной станции Lunar Gateway, которая входит в программу Artemis.

          Космические аппараты будут уведомлять экипаж и сообщать об открытиях, которые они видят в Солнечной системе и за ее пределами, заявила доктор Ларисса Судзуки. Она отметила, что это действительно больше похоже на научную фантастику.

          На совещании по космической связи нового поколения в Институте инженеров по электротехнике и электронике в Лондоне Судзуки рассказала о сети межпланетной связи со встроенным ИИ, которая предназначена для обнаружения и устранения неполадок по мере их возникновения. Интерфейс будет предупреждать операторов миссии о рисках потери связи с космическим кораблем.

          Система имеет интерфейс на естественном языке, который позволит астронавтам и операторам находить необходимую информацию, не теряя время на ее поиски в громоздких технических руководствах.

          Судзуки исследует, как развернуть машинное обучение в космосе, где невозможно обрабатывать огромные объемы данных через суперкомпьютер. Она предлагает использовать федеративное обучение, которое предусматривает обмен знаниями между космическими аппаратами без отправки данных на Землю.

          Исследовательница также занимает должность технического директора Google, она представлена в новой галерее Engineers, которая открылась в лондонском Музее науки. На мероприятии освещают различные технологии, от космических спутников и хирургических роботов до цифровой моды.

          НАСА планирует запуск электродвигательного модуля PPE и малого жилого модуля HALO Lunar Getaway на ракете SpaceX Falcon Heavy в 2024 году. Экипажи на станцию будут доставлять на кораблях Orion при помощи ракет Space Launch System.

          ---------------------------

          Загляните в эту тему - https://www.vforum.org/forum/t6989.html.
          Последний раз редактировалось Oscar Smith; 06-27-2023, 08:55 AM.

          Комментарий


          • #6
            Google DeepMind разрабатывает в своих лабораториях альтернативу ChatGPT. ИИ, который называют самой сложной в мире моделью, будет использовать сильные стороны AlphaGo. Он будет играть ключевую роль в контратаке, организованной Google против OpenAI и Microsoft.



            DeepMind, дочерняя компания Google, полностью посвященная искусственному интеллекту, в настоящее время работает над альтернативой GPT-4, последней версии лингвистической модели, лежащей в основе ChatGPT. Названная Gemini, эта новая модель ИИ уникальна тем, что сочетает в себе работу лингвистической модели с предыдущими технологиями, разработанными компанией, обладающей обширным опытом в области ИИ. Как и GPT-4, Gemini является мультимодальной. Это означает, что ИИ может обрабатывать несколько источников данных, таких как текст, аудио или изображения.

            В интервью Wired Демис Хассабис, соучредитель и генеральный директор DeepMind, раскрыл новые подробности о проекте, который все еще находится в разработке. По словам Хассабиса, ИИ DeepMind станет самой продвинутой языковой моделью в мире, превзойдя ChatGPT от OpenAI. К сведению, Google упомянул о появлении Gemini в прошлом месяце на конференции Google I/O, посвященной Bard и PaLM 2.

            Наработки, унаследованные от AlphaGo.

            Для разработки лингвистической модели компания Deepmind, приобретенная Google в 2014 году, использовала достижения AlphaGo, искусственного интеллекта, который она сама разработала. Анонсированный в 2016 году, этот искусственный интеллект вызвал большой ажиотаж, победив нескольких чемпионов по го - стратегической игре, популярной в Азии. Однако после нескольких побед ИИ проиграл американскому игроку. Американский игрок использовал алгоритмы для анализа слабых сторон AlphaGo.

            "Gemini сочетает в себе некоторые сильные стороны систем типа AlphaGo с удивительными лингвистическими возможностями больших моделей", объясняет Демис Хассабис, обещая "новые инновации, которые будут весьма интересными".

            Благодаря AlphaGo, Gemini сможет планировать задачи и эффективно решать проблемы. Чтобы определить лучший способ решения задачи или победы в стратегической игре, ИИ полагается на обучение с подкреплением. С практической точки зрения, в процессе обучения ИИ ставится очень конкретная цель, которую он должен достичь. Каждая его попытка автоматически оценивается. Путем проб и ошибок ИИ в конечном итоге самостоятельно обучается и находит правильное решение. Это предпочтительный метод обучения алгоритма принятию решений. Обратите внимание, что другие модели, такие как GPT, также основаны на этом методе, изобретенном DeepMind.

            Чтобы завершить работу над Gemini, Google решил объединить Deepmind с командами из Brain, исследовательского проекта по глубокому обучению, запущенного в 2011 году. С помощью этой реструктуризации поисковый гигант, очевидно, стремится догнать своих конкурентов, OpenAI и Microsoft.

            "Если вы посмотрите, на каком этапе мы находимся в области ИИ, я бы сказал, что 80 или 90% инноваций исходят от тех или других. За последнее десятилетие обе организации сделали несколько блестящих вещей", говорит генеральный директор DeepMind, говоря о взаимодополняемости своей компании и подразделения Brain.

            Миграция Brain.

            Чтобы затмить ChatGPT, DeepMind также может рассчитывать на инженеров OpenAI. Согласно информации, полученной немецкой радиостанцией BR24, некоторые из инженеров стартапа недавно ушли в Google. По всей видимости, это несколько высокопоставленных сотрудников, которые разочарованы слишком быстрым развитием OpenAI и стратегией генерального директора Сэма Альтмана.

            По словам Демиса Хассабиса, Gemini еще предстоит несколько месяцев разработки, прежде чем он станет полностью функциональным. После усовершенствования ИИ должен стать основой большинства сервисов Google, связанных с ИИ, включая чат-бота Bard и будущую поисковую систему компании. Поэтому Gemini должен стать преемником PaLM 2.

            Нет мораторию на ИИ.

            В своем интервью Wired Демис Хассабис также рассказал о моратории на ИИ, к которому призывают такие тяжеловесы Кремниевой долины, как Илон Маск и Стив Возняк. Хотя генеральный директор DeepMind осознает опасность искусственного интеллекта, он решительно выступает против приостановки исследований. Как и Билл Гейтс, он считает, что паузу в работе исследовательских центров вводить нельзя. Он добавляет, что ИИ имеет потенциал стать самой полезной технологией для человечества всех времен, если искусственный интеллект будет разработан "правильно".

            Комментарий


            • #7
              Американская компания Meta представила новую модель ИИ. Ближе к человеческому мозгу, чем ChatGPT и т.п., эта модель, возглавляемая французским исследователем Янном ЛеКуном, призвана вытеснить генеративный ИИ.



              В кулуарах выставки VivaTech в Париже Янн ЛеКун, французский исследователь, отвечающий за искусственный интеллект в компании Meta, представил новую модель ИИ "JEPA" (Joint Embedding Predictive Architecture).

              Эта модель призвана "преодолеть основные ограничения современных наиболее продвинутых систем ИИ", поясняется в пресс-релизе Meta. Во время презентации Янн ЛеКун сделал акцент на дистанцировании "JEPA" от других моделей, таких как GPT, на которой работает ChatGPT от OpenAI.

              "Сегодняшний ИИ и машинное обучение - это полный отстой. У людей есть здравый смысл, а у машин - нет", говорит Янн ЛеКун.

              Исследователь всегда весьма критически относился к лингвистическим моделям, представленным на рынке. Еще в январе ЛеКун считал, что ChatGPT далек от революции. По его мнению, "ChatGPT не является особенно инновационным" с технической точки зрения.

              Новый вид модели искусственного интеллекта.

              Решив превзойти своих конкурентов, Meta предлагает модель ИИ, которая обучается примерно так же, как человеческий интеллект. Поэтому принцип работы системы сильно отличается от таких моделей, как GPT от OpenAI или PaLM2 от Google. Эти модели работают, опираясь на огромную базу данных. Опираясь на эту информацию, модели ИИ пытаются угадать наиболее логичную последовательность слов, исходя из вопроса пользователя. На самом деле, эти ИИ не понимают тексты, которые они генерируют. Они просто имитируют мышление. Таким же образом работают генераторы изображений, такие как DALL-E, Adobe Firefly или Midjourney.

              С новой моделью Meta дело обстоит иначе. Вместо того чтобы агрегировать горы данных, созданных людьми, "JEPA" сравнивает абстрактные представления изображений или звуков. Такой подход заставляет ИИ строить "внутреннюю модель внешнего мира", что облегчает его обучение.

              Таким образом, модель имитирует работу человеческого мозга. Каждый день ваш мозг бессознательно анализирует множество данных, чтобы понять окружающий мир. Подобно человеческому интеллекту, модель может жонглировать абстрактными понятиями, а не последовательностями слов.

              "Наша работа ... основана на том, что люди усваивают огромное количество базовых знаний о мире, просто пассивно наблюдая за ним", заявляет Meta.

              Благодаря такому подходу модель действительно понимает данные, которые ей предоставляются. ИИ не приходится угадывать ответы на вопросы пользователей, основываясь на наиболее вероятной последовательности слов. Теоретически, таким образом, "JEPA" не должен "галлюцинировать", то есть генерировать фактически ложную информацию. Это главный недостаток генеративного ИИ. Не все их утверждения достоверны, потому что они не совсем понимают, о чем говорят. Именно поэтому генеративные ИИ испытывают большие трудности при конструировании некоторых элементов, таких как человеческие руки или уши.

              "Если вы тренируете (модель) на 1 000 или 2 000 миллиардах лексем, она кажется способной к пониманию. Но она делает глупые фактические или логические ошибки", подчеркивает Янн ЛеКун.

              Более того, "JEPA" отличается от других крупных языковых моделей высокой эффективностью. Согласно пресс-релизу Meta, ИИ не требует значительных ресурсов для работы, в отличие от более требовательных к ресурсам систем, таких как GPT.

              Конец генеративного ИИ?

              По мнению Meta, "генеративные методы слишком много внимания уделяют деталям, вместо того, чтобы улавливать общие концепции", как это делает ее новая система. По мнению Янна ЛеКуна, генеративный ИИ в будущем исчезнет, потому что "у нас будет что-то лучшее, чтобы заменить его":

              "Общие языковые модели по-прежнему полезны сегодня, но через пять лет они не будут использоваться".

              Эта модель представляет собой новый этап на пути к общему искусственному интеллекту, великой цели OpenAI и других титанов технологий. Этот тип ИИ, все еще далекий от современных технологий, способен развиваться и адаптироваться к поставленным перед ним задачам, даже если он не запрограммирован на их выполнение.

              "Генеративные модели уходят в прошлое, мы собираемся отказаться от них в пользу предиктивных архитектур", говорит исследователь, удостоенный премии Алана Тьюринга в 2019 году.

              Как и положено, Meta сделала весь код "JEPA" доступным для исследователей. Эта стратегия с открытым исходным кодом направлена на стимулирование исследований в области ИИ путем поощрения разработчиков к созданию собственной технологии. Группа из Менло-Парка уже делала это со своими предыдущими инновациями, такими как MusicGen, ИИ, который генерирует музыку на основе короткого текста, или LLaMA, для Большой Языковой Модели Meta ИИ.
              Последний раз редактировалось Oscar Smith; 06-30-2023, 08:28 AM.

              Комментарий


              • #8
                Рейтинговая и исследовательская компания Moodyʼs Corp. привлечет Microsoft Corp. и OpenAI для создания помощника на базе искусственного интеллекта, который поможет клиентам анализировать массивы информации, необходимой для оценки рисков.



                Moody's Research Assistant будет доступен для клиентов, включая аналитиков, банкиров, советников, исследователей и инвесторов.

                Как сообщил главный исполнительный директор компании Роб Фаубер, Moody's рассчитывает представить версию для некоторых клиентов в конце этого года.

                По его словам, Moody's также планирует в будущем использовать искусственный интеллект для таких задач, как кредитование и андеррайтинг.

                В четверг компания заявила, что уже развернула технологию ИИ-помощников от Microsoft для 14 тыс сотрудников Moody's, которые используют ее для поиска огромных объемов внутренней информации, в том числе в базе данных Moody's Orbis о компаниях.

                "Microsoft, крупнейший инвестор OpenAI, заметил всплеск спроса со стороны корпоративных клиентов, которые хотят использовать сервис Azure OpenAI для доступа к моделям "облачного" стартапа.

                Эти клиенты могут, например, использовать возможности ChatGPT и GPT4 от OpenAI для написания собственных приложений для сотрудников и клиентов. Microsoft сообщила, что в первой половине текущего квартала на эту услугу подписались 2 000 новых клиентов", - пишет агентство.

                "Нашим клиентам приходится иметь дело с широким спектром различных рисков - речь идет уже не только о кредитном риске, вы должны понимать репутационный профиль того, с кем вы ведете бизнес, кибер-риск, углеродный переход, физический риск, связанный с изменением климата, финансовыми преступлениями и санкциями", - сказал Фаубер.

                "Эта технология является очень перспективной, потому что она значительно облегчает получение информации из различных наборов данных и контента, объединение их вместе и предоставление выводов в очень естественной, интуитивно понятной форме", - резюмировал он.
                Последний раз редактировалось Oscar Smith; 06-30-2023, 10:51 AM.

                Комментарий


                • #9
                  Строительство суперкомпьютеров в США идет полным ходом.

                  Компания Tesla недавно объявила о прогрессе в разработке специальной суперкомпьютерной платформы Tesla Dojo, построенной на чипах собственной разработки автопроизводителя. Производство суперкомпьютера начнется в июле 2023 года, ожидается, что в 2024 году Dojo войдет в пятерку самых передовых вычислительных систем мира.



                  Старт разработке суперкомпьютера Dojo, предназначенного для машинного обучения ИИ, был дан на AI Day 2021. Dojo основан исключительно на разработанных Tesla чипах и инфраструктуре, а для обучения нейронной сети использует видеоданные внушительного парка автомобилей Tesla. Развитие машинного зрения Tesla имеет ключевое значение для технологии автономного вождения. Вычислительные мощности будущего суперкомпьютера также будут использованы для дальнейшего развития проекта человекообразного робота Tesla Optimus.



                  В архитектуре Tesla Dojo применяются "системы-на-пластине" (System-On-Wafer), то есть чип представляет собой целую кремниевую пластину (Training Tile в терминологии Tesla). Каждая пластина вмещает 25 ускорителей D1 и 40 модулей ввода-вывода. На пластине также размещены подсистемы питания и охлаждения. Представители Tesla утверждают, что одна "система-на-пластине" заменяет шесть блоков графических процессоров и при этом обходится дешевле.

                  Главный инженер Tesla Тим Заман (Tim Zaman) сообщил общественности, что вычислительный кластер Tesla в настоящее время загружен на 99,7%, причем 84% машинного времени тратится на высокоприоритетные задачи. Компания остро нуждается в дополнительных вычислительных ресурсах, и суперкомпьютер Dojo кардинально улучшит ситуацию.

                  Комментарий


                  • #10
                    Американская компания Meta представила ИИ-модель Voicebox, которая генерирует и редактирует устную речь. Они говорят, что это очередная революция в сфере генеративных ИИ. Модель не только создает речь в точном стиле и голосе любого человека по короткому образцу, но также умеет автоматически удалять шум, поправлять оговорки, понимать контекст. Авторы проекта охарактеризовали Voicebox как "прорыв в моделях речевого ИИ" и "самый универсальный ИИ для генерации речи".



                    Документ - https://scontent.fhrk2-1.fna.fbcdn.n...0Q&oe=64A05971.

                    Voicebox ИИ, озвучивающий любой написанный текст в нужном вам стиле, тоне, интонации и голосе. Он умеет кричать, повышать голос, шептать, даже звучать эротично. Сгенерированные Midjourney корейские девушки на OnlyFans теперь смогут общаться со своими фанатами голосом! А стать витубером-миллионником смогут не только сладкоголосые девочки с милым акцентом.

                    Кроме того, Voicebox умеет производить обработку уже готовой записи скажем, удалять оттуда лишние звуки вроде собачьего лая или гудков машины, понимая, что речь, а что нет. При необходимости с ним можно даже переиграть часть записи, исправив неверно произнесенную фразу или поправив ударения.

                    Пока что поддерживаются 6 языков: английский, немецкий, испанский, французский, португальский и польский. За счет этого инструмент можно использовать в качестве синхронного переводчика, при этом он будет передавать все интонации и манеру речи собеседника. Так что появилась еще одна профессия, которую скоро заменит ИИ.

                    Если подробнее, то Voicebox позволяет решать такие задачи:

                    - Синтез речи в контексте. Используя звуковой образец длиной всего две секунды, Voicebox может начать преобразовывать тексты в речь в том же стиле. Он может обрабатывать текст с фразами, которые видит в первый раз, и правильно генерировать контекст, ударения и интонации. Точно так же, как новый для себя текст читал бы человек.
                    - Редактирование речи и шумоподавление. Voicebox может воссоздать часть речи, прерванную шумом, или заменить оговорки. Как ластик, только для редактирования аудио. Система понимает, когда слово было сказано неверно, и заменяет его. В итоге любой индиец или филиппинец с тремя классами школы может начать говорить как будто на чистейшем английском (по крайней мере, в записи).
                    - Межъязыковая передача стиля. При получении образца чьей-то речи и отрывка текста Voicebox может начать воспроизводить текст на любом из поддерживаемых им языков (даже если образец речи и текст на разных языках). Эту возможность можно использовать в будущем, чтобы помочь людям общаться естественным и аутентичным образом, даже если они не говорят на одном языке. Причем за счет большого разнообразия данных Voicebox способен генерировать речь, похожую на то, как люди разговаривают в реальной жизни.

                    На практике разработчики Voicebox говорят, что все эти возможности могут оказаться очень полезными в приложениях метавселенной. Чтобы сближать людей из разных социальных бэкграундов и с разными возможностями.

                    Удивительно, что модель не нуждается в часах аудиофайлов, чтобы научиться мимикрировать под человека. Ей достаточно двухсекундного сэмпла. Благодаря этому ИИ сможет генерировать речь, например, ваших друзей. Скажем, у вас в Telegram есть пятисекундное голосовое сообщение от человека. Значит, все следующие текстовые сообщения от этого человека дальше может читать ИИ точно таким же голосом и со всеми характерными интонациями. Или вы сами можете диктовать, что сказать его голосом. На слух понять, что это говорит не тот же человек, будет почти невозможно.



                    Такие голосовые генеративные ИИ смогут создавать естественно звучащие голоса для виртуальных помощников и персонажей в играх. Кстати, похожую технологию уже активно используют в "World Warcraft": игроки сами создали аддон, который озвучивает тысячи NPC разных рас, используя GPT (в данном случае это был EvenLabs AI). Орки звучат хрипло и грубо, гномы пищат, дворфы картавят, таурены вещают мерным басом. Причем каждый персонаж слегка по-разному. Обычно нужно было бы найти с десяток хороших актеров озвучки, неделями работать в студии, собирать и микшировать сэмплы, потратить на это сотни тысяч долларов. Но теперь все может быть реализовано внутри одного аддона одним энтузиастом и совершенно бесплатно (вот, кстати, их GitHub).

                    Создатели Voicebox полагают, что этот тип технологий может быть использован в будущем, чтобы позволить слабовидящим людям слышать письменные сообщения от своих друзей и близких, а также позволить людям говорить на любом иностранном языке своим собственным голосом. А в качестве бонуса любимые артисты и звезды будут читать вам аудиокниги или петь колыбельные.



                    Одним из основных ограничений существующих синтезаторов речи является то, что их можно обучать только на данных, специально подготовленных для этой задачи. Расшифрованных, размеченных, проверенных. Эти входные данные (известные как "монотонные", чистые данные) трудно воспроизвести, поэтому их очень мало.

                    Но разработчики Meta построили Voicebox на основе недавно предложенного метода Flow Matching вместо обычной авторегрессивной модели. Flow Matching последнее достижение компании Цукерберга в области неавторегрессивных генеративных ИИ. Оно позволяет изучать недетерминированное сопоставление между текстом и речью, искать в словах логику и контекст. Что позволяет Voicebox учиться на различных речевых данных без необходимости тщательно их маркировать. В результате их модель смогла обучаться на более разнообразных данных и гораздо большем их количестве.

                    Обычно речевые генеративные ИИ обучаются на нескольких десятках или максимум сотнях часов данных. Voicebox же учился на 60 000 часах аудиокниг на английском языке и еще 50 000 часах аудиокниг на других языках. Разработчики также говорят, что у них самый большой дата-сет голосов в мире в том числе из-за возможности доступа к данным социальной сети.

                    В документе, опубликованном Meta AI, компания утверждает, что может генерировать аудиосэмплы в 20 раз быстрее, чем VALL-E от Microsoft, и куда более разборчиво (1,9% ошибок вместо 5,9%). Также они утверждают, что по сравнению с предыдущей лучшей многоязыковой моделью YourTTS (см. GitHub) новый продукт снижает средний уровень ошибок при произношении "не английских" слов с 10,9% до 5,2%, а также увеличивает сходство звука с 0,335 до 0,481.



                    Meta делает свои новые ИИ общедоступными, но не на этот раз. В компании не раскрыли, на каких материалах производилось обучение Voicebox, и пока не открыли технологию публике потому что очень опасаются злоупотреблений. Компания боится, что система будет использоваться для изготовления "слишком реалистичных" дипфейков, и они погрязнут в череде скандалов. Возможно, Voicebox останется закрытым, пока разработчики не выпустят инструмент для выявления созданных им голосов.

                    Среди ограничений модели создатели отмечают, что, хотя Voicebox дает впечатляющие результаты в плане передачи звукового стиля (голос, тон, эмоции и так далее), модель не позволяет контролировать каждый атрибут в отдельности. То есть нельзя попросить модель генерировать речь, напоминающую голос одного образца, но с эмоцией из другого образца. Разработчики планируют реализовать контроль всех этих атрибутов через текстовые описания (уже всем известные промпты, как у ChatGPT) чтобы можно было сказать "сделай то же самое, но на два тона выше" или "сделай с придыханием", или "сделай в назидательном тоне". Но это на будущее.

                    Пока что создатели больше всего боятся этических и юридических последствий от выпуска своего детища. С ним любой сможет создавать аудио, используя записи человеческого голоса без разрешения. Делать песни голосом Джона Леннона или заявления голосом Байдена. Можно использовать голоса политиков, умерших людей, вообще кого угодно. Право человека на свой собственный голос уходит куда-то в прошлое.

                    Чтобы как-то нивелировать это, в своих документах Meta утверждает, что уже разработала модель бинарной классификации, которая сможет различать реальную речь и ту, что была сгенерирована с помощью Voicebox. Сейчас они изучают, есть ли способы обойти эту проверку. Если все будет нормально Voicebox смогут выпустить из бутылки.

                    Пока что прослушать варианты синтезированной речи можно тут. Имплементация на GitHub есть здесь. Подробное описание метода Flow Matching, которое они использовали для создания модели в третьем разделе этого документа.
                    Последний раз редактировалось Oscar Smith; 06-30-2023, 12:22 PM.

                    Комментарий


                    • #11
                      Ученые из Ассоциации космических исследований университетов (USRA), Института SETI и NASA обнаружили 69 новых экзопланет планет за пределами нашей Солнечной системы. Для этого они использовали машинное обучение. Результаты их работы опубликуют в журнале Astronomical Journal.



                      На изображении показаны размеры и длина орбиты различных планет. Символы "+" (для Kepler), "⋄" (для K2) и "*" (для TESS) показывают, где была обнаружена каждая планета. Новые планеты, найденные в данном исследовании с помощью инструмента ExoMiner V1.2, отмечены пурпурным квадратом. Для сравнения, Земля отмечена черным кругом.

                      Планеты за пределами нашей Солнечной системы называются экзопланетами. Ученые обычно находят их, наблюдая за изменениями в свете звезд. Когда планета проходит перед звездой, ее свет немного тускнеет. Но иногда свет меняется из-за других факторов, и тогда трудно определить, планета это или нет.

                      В ходе исследования ученые использовали инструмент машинного обучения ExoMiner и концепцию множественности. Это означает, что если у звезды уже есть одна планета, то, скорее всего, у нее будут и другие, и об этом будет свидетельствовать изменение в ее свете.

                      Ученые уже использовали ExoMiner в 2021 году для проверки 301 возможной новой планеты. Но в этот раз они усовершенствовали инструмент. Теперь он может использовать больше информации о небесных телах, чтобы быть уверенным, когда находит новую планету.

                      Комментарий


                      • #12
                        Рыночная капитализация американской компании Apple в пятницу превысила отметку в 3 триллиона долларов, поскольку инвесторы делают ставку на способность производителя iPhone наращивать доходы, даже когда он осваивает новые рынки, такие как виртуальная реальность и искусственный интеллект.



                        Акции Apple, которая также является самой дорогой компанией мира, котирующейся на бирже, выросли на 1,3% до 191,99 долл на утренних торгах. В этом году они подскочили почти на 46%, и по текущей цене рыночная стоимость компании составляет 3,02 триллиона долларов.



                        Сейчас четыре другие американские компании оцениваются в более чем 1 триллион долларов - Alphabet Inc, Microsoft Corp, Amazon и Nvidia Corp.

                        Так же загляните сюда - https://www.vforum.org/forum/t7047-p...tml#post443236.

                        Комментарий


                        • #13
                          Как оценить масштаб рыночной капитализации Apple в 3 трлн долларов? Представьте, что Россия решила купить эту компанию. Для этого ей придется потратить все деньги, которые будут зарабатываться в течении двух лет всей страной, и два года сидеть без денег. И вот только тогда Россия сможет купить эту компанию. Но в таком случае страна перестанет существовать в экономическом плане, да и вообще, наверное, перестанет, т.к. в стране вообще не будет денег, а значит все встанет и умрет. Не будет даже пенсий.
                          Последний раз редактировалось Oscar Smith; 06-30-2023, 07:43 PM.

                          Комментарий


                          • #14
                            Google опубликовала обновленные положения политики конфиденциальности. Как утверждает портал Gizmodo, согласно изменениям корпорация оставляет за собой право использовать практически весь существующий в Сети контент для обучения своей нейросети Bard.



                            В документе сказано, что Google может использовать общедоступные данные, а таковыми будет "вся информация, которая опубликована на любом сайте, индексируемом поисковой системой Google". С ее помощью разработчики будут улучшать также такие нейросетевые сервисы, как Google Translate и Cloud AI.

                            "Google использует информацию для улучшения наших услуг и разработки новых продуктов, функций и технологий, которые приносят пользу нашим пользователям и обществу", говорится в опубликованном документе Google.

                            Эксперты Gizmodo отмечают, что это необычный пункт политики конфиденциальности.

                            "Как правило, эти правила описывают, как корпорация использует информацию, которую вы публикуете в собственных сервисах компании. Здесь же Google оставляет за собой право собирать и использовать данные, размещенные в любой части общедоступной Сети, как будто весь интернет это собственная игровая площадка искусственного интеллекта компании", говорится на портале.

                            Аналитики задаются вопросом, как корпорация будет использовать эту информацию. Google пока не ответила на запрос портала. Авторы поинтересовались законностью таких действий, а также тем, как новшество повлияет на потребителей и разработчиков сторонних инструментов.

                            Новая политика конфиденциальности Google вступила в силу 1 июля 2023 года.
                            Последний раз редактировалось Oscar Smith; 07-04-2023, 06:51 PM.

                            Комментарий


                            • #15
                              В США продолжается полным ходом строительство все большего количества суперкомпьютеров, способных работать с искусственным интеллектом.

                              Будь то Meta, Google, Microsoft или другие облачные провайдеры - NVIDIA вряд ли сможет спастись от спроса на ускорители H100. О том, какое количество оборудования здесь требуется, наглядно свидетельствует объявление близкого партнера NVIDIA: ИИ-стартапа Inflection AI, который сейчас оценивается в 1,5 миллиарда долларов США и в который инвестировали такие люди, как Билл Гейтс и Эрик Шмидт, а также NVIDIA.

                              Новый суперкомпьютер будет иметь 22 000 ускорителей H100. Это сделает его второй по скорости системой в мире с точностью FP64 - сразу после Frontier, нынешнего лидера. В настоящее время используется кластер с 3 584 ускорителями H100, которые эксплуатируются компанией Microsoft в Azure и управляются провайдером облачных услуг CoreWeave. С помощью этой системы недавно были установлены новые максимальные значения для эталона обучения MLPerf.



                              Приобретение 22 000 ускорителей H100 является следующим шагом и в то же время представляет собой огромную задачу, поскольку речь идет о почти 700 серверных стойках с четырьмя узлами, каждый из которых состоит из процессора Intel и восьми ускорителей H100. Такая система будет потреблять до 31 МВт энергии, а ее стоимость по прейскурантной цене составит около миллиарда долларов США. Но тот факт, что NVIDIA непосредственно участвует в Inflection AI, должен помочь здесь.

                              Сайт Inflection AI - Inflection.

                              ----------------

                              Напоминаю, что в данный момент в США строятся следующие суперкомпьютеры для ИИ:

                              1. El Capitan - 2 экзафлопса;
                              2. Aurora - 2 экзафлопса;
                              3. Research SuperCluster - 5 экзафлопсов;
                              4. Compute Engine A3 - 26 экзафлопсов;
                              5. Tesla Dojo.

                              Все эти суперкомпьютеры будут самыми мощными в мире.

                              Действующих же суперкомпьютеров в США на данный момент 150 (мировое лидерство), самый мощный из которых Frontier со скоростью вычислений почти в 2 экзафлопса, что пока является мировым рекордом.

                              Комментарий

                              Обработка...
                              X