Объявление

Свернуть
Пока нет объявлений.

Сверхинтеллект все же будет

Свернуть
X
 
  • Фильтр
  • Время
  • Показать
Очистить всё
новые сообщения

  • Сверхинтеллект все же будет

    Компания OpenAI планирует получить дополнительное финансирование от Microsoft и других партнеров для разработки искусственного интеллекта уровня человека (AGI). Об этом заявил глава компании Сэм Альтман.



    По его словам, сотрудничество с Microsoft идет успешно. Он надеется со временем привлечь намного больше средств от технологического гиганта и других инвесторов, что необходимо в связи с колоссальными затратами на создание сложных моделей ИИ.

    Ранее в этом году Microsoft инвестировала в OpenAI $10 млрд, что повысило стоимость компании до $29 млрд. Альтман выразил надежду, что техногигант будет и дальше вкладываться в развитие стартапа. По его словам, в текущем году выручка компании росла хорошими темпами.

    Кроме того OpenAI зарегистрировала торговую марку GPT-5. Некоторые эксперты считают, что именно эта нейросеть достигнет уровня человеческого интеллекта.

    Ранее Илон Маск сделал заявление о компаниях OpenAI (сооснователем которой он был) и Microsoft: "Они создают какой-то цифровой суперинтеллект, почти богоподобный интеллект".

    -------------

    В данный момент существуют следующие языковые модели (не считая построенных на безе исходного кода GPT-2 и LLaMA, устаревшие и низкокачественные):

    GPT-4 (ChatGPT, Bing Chat) - самый умный;
    Claude 2 - дружелюбный;
    PaLM 2 (Google Bard) - подопытный кролик;
    LLaMA 2 (Meta AI) - с открытым исходным кодом;
    Grok-1 - с чувством юмора.

    Вот список LLM, которые тоже появятся уже в этом году или в следующем:

    1. Gemini (Google) - мультимодальная языковая модель, которая, как считают разработчики, превзойдет нынешнюю GPT-4 от OpenAI. Она сможет общаться с людьми не только текстовыми сообщениями, но и изображениями и аудио. Gemini будет интегрирован во многие сервисы Google, в том числе и в Google Bard. Нейросеть уже проходит тесты.

    2. Компания Meta выпустит в 2024 году новую языковую модель, которая будет в несколько раз превосходить модель LLaMA 2 и сможет конкурировать с GPT-4. Как назовут новую нейросеть пока неизвестно, но она точно будет иметь открытый исходный код, т.е. эту технологию смогут взять для своих аналогичных разработок другие компании со всего мира.

    3. GPT-5 (OpenAI) - будущая мультимодальная языковая модель от компании OpenAI. То, что эта модель точно будет выпущена в ближайшее время, подтверждает заявка компании на регистрацию товарного знака GPT-5. Как считают некоторые эксперты, GPT-5 достигнет AGI.

    4. TruthGPT (xAI) - искусственный интеллект, способный к продвинутому математическому мышлению, чего нет в современных моделях. Кроме того, по заявлению Илона Маска, данная модель, в отличии от других, будет понимать природу вселенной, а не просто знать о ней. Пока неизвестно когда именно будет создан TruthGPT, но, скорее всего, в 2024 году. К тому же Илон уже закупил тысячи процессоров NVIDIA H100 для обучения нейросети.

    Напоминаю, ранее OpenAI презентовала новую версию языковой модели, получившая название GPT-4 Turbo - https://www.vforum.org/forum/t7354.html.
    Последний раз редактировалось Oscar Smith; 11-14-2023, 06:24 PM.

  • #2
    Компания NVIDIA представила самый мощный в мире ускоритель вычислений H200. Он построен на уже знакомой архитектуре NVIDIA Hopper, и фактически представляет собой обновленную с помощью более скоростной памяти HBM3e версию популярного флагманского ускорителя H100. Новая память позволит ускорителю быстрее работать с огромными объемами данных для генеративного ИИ и высокопроизводительных вычислительных нагрузок.



    NVIDIA H200 это первый в мире ИИ процессор с памятью HBM3e, которая отличается от обычной HBM3 более высокой скоростью. NVIDIA H200 получил 141 Гбайт памяти HBM3e со скоростью 4,8 Тбайт/с, что почти вдвое больше по объему и в 2,4 раза больше по пропускной способности по сравнению с памятью ускорителя прошлого поколения NVIDIA A100. Для сравнения, у H100 имеется 80 Гбайт HBM3 со скоростью 3,35 Тбайт/с, тогда как грядущий ускоритель AMD Instinct MI300X получит 192 Гбайт памяти HBM3 со скоростью 5,2 Тбайт/с.



    За счет апгрейда памяти H200 обеспечит значительный рост производительности в работе уже обученных систем искусственного интеллекта (инференсе). Например, NVIDIA обещает увеличение скорости работы большой языковой модели LLaMA 2 с 70 млрд параметров в 1,9 раза, по сравнению с H100. А работу обученной модели GPT-3 с 175 млрд параметров новинка ускорит в 1,6 раза.

    NVIDIA H200 будет доступна в серверных платах NVIDIA HGX H200 в конфигурациях с четырьмя и восемью ускорителями. Причем новинки совместимы как с аппаратным, так и с программным обеспечением систем HGX H100. Производители серверов, включая ASUS, Dell, GIGABYTE и HP выпустят свои системы с ускорителями H200. В свою очередь Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure станут одними из первых поставщиков облачных услуг, которые со следующего года начнут предлагать инстансы на базе H200.

    NVIDIA отмечает, что система HGX H200 с восемью ускорителями обеспечивает производительность более 32 Пфлопс (32 квадриллиона операций в секунду) в вычислениях FP8 для глубокого обучения. Причем такая система обеспечит в сумме 1,1 Тбайт памяти с высокой пропускной способностью для высочайшей производительности в генеративных приложениях ИИ и HPC.

    В паре с Arm-процессорами NVIDIA Grace со сверхбыстрым интерфейсом NVLink-C2C H200 образует суперчип GH200 Grace Hopper с HBM3e. Такие интегрированные модули NVIDIA позиционирует в качестве высокопроизводительных решений для работы с приложениями HPC и ИИ гигантского масштаба.

    Еще NVIDIA представила плату Quad GH200 с четырьмя суперчипами GH200, где все ускорители связаны друг с другом посредством NVLink по схеме каждый-с-каждым. Суммарно плата несет более 2 Тбайт высокоскоростной памяти и 288 ядер Arm, а ее производительность достигает 16 Пфлопс в FP8. До конца будущего года суммарная ИИ-производительность систем с GH200, по оценкам NVIDIA, достигнет 200 Эфлопс.
    Последний раз редактировалось Oscar Smith; 11-14-2023, 05:57 PM.

    Комментарий


    • #3
      Акции американской компании NVIDIA дорожают десятую биржевую сессию подряд, что является самым продолжительным периодом роста с момента рекордного скачка в декабре 2016 года. В ходе этих сессий ценные бумаги выросли на 20%, увеличив рыночную стоимость компании примерно на $200 млрд. Анонс ИИ-ускорителя NVIDIA H200 лишь подстегнул рост за день акции выросли на 7%. С начала года акции NVIDIA выросли на 230%, что сделало их самыми эффективными как в Nasdaq 100, так и в S&P 500.

      Рыночная капитализация NVIDIA, на момент написания этой новости, составляет $1,2 трлн. По этому показателю ее обошли только техногиганты Amazon ($1,5 трлн), Google ($1,7 трлн), Microsoft ($2,7 трлн) и Apple ($3 трлн).
      Последний раз редактировалось Oscar Smith; 11-14-2023, 06:46 PM.

      Комментарий


      • #4
        Глава компании Tesla Илон Маск анонсировал запуск примерно через две недели самой продвинутой версии автопилота FSD v12 для электромобилей Tesla.



        Это ожидание интригующим образом совпадает с запланированной поставкой Tesla Cybertruck на Gigafactory Texas, что вызывает дискуссии о том, дебютирует ли этот электрический пикап с FSD v12. Эта интеграция станет важной вехой, учитывая обещания и производительность, которые Tesla приложила к этой версии.



        FSD v12, продемонстрированный в ходе прямой трансляции, представляет собой сдвиг парадигмы в подходе Tesla к технологии беспилотного вождения. Отказавшись от традиционных датчиков, таких как радар и лидар, система теперь полагается исключительно на камеры и искусственный интеллект. Этот переход к системе на основе искусственного интеллекта и камер, как утверждает Маск, имитирует поведение человека во время вождения более точно, чем когда-либо.

        Переход от бета-версии FSD v11 к v12 заслуживает внимания. Последний, по словам Маска, не полагается на заранее определенный код для рутинных решений вождения, таких как остановка перед знаками или замедление при столкновении с "лежачими полицейскими". Вместо этого для обучения и адаптации он использует огромное количество видеоданных с автомобилей Tesla по всему миру, что резко контрастирует с 300 000 строк программного кода в его предшественнике.

        Комментарий


        • #5
          В рамках конференции Ignite компания Microsoft анонсировала специализированный центральный процессор Cobalt 100, а также специализированный ускоритель вычислений Maia 100. Обе новинки предназначены для ускорения задач, связанных с искусственным интеллектом, а также работой облачных систем.



          Microsoft Azure Cobalt 100 это 128-ядерный процессор с 64-битным набором инструкций Armv9, предназначенный для использования в облачных серверах. Компания заявила, что производительность Cobalt 100 до 40% выше решений на базе Arm, в настоящий момент использующихся в составе серверных систем Microsoft Azure. В процессорах использована платформа Arm Neoverse CSS, адаптированная для Microsoft, предположительно, с ядрами Arm Neoverse N2.

          Microsoft активно внедряет различные технологии искусственного интеллекта во многие свои сервисы и продукты, поэтому компании требуется стабильный доступ к специализированным серверным ускорителям вычислений для соответствующих задач. Для этого компания при поддержке AMD разрабатывала ускорители Athena. В итоге Microsoft сменила их название на Maia 100. Графические чипы в составе этих ускорителей содержат 105 млрд транзисторов и будут производиться с использованием 5-нм техпроцесса TSMC. Microsoft заявляет, что Maia 100 является одной из самых крупных микросхем, производящихся с использованием этого техпроцесса.

          В настоящее время Microsoft тестирует Maia 100 с языковой моделью GPT-3.5 Turbo. Компания заявляет, что Maia 100 обеспечивает совокупную пропускную способность 4,8 Тбит на ускоритель. Для объединения этих ускорителей в составе серверов Microsoft используется интерконнект на основе Ethernet.

          Специализированные процессоры Microsoft Azure Cobalt 100 и ИИ-ускорители Microsoft Azure Maia 100 разработчик начнет использовать в своих серверных системах с начала будущего года. Microsoft также продолжит предоставлять услуги своих облачных сервисов Azure на базе решений компаний NVIDIA и AMD.

          ---------------

          Сейчас в США наблюдается взрывной рост числа разработчиков процессоров, включая и для нужд ИИ-вычислений. Раньше было только четыре компании: Intel, AMD, IBM и NVIDIA, теперь же к их числу добавились: Ampere, Apple, Google, Qualcomm, Microsoft, Amazon, Tesla, Cerebras. Возможно, что есть еще какие-то, но уже нет смысла считать их, потому что мир вошел в эпоху искусственного интеллекта, а значит процессорных разработчиков будет еще больше.

          Кроме того американцы в последнее время взяли курс на полную независимость в сфере производства полупроводников. Не путайте с разработкой. В плане разработки США - абсолютные лидеры. Прямо сейчас тайваньская компания TSMC строит в США полупроводниковую фабрику для производства чипов по технологии 4 и 5 нм с возможностью перехода на 3 нм. В будущем TSMC планирует расширить производство до шести фабрик. Свои производственные мощности на территории США расширяют и компания Intel, строя две фабрики, и южно-корейская Samsung, объявив о строительстве еще одной фабрики.

          У компании Intel, помимо двух строящихся, есть еще около двадцати фабрик в США, Ирландии, Израиле, Малайзии, Коста-Рике и Китае. После увеличения производственных мощностей, Intel станет конкурентом TSMC. И у IBM в США есть две фабрики.

          Так же США вышли на второе место (после Китая) по добыче редкоземельных металлов, которые необходимы в производстве электроники.
          Последний раз редактировалось Oscar Smith; 11-16-2023, 06:15 AM.

          Комментарий


          • #6
            Сообщение от VladislavMotkov Посмотреть сообщение
            Свои производственные мощности на территории США расширяют и компания Intel, строя две фабрики.
            Сейчас Intel строит гигантскую полупроводниковую фабрику в штате Огайо. По словам генерального директора компании Пэта Гелсинджера, новая фабрика станет крупнейшей по производству чипов на планете.

            Предприятие будет располагаться на участке площадью более 400 гектаров, который находится в Нью-Олбани. Строительство уже идет полным ходом, а уже к 2025 году фабрика будет введена в эксплуатацию.

            В будущем участок, на котором расположится новое предприятие, будет расширен до 800 гектаров, что позволит расширить производство полупроводников.

            "Мы помогли создать Кремниевую долину", сказал генеральный директор в интервью Time. "Теперь мы собираемся основать Кремниевую столицу".

            Всего Intel потратит на строительство и расширение до $100 млрд.

            Кроме того Intel сейчас строит полупроводниковую фабрику в штате Аризона.

            По словам CEO, новые фабрики будут производить чипы не только для Intel, но и для других компаний по программе Intel Foundry Services.

            Комментарий


            • #7
              Инвестирующая в создавший ChatGPT стартап OpenAI корпорация Microsoft активно внедряет соответствующие разработки в самые разные области деятельности, и компания Synopsys при поддержке этого программного гиганта смогла создать систему генеративного искусственного интеллекта, помогающую инженерам быстрее проектировать новые процессоры и искать в них дефекты.



              Об этом создающая программный инструментарий для разработки чипов компания Synopsys сообщила на текущей неделе, попутно отметив, что разработанные Microsoft собственные процессоры для облачных систем Azure Cobalt 100 и Maia 100 тоже создавались с привлечением адаптированной версии ассистента Copilot. Перед специалистами Synopsys, которые тренировали эту систему, стояла задача добиться минимального уровня ошибок в работе этого ассистента, поскольку в сфере разработки процессоров наличие дефектов очень дорого обходится компаниям. Они обычно тратят годы и сотни миллионов долларов на разработку одного процессора, а также труд тысяч инженеров. Все проектные решения должны обеспечивать точность на уровне 99,9%.

              Другая проблема при разработке современных процессоров, насчитывающих миллиарды крохотных транзисторов поиск возможных дефектов и отладка проекта. Адаптированная версия Copilot справляется и с этой задачей, ускоряя поиск проблемных мест. Система генеративного интеллекта на ранних этапах проектирования позволяет инженерам сформулировать техническое задание в строго определенных выражениях, которые напоминают язык программирования. Искусственный интеллект в дальнейшем, учитывая накопленный специалистами Synopsys за десятилетия работы опыт, предлагает некие типовые проектные решения. Такой ассистент работает на вычислительных мощностях Microsoft Azure OpenAI. Возможно, после дальнейших испытаний такие средства разработки будут предложены и прочим клиентам Synopsys, а не только Microsoft.

              Официальный сайт - Synopsys | EDA Tools, Semiconductor IP and Application Security Solutions.

              Комментарий

              Обработка...
              X