Понравилось Понравилось:  0
Благодарности Благодарности:  0
Показано с 1 по 13 из 13

Тема: Orca 2

  1. #1 (458864)

    Orca 2

    Компания Microsoft представила Orca 2, ознаменовав тем самым значительное продвижение в области искусственного интеллекта. Новая модель ИИ демонстрирует мастерство в решении сложных задач, в рассуждениях и свободно общается на естественном языке.



    Понимание Orca 2: сущность малых языковых моделей

    Orca 2 представляет собой важный шаг в исследовании компанией Microsoft небольших языковых моделей, в частности, моделей с числом параметров не более 13 млрд. Мотивация, побуждающая сосредоточиться на небольших моделях, заключается в их практических преимуществах перед более крупными аналогами, такими как GPT-4, PaLM 2 или LLaMA 2. Маленькие модели легче обучать, настраивать и эксплуатировать, они требуют меньше вычислительной мощности и энергии. Это делает их более доступными и экономически эффективными для организаций разного масштаба и отраслей.

    Несмотря на практические преимущества малых моделей, они также сталкиваются с проблемами, связанными с обеспечением точного выполнения сложных задач, требующих развитых навыков рассуждения.

    Orca 2: преодоление разрыва с более крупными моделями

    Orca 2, имеющая от 7 до 13 млрд. параметров, создается путем тонкой настройки соответствующих моделей на основе LLaMA 2 на специализированных высококачественных синтетических данных. Цель состоит в том, чтобы преодолеть ограничения малых моделей, эмулируя процессы рассуждений больших моделей, таких как GPT-4. Orca 2 обучается на основе богатых сигналов, предоставляемых GPT-4, включая трассировку объяснений, пошаговые мыслительные процессы и сложные инструкции. Под руководством преподавателей-ассистентов из ChatGPT Orca 2 осваивает различные техники рассуждений, что позволяет ей успешно решать разнообразные задачи.

    Важно развеять распространенное заблуждение: Orca 2 - это не просто уменьшенная версия GPT-4. Напротив, это интеллектуальная и эффективная модель, способная достигать сопоставимого или даже превосходящего уровня производительности при решении сложных задач. Это особенно наглядно проявляется в условиях "нулевого выстрела", когда модель тестируется без предварительного обучения и примеров, демонстрируя свои способности к обобщению и адаптации.

    Оценка производительности: Orca 2 демонстрирует высокие результаты при решении сложных задач

    Orca 2 демонстрирует высокую производительность в различных бенчмарках, демонстрируя свою универсальность в различных задачах и областях. Особо следует отметить его выдающуюся производительность на наборе данных GSM 8K - коллекции из более чем 8,5 тысяч высококачественных лингвистически разнообразных задач по математике для школьников. Orca 2 демонстрирует превосходство в многошаговых математических рассуждениях, превосходя модели аналогичного размера и даже конкурируя с такими крупными моделями, как GPT-4 и LLaMA 2 Chat 70B.

    Помимо набора данных GSM 8K, Orca 2 демонстрирует высокие результаты в таких бенчмарках, как Big Bench Hard, оценивающих сложные рассуждения в таких сценариях, как логические головоломки, задачи на слова и IQ-тесты. Он демонстрирует конкурентоспособную производительность на профессиональных и академических экзаменах, включая SAT, LSAT, GRE и GMAT, даже в условиях "нулевого выстрела" без внешних источников знаний.

    Отличия Orca 2 от предшественницы и решение проблем

    В Orca 2, несмотря на то, что количество параметров составляет 13 млрд., как и у ее предшественницы, оригинальной модели Orca, внесен ряд усовершенствований и улучшений. Используя базовую модель LLaMA 2, Orca 2 совершенствует свои навыки рассуждений на высококачественных синтетических данных, демонстрируя превосходную производительность в таких бенчмарках, как набор данных GSM 8K и Big Bench Hard.

    В коммуникативном плане Orca 2 демонстрирует превосходство в создании естественных, плавных текстов, разговоров и объяснений. Она использует целый ряд языковых особенностей, включая риторические вопросы, непринужденные выражения и эмоции. Примечательно, что Orca 2 отличается повышенной надежностью и устойчивостью, позволяя обрабатывать более широкий спектр входных и выходных данных, распознавая и предотвращая предвзятость и этические проблемы.

    Несмотря на впечатляющие возможности, Orca 2 не лишена недостатков. Она унаследовала проблемы от своих предшественников, включая необъективность данных, проблемы с контекстом и этические проблемы. Необходимо постоянно совершенствовать систему, и такие стратегии, как обучение с подкреплением на основе обратной связи с человеком (RHF), что может повысить соответствие Orca 2 человеческим ценностям и безопасности.

    Ответственное использование Orca 2: доступность открытого исходного кода и практическое применение

    Компания Microsoft пошла навстречу открытости, сделав Orca 2 с открытым исходным кодом, обеспечив доступ, использование и совершенствование продукта широким сообществом. Пользователи могут запускать Orca 2 на своих компьютерах, используя среду Python и такие интерфейсы, как LM Studio. Онлайновые платформы, такие как Hugging Face и Replicate, предоставляют доступ к Orca 2 для решения таких задач, как ответы на вопросы, генерация текста, обобщение контента и создание кода.

    Очень важно ответственно подходить к использованию Orca 2. Несмотря на то, что она отлично справляется с различными задачами, существует риск создания неуместного или вредного контента, особенно в незнакомых областях. Пользователям рекомендуется проверять точность и достоверность информации, предоставляемой Orca 2, и воздерживаться от ее использования в неэтичных целях. Соблюдение лицензионного соглашения и правил использования Orca 2 является обязательным.

    Заключение: влияние Orca 2 и перспективы развития

    Orca 2 представляет собой значительный шаг в области ИИ, демонстрируя впечатляющие рассуждения и языковые навыки среди небольших языковых моделей. Его универсальность и адаптивность делают его ценным инструментом в различных задачах и областях. По мере того как пользователи будут внедрять Orca 2 в свои проекты, ответственное использование и постоянное совершенствование будут играть ключевую роль в использовании его потенциала для достижения положительных результатов.

    ---------------

    Скачать языковую модель Orca 2 13b можно здесь - microsoft/Orca-2-13b * Hugging Face.
    Последний раз редактировалось Oscar Smith; 26.11.2023 в 18:32.

  2. #2 (458968) | Ответ на # 458864
    Hugging Face - американская компания, разрабатывающая инструменты для создания приложений с использованием машинного обучения. Ее интернет-библиотека насчитывает уже более 400 000 моделей ИИ с открытым исходным кодом со всего мира.



    Ссылка - https://huggingface.co/models/.

    Все эти модели можно скачать на свой компьютер и использовать в личных целях.

    Для запуска моделей нужен мощный компьютер. Если у вас его нет, то Hugging Face предоставляет возможность арендовать вычислительные мощности за небольшую плату.
    Последний раз редактировалось Oscar Smith; 27.11.2023 в 17:04.

  3. #3 (459076) | Ответ на # 458968
    Amazon Web Services представила Arm-процессор нового поколения Graviton4 и ИИ-ускоритель Trainium2, предназначенный для обучения нейронных сетей. Всего к текущему моменту компания выпустила уже 2 млн Arm-процессоров Graviton, которыми пользуются более 50 тыс. клиентов.



    По сравнению с Graviton3 новый чип Graviton4 производительнее на 30%, включает на 50% больше ядер и имеет на 75% выше пропускную способность памяти. Graviton4 имеет до 96 ядер Neoverse V2 Demeter (2 Мбайт L2-кеша на ядро) и 12 каналов DDR5-5600. Кроме того, новый чип получил поддержку шифрования трафика для всех своих аппаратных интерфейсов. Процессор изготавливается по 4-нм техпроцессу TSMC.

    Поначалу Graviton4 будет доступен в инстансах R8g, оптимизированных для приложений, интенсивно использующих ресурсы памяти — высокопроизводительные базы данных, in-memory кеши и Big Data. Эти инстансы будут поддерживать более крупные конфигурации, иметь в три раза больше vCPU и в три раза больше памяти по сравнению с инстансами Rg7, которые имели до 64 vCPU и 512 Гбайт ОЗУ.



    В свою очередь, Trainium2 предназначен для обучения больших языковых моделей (LLM) и базовых моделей. Ускоритель в сравнении с Trainium1 вчетверо производительнее и при этом имеет в 3 раза больший объем памяти и в 2 раза более высокую энергоэффективность. Инстансы EC2 Trn2 получат 16 ИИ-ускорителей с возможностью масштабирования до 100 тыс. единиц в составе EC2 UltraCluster, которые суммарно дадут производительность 65 Эфлоп/с (65 квинтиллионов операций в секунду), то есть по 650 Тфлоп/с на ускоритель. Это позволит обучать LLM с 300 млрд параметров за недели вместо месяцев.

    ----------------------

    Ранее компания NVIDIA представила свой новый ИИ-ускоритель H200 - https://www.vforum.org/forum/t7367-p...tml#post457027.

    Компания Microsoft так же анонсировала процессор Cobalt 100 и ИИ-ускоритель Maia 100 - https://www.vforum.org/forum/t7367-p...tml#post457158.
    Последний раз редактировалось Oscar Smith; 29.11.2023 в 05:35.

  4. #4 (459098) | Ответ на # 459076
    Компания NVIDIA совместно с облачным провайдером Amazon Web Services (AWS) представила ряд новых совместных решений, в основном, связанных с ИИ. Компании анонсировали мощные системы NVIDIA GH200 NVL32 для обучения и запуска нейросетей, а также объявили о создании на основе этих систем облачного ИИ-суперкомпьютера — Project Ceiba.

    NVIDIA GH200 NVL32 представляет собой готовую систему, выполненную в формате стандартной серверной стойки. Она объединяет 32 гибридных ускорителя NVIDIA GH200 Grace Hopper Superchip, которые представляют собой двухчиповую систему из центрального процессора с 72 ядрами Arm Neoverse и графического процессора NVIDIA H100. Такая стойка сможет обеспечить выдающуюся производительность — до 128 Пфлоп/c в операциях FP8 (128 квадриллионов операций в секунду).



    Система обладает 2304 процессорными Arm-ядрами, 20 Тбайт оперативной памяти, включая 4,5 Тбайт HBM3e с общей пропускной способностью 157 Тбайт/с. За связь между суперчипами GH200 отвечают девять коммутаторов NVSwitch и интерфейс NVLink с общей пропускной способностью 57,6 Тбайт/с. Применяется система жидкостного охлаждения. AWS первой предложит системы GH200 NVL32 в составе облачной платформы NVIDIA DGX Cloud. Более того, Amazon даст возможность клиентам объединять новые системы NVIDIA в кластеры EC2 UltraClasters, получая в своt распоряжение тысячи ускорителей GH200 Superchip. По словам самой NVIDIA, системы GH200 NVL32 идеально подходят как для обучения, так и для запуска крупных нейросетей — даже с 1 трлн параметров.

    Также компании анонсировали создание Project Ceiba — одного из самого быстрого в мире суперкомпьютера для ИИ на базе GPU. Система обеспечит производительность в ИИ-вычислениях 65 Эфлоп/c (быстрее только суперкомпьютер Tesla Dojo с производительностью 100 Эфлоп/c). Она объединит в себе 16 384 ускорителя GH200, а также 9,1 Пбайт памяти и обеспечит общую пропускную способность интерконнекта на уровне 410 Тбайт/с. Суперкомпьютер будет частью облака AWS DGX Cloud и станет доступен клиентам AWS в следующем году.


  5. #5 (459099) | Ответ на # 459098
    Обновился рейтинг мощнейших суперкомпьютеров мира TOP500.

    В 62-м выпуске TOP500 система Frontier сохраняет свое первое место. Однако пять новых или модернизированных систем всколыхнули первую десятку.

    Система Frontier, расположенная в Национальной лаборатории Оук-Ридж в штате Теннесси, США, возглавляет список с результатом HPL 1.194 Эфлоп/с - без изменений по сравнению со списком июня 2023 года. Frontier использует процессоры AMD EPYC 64C 2 ГГц и базируется на новейшей архитектуре HPE Cray EX235a. Суммарное количество ядер CPU и GPU в системе составляет 8 699 904. Кроме того, Frontier имеет впечатляющий показатель энергоэффективности - 52.59 Гфлопс/ватт, а для передачи данных используется сеть HPE Slingshot 11.

    Новая система Aurora, установленная в Аргоннской национальной лаборатории в штате Иллинойс, США, вошла в список под вторым номером, который ранее занимала Fugaku, с показателем HPL 585.34 Пфлоп/с. При этом важно отметить, что показатели Aurora были представлены с измерениями на половине планируемой мощности конечной системы. В настоящее время система Aurora вводится в эксплуатацию, и, как сообщается, после завершения работ она превзойдет показатели Frontier, достигнув пиковой производительности 2 Эфлоп/с.

    Система Aurora построена компанией Intel на базе HPE Cray EX - Intel Exascale Compute Blade, в котором используются процессоры Intel Xeon CPU Max Series и ускорители Intel Data Center GPU Max Series. Связь между ними осуществляется через сетевой интерконнект HPE Slingshot-11.

    Во всем списке 20 новых систем теперь используют процессоры Intel Sapphire Rapids. Таким образом, общее число систем, использующих этот процессор, достигло 25, и теперь процессор Intel Sapphire Rapids лидирует среди новых систем. Однако из 45 новых систем, представленных в списке, только четыре используют соответствующий графический процессор Intel, причем Aurora - с большим отрывом.

    Еще одна новая система под названием Eagle, установленная в облаке Microsoft Azure Cloud в США, заняла 3-е место. Это самая высокая позиция облачной системы в TOP500. Более того, всего 2 года назад предыдущая система Azure стала первой облачной системой, вошедшей в TOP10 на 10-м месте. Эта система Microsoft NDv5 имеет показатель HPL 561.2 Пфлоп/с и построена на базе процессоров Intel Xeon Platinum 8480C и ускорителей NVIDIA H100.

    Система Fugaku заняла 4-е место после 2-го места в списке на июнь 2023 года и удержания 1-го места с июня 2020 года по ноябрь 2021 года. Эта система, расположенная в Кобе, Япония, имеет показатель HPL 442.01 Пфлоп/с. Она остается самой высокорейтинговой системой за пределами США.

    Система LUMI, расположенная в Euro HPC/CSC в Каяани, Финляндия, заняла пятое место с показателем HPL 379.70 Пфлоп/с. Эта система является крупнейшей в Европе и неоднократно подвергалась модернизации, что позволило ей удержаться в верхней части списка, на этот раз улучшив свой результат с 309.10 Пфлоп/с в прошлом списке.



    Рейтинг десяти самых мощных суперкомпьютеров по пиковым скоростям в FP64 вычислениях:

    1. Frontier (США) - 1,679.82 Пфлоп/с
    2. Aurora (США) - 1,059.33 Пфлоп/с (2 Эфлоп/с в следующем году)
    3. Eagle (США) - 846.84 Пфлоп/с
    4. Fugaku (Япония) - 537.21 Пфлоп/с
    5. LUMI (Финляндия) - 531.51 Пфлоп/с
    6. Leonardo (Италия) - 304.47 Пфлоп/с
    7. MareNostrum 5 ACC (Испания) - 265.57 Пфлоп/с
    8. Summit (США) - 200.79 Пфлоп/с
    9. Eos NVIDIA DGX SuperPOD (США) - 188.65 Пфлоп/с
    10. Sierra (США) - 125.71 Пфлоп/с

    Все эти суперкомпьютеры работают на базе процессоров от компаний Intel, AMD, IBM, NVIDIA и Fujitsu.

    Всего в рейтинге TOP500 участвуют 500 суперкомпьютеров со всего мира, 161 из которых находятся в США, 104 в Китае и 7 в России.

    В данном рейтинге не учитывается скорость ИИ-вычислений, которая может достигать десятков Эфлоп/с. Например, суперкомпьютер Dojo американской компании Tesla достигает самой большой в мире скорости ИИ-вычислений 100 Эфлоп/с.
    Последний раз редактировалось Oscar Smith; 29.11.2023 в 14:48.

  6. #6 (459247) | Ответ на # 459099
    Исследователям Google DeepMind с помощью искусственного интеллекта удалось открыть 2,2 млн ранее неизвестных кристаллических материалов, из которых 380 тыс. признаны стабильными. Многие из них могут быть полезны в разных технологических областях: от батарей до сверхпроводников. Ученые с помощью роботизированной лаборатории смогли воспроизвести части этих материалов. Прежде на это ушли бы годы, а сейчас — полмесяца.



    Лаборатория A-Lab с помощью роботов оперирует самыми разными ингредиентами, такими как оксид никеля и карбонат лития, предназначенные для получения новых и интересных экспериментальных материалов, некоторые из которых могут найти применения в будущих аккумуляторах. Результаты могут быть непредсказуемыми. Даже ученый-человек обычно не создает то, что нужно с первого раза. Поэтому иногда роботы производят просто красивый порошок. В других случаях это расплавленное клейкое месиво, или все испаряется, и ничего не остается.

    "В этот момент человеку придется принимать решение: Что мне теперь делать?", — говорит Гербранд Седер, материаловед из Лаборатории Лоренса Беркли (LBL) в Калифорнийском университете Беркли. Роботы должны то же самое. Они анализируют то, что получилось, корректируют рецепт и пробуют снова. И еще раз. И снова. "Утром вы даете им несколько рецептов, а когда возвращаетесь домой, у вас может получиться новое прекрасное суфле, — отмечает материаловед Кристин Перссон, сотрудница Седера в LBL. — А может быть, вы вернетесь в сгоревший беспорядок! Но, по крайней мере, завтра они сделают суфле намного лучше".

    Недавно ассортимент "блюд", доступных роботам в LBL, вырос в геометрической прогрессии благодаря программе искусственного интеллекта, разработанной Google DeepMind. Алгоритм, получивший название GNoME, был обучен на основе данных из проекта "Материалы" — бесплатной базы данных, содержащей 150 000 известных материалов, которую курирует Перссон. Используя эту информацию, система искусственного интеллекта предложила проекты материалов, содержащие 2,2 миллиона новых кристаллов, из которых 380 000 были признаны стабильными. Они не разлагаются и не взрываются, а значит, наиболее подходят для синтеза в лаборатории, что расширило диапазон известных стабильных материалов почти в 10 раз. В статье, опубликованной в Nature, авторы пишут, что в этой расширенной базе данных может скрываться следующий инновационный твердотельный электролит, или материал для солнечных батарей, или высокотемпературный сверхпроводник.

    Поиск иголок в стоге сена начинается с их изготовления, что является еще одной причиной для быстрой и непрерывной работы. В ходе недавних экспериментов автономная лаборатория Седера в LBL смогла создать 41 теоретический материал с помощью GNoME за 17 дней, что помогло подтвердить дееспособность как модели ИИ, так и роботизированных методов лаборатории.

    При принятии решения о том, можно ли на самом деле изготовить материал, будь то человеческими руками или руками робота, одним из первых вопросов является вопрос о его стабильности. Как правило, это означает, что совокупность атомов находится в минимально возможном энергетическом состоянии. В противном случае кристалл захочет превратиться во что-то другое. На протяжении тысячелетий люди постоянно пополняли список стабильных материалов, первоначально наблюдая за теми, что встречаются в природе, или открывая их благодаря элементарной химической интуиции или случайности. В последнее время материалы стали разрабатывать с помощью компьютеров.

    Проблема, по мнению Перссон, заключается в предвзятости: со временем коллективные знания стали отдавать предпочтение определенным знакомым структурам и элементам. Материаловеды называют это "эффектом Эдисона": знаменитый изобретатель активно использовал метод проб и ошибок при создании нити накаливания. В ходе подбора материала для нее были испытаны тысячи видов углерода, прежде чем ученый пришел к разновидности, полученной из бамбука. Венгерской группе потребовалось еще десять лет, чтобы придумать использовать вольфрам. "Он был ограничен своими знаниями, — утверждает Перссон. — Он был предвзят, он был предубежден".

    Подход DeepMind призван преодолеть эти предубеждения. Команда начала с 69 000 материалов из базы данных, которая является бесплатной и финансируется Министерством энергетики США. Это было хорошее начало, поскольку база данных содержит подробную энергетическую информацию, необходимую для понимания того, почему одни материалы стабильны, а другие — нет. Но этих данных недостаточно, чтобы преодолеть то, что исследователь Google DeepMind Экин Догус Кубук называет "философским противоречием" между машинным обучением и эмпирической наукой.

    Как и Эдисон, ИИ борется за то, чтобы генерировать действительно новые идеи, выходящие за рамки того, что он видел раньше. "В физике вы никогда не займетесь изучением того, что уже знаете, — говорит он. — Вы почти всегда хотите обобщить то, что вам уже известно, — будь то открытие другого класса материалов для батарей или новой теории сверхпроводимости".

    GNoME использует подход, называемый активным обучением. Сначала графовая нейронная сеть (GNN) использует базу данных материалов для изучения закономерностей в стабильных структурах и выяснения того, как минимизировать энергию атомных связей в новых структурах. Используя весь диапазон периодической таблицы Менделеева, она выдает тысячи потенциально стабильных кандидатов в материалы. Следующий шаг — их проверка и корректировка с помощью метода квантовой механики, называемого теорией функционала плотности, или DFT. На следующем этапе эти уточненные результаты снова подключаются к обучающим датасетам, и процесс повторяется.

    Исследователи обнаружили, что при многократном повторении этот подход позволяет генерировать более сложные структуры, чем те, которые изначально были в датасете Materials Project, включая некоторые, состоящие из пяти или шести уникальных элементов. (Датасет, использовавшийся для обучения ИИ, в основном ограничивался четырьмя). Эти типы материалов включают так много сложных атомных взаимодействий, что они обычно не поддаются человеческой интуиции.

    Но DFT — это только теоретическое обоснование. Следующий шаг — это реальное создание чего-либо. Поэтому команда Седера выбрала 58 теоретически возможных кристаллов для создания в лаборатории A-Lab. Учитывая возможности лаборатории и доступные компоненты, выбор был случайным. И поначалу, как и ожидалось, роботы терпели неудачи, а затем система неоднократно корректировала рецепты. После 17 дней экспериментов A-Lab удалось получить 41 стабильный материал, или 71% от изначально выбранного перечня, причем иногда после опробования десятка различных рецептов.

    Лишь часть из 380 000 материалов, описанных в статье Nature, может быть создана на практике. Некоторые из них включают радиоактивные элементы, слишком дорогие или редкие. Некоторые потребуют синтеза в экстремальных условиях, которые невозможно создать в лаборатории, а каким-то нужны составляющие, которые ученым просто неоткуда взять. Это, скорее всего, относится даже к материалам, которые могут стать потенциально полезными при создании фотоэлектрического элемента или батареи следующего поколения. "Мы придумали много классных материалов, – утверждает Перссон. – Их изготовление и тестирование неизменно оказываются узким местом, особенно если речь идет о материале, который еще никто не делал. Число людей, которым я могу позвонить из своего круга друзей и сказать: "Конечно, давайте я займусь этим для вас", – всего лишь один или два человека". "Действительно, неужели так много?" – с улыбкой спрашивает Седер.

    Даже если материал может быть создан, предстоит долгий путь превращения базового кристалла в продукт. Перссон приводит в пример электролит внутри литийионного аккумулятора. Предсказания об энергии и структуре кристалла могут быть применены для решения таких задач, как определение того, насколько легко ионы лития могут перемещаться по нему – это ключевой аспект производительности. Но что не так легко предсказать, так это то, вступит ли этот электролит в реакцию с соседними материалами и не разрушит ли он все устройство? К тому же, как правило, полезность новых материалов становится очевидной только в сочетании с другими материалами или при манипулировании ими с помощью химических добавок.

    Тем не менее, расширение спектра материалов увеличивает возможности синтеза, а также предоставляет больше данных для будущих программ искусственного интеллекта, говорит Анатоль фон Лилиенфельд, материаловед из Университета Торонто. Кроме того, это помогает материаловедам отвлечься от своих предубеждений и устремиться к неизведанному. "Каждый новый шаг, который вы делаете, – это фантастика, – восхищается он. – Этот шаг может открыть новый класс соединений".

    Google также заинтересована в изучении возможностей новых материалов, созданных GNoME, говорит Пушмит Кохли, вице-президент по исследованиям в Google DeepMind. Он сравнивает GNoME с AlphaFold, программным обеспечением компании, которое поразило структурных биологов своим успехом в предсказании того, как складываются белки. Обе программы решают фундаментальные проблемы, создавая архив новых данных, которые ученые могут изучать и расширять. Далее компания планирует заняться более конкретными проблемами, такими как поиск интересных свойств материалов и использование искусственного интеллекта для ускорения синтеза.

    Обе эти задачи являются сложными, поскольку для начала обычно имеется гораздо меньше данных, чем для прогнозирования стабильности. Кохли говорит, что компания изучает возможности более непосредственной работы с физическими материалами, будь то привлечение сторонних лабораторий или продолжение академического партнерства. Он также добавил, что компания может создать собственную лабораторию, ссылаясь на Isomorphic Labs, подразделение DeepMind, занимающееся разработкой лекарств и основанное в 2021 году после успеха AlphaFold.

    Все может стать сложнее для исследователей, пытающихся применить материалы на практике. Проект "Материалы" популярен как среди академических лабораторий, так и среди корпораций, поскольку он допускает любой тип использования, включая коммерческие предприятия. Кандидаты в материалы, созданные Google DeepMind, выпускаются под отдельной лицензией, которая запрещает коммерческое использование. "Они выпускаются для академических целей, – поясняет Кохли. – Если люди захотят исследовать и изучить возможность коммерческого партнерства, мы будем рассматривать их заявки индивидуально в каждом конкретном случае".
    Последний раз редактировалось Oscar Smith; 01.12.2023 в 05:05.

  7. #7 (459296) | Ответ на # 459247
    Цитата Сообщение от VladislavMotkov Посмотреть сообщение
    Исследователям Google DeepMind с помощью искусственного интеллекта удалось открыть 2,2 млн ранее неизвестных кристаллических материалов, из которых 380 тыс. признаны стабильными. Многие из них могут быть полезны в разных технологических областях: от батарей до сверхпроводников. Ученые с помощью роботизированной лаборатории смогли воспроизвести части этих материалов. Прежде на это ушли бы годы, а сейчас — полмесяца.
    Не просто годы, а 800 лет, если бы ученые искали эти материалы своими мозгами и руками. Согласно исследованию, количество теоретически устойчивых соединений, обнаруженных при помощи инструмента ИИ GNoME, превышает все ранее известные материалы в 45 раз. Это эквивалентно почти 800 годам предыдущих экспериментальных открытий в области. Похоже, что технологическая сингулярность стучится в дверь.

    А вот интересная новость:

    По словам главы компании NVIDIA, если под общим ИИ (AGI) понимать систему, проходящую тесты на уровне с людьми, то в ближайшее время такие алгоритмы будут созданы.

    Среди ключевых препятствий на пути к AGI глава NVIDIA назвал отсутствие у современных алгоритмов способности к многоступенчатым логическим рассуждениям. Однако все ведущие технологические компании активно работают в этом направлении, так что прогресс в сфере ИИ идет очень быстрыми темпами, резюмировал Хуанг.
    Последний раз редактировалось SpaceSpirit; 01.12.2023 в 15:13.

  8. #8 (459323) | Ответ на # 459296
    Цитата Сообщение от SpaceSpirit Посмотреть сообщение
    По словам главы компании NVIDIA, если под общим ИИ (AGI) понимать систему, проходящую тесты на уровне с людьми, то в ближайшее время такие алгоритмы будут созданы.
    Илон Маск того же мнения. Он предлагает впечатляющий прогноз относительно того, что искусственный интеллект меняет все аспекты нашей жизни. Он предсказывает, что сильный ИИ будет более интеллектуальным, чем самый умный человек, способным создавать литературные произведения на уровне Джоан Роулинг, открывая новые физические законы и изобретая передовые технологии. Маск утверждает, что до реализации этой новой реальности осталось менее трех лет.

    Рэймонд Курцвейл тоже считает, что ИИ человеческого уровня будет создан не позднее 2029 года.

    В интересное время живем. Скоро машины будут вместо человека заниматься фигней вроде написания книг и картин. Перед нами бесконечная вселенная, а люди тысячелетиями тратили свою жизнь на стишочки и картинки. Пришло время великих дел, а мелочью пусть занимается ИИ.
    Последний раз редактировалось SpaceSpirit; 02.12.2023 в 09:41.

  9. #9 (459399) | Ответ на # 459323
    Google объявила о переносе запуска своей новейшей ИИ-системы Gemini на январь 2024 года. Изначально планировалось, что запуск состоится на следующей неделе. Это решение связано с необходимостью доработки нейросети для лучшей работы с неанглоязычными запросами.



    На ежегодной конференции I/O 2023 корпорация Google анонсировала свою новейшую ИИ-модель Gemini, в работе над которой принимал участие соучредитель Google и холдинга Alphabet Сергей Брин. По информации издания The Information, компания планировала представить Gemini уже на следующей неделе в рамках мероприятий в Калифорнии, Нью-Йорке и Вашингтоне, ориентированных на политиков и законодателей. Однако теперь запуск нейросети отложен до января следующего года.

    Решение о переносе запуска новаторской ИИ-системы принял генеральный директор Google, Сундар Пичаи. Причиной стала недостаточно надежная работа Gemini с запросами на языках, отличных от английского. Поддержка многоязычности является приоритетом для Google, так как она стремится достичь и даже превзойти уровень ИИ-модели GPT-4 компании OpenAI. По словам источников, в некоторых аспектах Google уже достигла этого стандарта. В ноябре Пичаи заявил, что Google сосредоточена на скорейшем выпуске Gemini 1.0, стремясь к созданию конкурентоспособного и передового продукта. Однако на текущий момент компания все еще работает над финальной версией Gemini.

    Ранее в рамках конференции I/O 2023 корпорация Google отметила, что Gemini будет обладать впечатляющими мультимодальными способностями, превосходящими возможности предыдущих ИИ-моделей. Кроме понимания текста и изображений, Gemini будет нацелена на эффективную интеграцию с API и другими инструментами, что сделает ее привлекательной для разработчиков различных приложений. Google также сообщила о разработке нескольких вариантов Gemini, включая мобильную версию Gecko, и подчеркнула, что Gemini создана для поддержки будущих инноваций, включая функции памяти и планирования.

    -------------------

    Компания OpenAI все же ведет разработку искусственного интеллекта человеческого уровня.

    Во время интервью генеральный директор компании Сэм Альтман не стал отрицать это, сказав: "Никаких особых комментариев по поводу этой досадной утечки. Но то, о чем мы говорили две недели назад, то, что мы говорим сегодня, то, что мы говорили год назад, то, что мы говорили ранее, — это то, что мы ожидаем, что прогресс в этой технологии будет продолжать быть быстрым, а также что мы ожидаем, что мы продолжим очень усердно работать, чтобы выяснить, как сделать ее безопасной и полезной. Вот почему мы вставали каждый день раньше. Поэтому в будущем мы будем вставать каждый день. Я думаю, что мы были чрезвычайно последовательны в этом вопросе", — заявил Альтман.

    Напоминаю, недавно Сэм Альтман проговорился о разработке компанией ИИ человеческого уровня, после чего Альтмана уволили из компании, но после все-же вернули, уволив совет директоров, уволившего Альтмана))).
    Последний раз редактировалось Oscar Smith; 03.12.2023 в 16:11.

  10. #10 (459564) | Ответ на # 459399
    Визит главы NVIDIA Дженсена Хуанга в Японию на этой неделе ознаменовался встречей с министром экономики страны Ясутоси Нисимурой, по итогам которой генеральный директор компании пообещал члену правительства всемерную поддержку в развитии национальной инфраструктуры искусственного интеллекта, включая определенный приоритет в поставках ускорителей вычислений.



    По словам Хуанга, компания NVIDIA создаст в Японии исследовательскую лабораторию в сфере искусственного интеллекта, будет поддерживать материально местные стартапы и обучать японских специалистов работе с системами ИИ. Ранее глава NVIDIA, по данным японских СМИ, встречался с премьер-министром страны Фумио Кисидой, пообещав тому выделить необходимое для развития местной инфраструктуры количество ускорителей вычислений в условиях сохраняющегося дефицита.

    "Мы построим в Японии сеть ИИ-фабрик, чтобы Япония смогла обрабатывать данные своего общества, создавая интеллектуальные решения для общества и промышленности", — заявил глава NVIDIA. Под фабриками Хуанг подразумевает центры обработки данных, специализирующиеся на работе с искусственным интеллектом. По словам главы NVIDIA, Япония могла бы построить собственную инфраструктуру искусственного интеллекта, поскольку обладает необходимыми техническими компетенциями и промышленными возможностями. При этом отпадет необходимость экспортировать данные, на которых будут обучаться местные языковые модели.

    Министр Нисимура подчеркнул, что для создания собственного генеративного искусственного интеллекта Япония нуждается в графических процессорах NVIDIA, и без сотрудничества с этой компанией эта цель была бы недостижима. Углубление сотрудничества с NVIDIA, по словам чиновника, позволит Японии лидировать в сфере инноваций.
    Последний раз редактировалось Oscar Smith; 05.12.2023 в 11:31.

  11. #11 (459590) | Ответ на # 459564
    Американские компании Meta и IBM присоединились к более чем 40 компаниям и организациям для создания отраслевой группы, ориентированной на разработку ИИ на основе открытого исходного кода. Эта инициатива, получившая название AI Alliance, направлена на обмен технологиями и уменьшение рисков в этой динамично развивающейся отрасли.



    AI Alliance сфокусирован на ответственном развитии технологий ИИ, что подразумевает разработку инструментов их защиты и безопасности. Согласно заявлению, группа также стремится увеличить количество открытых ИИ-моделей, контрастируя с проприетарными ИИ-системами, которые предпочитают некоторые компании. В рамках инициативы планируется разработка нового оборудования, сотрудничество с академическими кругами и исследовательскими организациями.

    Приверженцы технологии ИИ с открытым исходным кодом считают этот подход более эффективным для разработки сложных систем. В последние месяцы Meta представила открытые версии своих больших языковых моделей, которые лежат в основе ИИ-чат-ботов.

    "Мы считаем, что разработка ИИ должна быть открытой — так большее количество людей сможет получить доступ к преимуществам, создавать инновационные продукты и работать над безопасностью", — заявил Ник Клегг, президент Meta по международным вопросам.

    Помимо Meta и IBM в числе участников AI Alliance значатся такие технологические компании, как Oracle, AMD, Intel и Stability AI, а также академические и исследовательские учреждения, и даже крупнейшая в мире лаборатория физики высоких энергий CERN, управляющая Большим адронным коллайдером. Предполагается создание управляющего совета и технического надзорного комитета для координации деятельности и разработки стандартов.

    Упомянутая инициатива может стать значительным шагом на пути к более открытому и безопасному будущему ИИ, способствуя балансу между инновациями и этическими стандартами в стремительно развивающейся сфере.

    Сайт AI Alliance - https://thealliance.ai.

    Так же прочтите эту тему и все сообщения в ней - https://www.vforum.org/forum/t7342.html.

    -----------------

    На ежегодной конференции IBM по квантовым вычислениям Quantum Summit 2023 корпорация представила новейший 133-кубитный квантовый процессор Heron и первый модульный квантовый компьютер IBM Quantum System Two на его базе. IBM также анонсировала процессор Condor с 1121 кубитом, который имеет на 50% большую плотность кубитов. По словам главного квантового архитектора IBM Маттиаса Стефана, усилия по созданию этого устройства "открыли путь к масштабированию" квантовых вычислений.



    "Heron — наш самый производительный квантовый процессор на сегодняшний день, он обеспечивает пятикратное снижение ошибок по сравнению с нашим флагманским устройством Eagle, — сказал Стефан. — Он был разработан с учетом модульности и масштабирования".



    Ранее в этом году компания IBM продемонстрировала, что квантовые процессоры могут служить практическими платформами для научных исследований и решения проблем химии, физики и материаловедения, выходящих за рамки классического моделирования квантовой механики методом грубой силы. После этой демонстрации исследователи и ученые из многочисленных организаций, включая Министерство энергетики США, Токийский университет, Q-CTRL и Кельнский университет, использовали квантовые вычисления для решения более крупных и сложных реальных проблем, таких как открытие лекарств и разработка новых материалов.

    "Мы твердо вступили в эпоху, когда квантовые компьютеры используются в качестве инструмента для исследования новых рубежей науки, — сказал Дарио Хил, старший вице-президент и директор по исследованиям IBM. — Поскольку мы продолжаем совершенствовать возможности масштабирования квантовых систем и приносить пользу посредством модульной архитектуры, мы будем и дальше повышать качество стека квантовых технологий промышленного масштаба".

    IBM Quantum System Two размещена на объекте в Йорктаун-Хайтс, Нью-Йорк. Эта система на базе трех квантовых процессоров Heron станет основой архитектуры квантовых вычислений IBM следующего поколения. Она сочетает в себе масштабируемую криогенную инфраструктуру и классические серверы с модульной электроникой управления кубитами. В результате систему можно будет расширять в соответствии с будущими потребностями, и апгрейдить при появлении следующего поколения квантовых процессоров.



    Стремясь облегчить разработчикам и инженерам работу с квантовыми вычислениями, IBM анонсировала выход в феврале 2024 года версии 1.0 набора программных инструментов с открытым исходным кодом Qiskit, который позволяет создавать квантовые программы и запускать их на IBM Quantum Platform или симуляторе. В дополнение к Qiskit, IBM анонсировала Qiskit Patterns — способ, позволяющий квантовым разработчикам легко создавать код и оптимизировать квантовые схемы с помощью Qiskit Runtime, а затем обрабатывать результаты.

    "С помощью Qiskit Patterns и Quantum Serverless вы можете создавать, развертывать, запускать квантовые программы и в будущем предоставлять доступ к ним другим пользователям", — заявил Джей Гамбетта, вице-президент IBM Quantum. На презентации он продемонстрировал использование генеративного ИИ на базе Watson X для создания квантовых схем при помощи базовой модели Granite, обученной на данных Qiskit. "Мы действительно видим всю мощь генеративного ИИ для облегчения труда разработчиков", — заключил Гамбетта.

    -----------------

    Лидерами в разработке квантовых компьютеров являются следующие компании:

    1. Google
    2. IBM
    3. Intel
    4. Microsoft
    5. PsiQuantum
    6. IonQ.
    Последний раз редактировалось Oscar Smith; 05.12.2023 в 16:38.

  12. #12 (459742) | Ответ на # 459590
    У нас в России есть нейросети YandexGPT, GigaChat и Kandinsky. Что о них известно?

  13. #13 (459754) | Ответ на # 459742
    Цитата Сообщение от SpaceSpirit Посмотреть сообщение
    У нас в России есть нейросети YandexGPT, GigaChat и Kandinsky. Что о них известно?
    Чат-бот YandexGPT от компании Yandex построен на базе исходного кода GPT-2 с элементами GPT-3 от компании OpenAI (США).
    Чат-бот GigaChat от компании Sber построен на тех же исходных кодах, что и YandexGPT.
    Генератор изображений Kandinsky от компании Sber построен на базе технологии Stable Diffusion, разработанной Мюнхенским университетом (Германия) с участием компаний Runway (США), EleutherAI (международное сообщество) и LAION (Германия).

    Если говорить о качестве перечисленных нейросетей, то YandexGPT я бы никому не посоветовал. GigaChat у меня нет возможности протестировать, но вряд ли он лучше YandexGPT. Kandinsky качественно и технически имеет много общего со Stable Diffusion от компании Stability AI (Британия), но у российской версии есть проблемы с цветопередачей.

    ИТОГО: Все эти нейросети не являются российскими разработками в полной мере, но в основе своей имеют устаревшие технологии с открытым исходным кодом западных разработчиков и обучены на материалах, отобранных российскими компаниями.
    Последний раз редактировалось Oscar Smith; 06.12.2023 в 14:46.

Метки этой темы

Ваши права

  • Вы не можете создавать новые темы
  • Вы не можете отвечать в темах
  • Вы не можете прикреплять вложения
  • Вы не можете редактировать свои сообщения
  •