Понравилось Понравилось:  0
Благодарности Благодарности:  0
Показано с 1 по 18 из 18

Тема: Strawberry

  1. #1 (479463)

    Strawberry

    OpenAI представляет новую большую языковую модель o1, обученную с помощью обучения с подкреплением для выполнения сложных рассуждений. o1 думает, прежде чем ответить — она может создать длинную внутреннюю цепочку рассуждений, прежде чем ответить пользователю.



    OpenAI o1 занимает 89-й процентиль по вопросам соревновательного программирования (Codeforces), входит в число 500 лучших студентов США в квалификационном раунде для участия в Олимпиаде по математике (AIME) и превосходит точность людей с докторской степенью (PhD - доктор философии) на эталонном тесте по физике, биологии и химии (GPQA). Хотя работа, необходимая для того, чтобы сделать эту новую модель такой же удобной в использовании, как и текущие модели, все еще продолжается, OpenAI выпускает раннюю версию этой модели, o1-preview, для немедленного использования в ChatGPT и для доверенных пользователей API.

    Алгоритм обучения с подкреплением в больших масштабах учит модель продуктивно мыслить, используя свою цепочку рассуждений в высокоэффективном, с точки зрения данных, процессе обучения. В OpenAI обнаружили, что производительность o1 последовательно улучшается с увеличением объема обучения с подкреплением (вычислительных ресурсов во время обучения) и с увеличением времени, затрачиваемого на размышления (вычислительных ресурсов во время тестирования). Ограничения на масштабирование этого подхода существенно отличаются от ограничений предварительного обучения больших языковых моделей, и разработчики продолжают их исследовать.



    Производительность o1 плавно улучшается как с увеличением вычислительных ресурсов во время обучения, так и с увеличением вычислительных ресурсов во время тестирования.

    Оценка

    Чтобы подчеркнуть улучшение рассуждений по сравнению с GPT-4o, в OpenAI протестировали модели на разнообразном наборе экзаменов для людей и бенчмарков машинного обучения. Разработчики показывают, что o1 значительно превосходит GPT-4o в подавляющем большинстве этих задач, требующих интенсивного использования логического мышления. Если не указано иное, они оценивали o1 в режиме максимального использования вычислительных ресурсов во время тестирования.



    o1 значительно превосходит GPT-4o на сложных бенчмарках, оценивающих способность к рассуждению. Сплошные столбцы показывают точность pass@1, а затененная область показывает производительность голосования большинством (консенсуса) с 64 выборками.



    o1 превосходит GPT-4o на широком спектре бенчмарков, включая 54 из 57 подкатегорий MMLU. Для иллюстрации показаны семь из них.

    Во многих бенчмарках, требующих интенсивного использования логического мышления, o1 соперничает по производительности с экспертами-людьми. Новейшие передовые модели настолько хорошо справляются с MATH и GSM8K, что эти бенчмарки больше не эффективны для дифференциации моделей. В OpenAI оценили математическую производительность на AIME, экзамене, предназначенном для проверки самых ярких старшеклассников-математиков в Америке. На экзаменах AIME 2024 года GPT-4o решал в среднем только 12% (1,8/15) задач. o1 в среднем решал 74% (11,1/15) с одной выборкой на задачу, 83% (12,5/15) с консенсусом среди 64 выборок и 93% (13,9/15) при повторном ранжировании 1000 выборок с помощью обученной функции оценки. Счет 13,9 помещает его в число 500 лучших студентов страны и выше порога для участия в математической олимпиаде США.

    В OpenAI также оценили o1 на GPQA Diamond, сложном бенчмарке интеллекта, который проверяет знания в области химии, физики и биологии. Чтобы сравнить модели с людьми, разработчики наняли экспертов с докторскими степенями для ответа на вопросы GPQA Diamond. Они обнаружили, что o1 превзошел производительность этих экспертов-людей, став первой моделью, сделавшей это на этом бенчмарке. Эти результаты не означают, что o1 во всех отношениях способнее, чем человек с докторской степенью, — только то, что модель более искусна в решении некоторых задач, которые, как ожидается, должен решать человек с докторской степенью. На нескольких других бенчмарках машинного обучения o1 улучшил показатели по сравнению с самыми современными моделями. С включенными возможностями визуального восприятия o1 набрал 78,2% на MMMU, став первой моделью, способной конкурировать с экспертами-людьми. Он также превзошел GPT-4o в 54 из 57 подкатегорий MMLU.

    Цепочка рассуждений

    Подобно тому, как человек может долго думать, прежде чем ответить на сложный вопрос, o1 использует цепочку рассуждений при попытке решить задачу. Благодаря обучению с подкреплением o1 учится оттачивать свою цепочку рассуждений и совершенствовать используемые стратегии. Он учится распознавать и исправлять свои ошибки. Он учится разбивать сложные шаги на более простые. Он учится пробовать другой подход, когда текущий не работает. Этот процесс значительно улучшает способность модели к рассуждению.

    Программирование

    В OpenAI обучили модель, которая набрала 213 баллов и заняла 49-й процентиль на Международной олимпиаде по информатике (IOI) 2024 года, инициализировав ее из o1 и обучив дальнейшему совершенствованию навыков программирования. Эта модель участвовала в IOI 2024 года на тех же условиях, что и участники-люди. У нее было десять часов, чтобы решить шесть сложных алгоритмических задач, и ей разрешалось 50 попыток на задачу.

    Для каждой задачи система генерировала множество вариантов решений и отправляла 50 из них на основе стратегии выбора во время тестирования. Решения выбирались на основе производительности на общедоступных тестовых случаях IOI, тестовых случаях, сгенерированных моделью, и обученной функции оценки. Если бы разработчики вместо этого отправляли решения случайным образом, они бы набрали в среднем всего 156 баллов, что говорит о том, что эта стратегия стоила почти 60 баллов в условиях соревнований.

    При ослабленном ограничении на количество попыток разработчики обнаружили, что производительность модели значительно улучшилась. При разрешении 10 000 попыток на задачу модель достигла результата 362,14 балла — выше порога золотой медали — даже без какой-либо стратегии выбора во время тестирования.

    Наконец, в OpenAI смоделировали соревнования по программированию, проводимые Codeforces, чтобы продемонстрировать навыки программирования этой модели. Их оценки точно соответствовали правилам соревнований и допускали 10 попыток. GPT-4o достиг рейтинга Эло 808, что соответствует 11-му процентилю среди участников-людей. Эта модель значительно превзошла как GPT-4o, так и o1 — она достигла рейтинга Эло 1807, превзойдя 93% участников.



    Дальнейшая тонкая настройка на соревнованиях по программированию улучшает o1. Улучшенная модель заняла 49-й процентиль на Международной олимпиаде по информатике 2024 года в соответствии с правилами соревнований.

    Оценка человеческих предпочтений

    В дополнение к экзаменам и академическим бенчмаркам в OpenAI также оценили предпочтения людей в отношении o1-preview по сравнению с GPT-4o на сложных, открытых запросах в широком спектре областей. В этой оценке людям-оценщикам были показаны анонимные ответы на запрос от o1-preview и GPT-4o, и они проголосовали за то, какой ответ им больше понравился. o1-preview значительно предпочтительнее GPT-4o в категориях, требующих интенсивного использования логического мышления, таких как анализ данных, программирование и математика. Однако o1-preview не является предпочтительным в некоторых задачах обработки естественного языка, что говорит о том, что он не подходит для всех случаев использования.



    Люди предпочитают o1-preview в областях, где полезны мощные рассуждения.

    Безопасность

    Цепочка рассуждений предоставляет новые возможности для согласования и безопасности. В OpenAI обнаружили, что интеграция их политик поведения модели в цепочку рассуждений модели является эффективным способом надежного обучения человеческим ценностям и принципам. Обучая модель правилам безопасности и тому, как рассуждать о них в контексте, разработчики обнаружили доказательства того, что способность к рассуждению напрямую влияет на надежность модели: o1-preview добился существенного улучшения производительности в ключевых оценках взлома и самых сложных внутренних бенчмарках компании для оценки границ отказа модели в отношении безопасности. Разработчики считают, что использование цепочки рассуждений предлагает значительные преимущества для безопасности и согласования, потому что оно позволяет им наблюдать за мышлением модели понятным образом, и рассуждения модели о правилах безопасности более устойчивы к сценариям, выходящим за рамки распределения.

    Чтобы подвергнуть улучшения стресс-тестированию, в OpenAI провели набор тестов безопасности и red-teaming перед развертыванием в соответствии с системой готовности. Разработчики обнаружили, что цепочка рассуждений способствовала улучшению возможностей во всех их оценках. Особо следует отметить, что они наблюдали интересные случаи взлома вознаграждения. Подробные результаты этих оценок можно найти в прилагаемой системной карте o1 на сайте OpenAI
    .

    Заключение

    o1 значительно продвигает современные технологии в области рассуждений ИИ. В OpenAI планируют выпускать улучшенные версии этой модели по мере продолжения итераций. Они ожидают, что эти новые возможности рассуждения улучшат их способность согласовывать модели с человеческими ценностями и принципами. Они считают, что o1 — и его преемники — откроют множество новых вариантов использования ИИ в науке, программировании, математике и смежных областях.
    Последний раз редактировалось Oscar Smith; 13.09.2024 в 15:53.

  2. #2 (479470) | Ответ на # 479463
    OpenAI запустила o1-mini, экономически эффективную модель для рассуждений. o1-mini превосходно справляется с задачами в области STEM, особенно в математике и программировании, почти достигая уровня производительности o1 по оценочным показателям, таким как AIME и Codeforces. В OpenAI ожидают, что o1-mini станет более быстрым и экономичным решением для приложений, требующих рассуждений без обширных знаний о мире.

    OpenAI запустила o1-mini для пользователей API пятого уровня по цене, которая на 80% ниже, чем у o1-preview. Пользователи ChatGPT Plus, Team, Enterprise и Edu могут использовать o1-mini в качестве альтернативы o1-preview с более высокими лимитами и меньшей задержкой.

    Оптимизирован для STEM-рассуждений

    Большие языковые модели, такие как o1, предварительно обучены на обширных текстовых наборах данных. Хотя эти модели с высокой емкостью обладают широкими знаниями о мире, они могут быть дорогими и медленными для реальных приложений. В отличие от них, o1-mini — это меньшая модель, оптимизированная для STEM-рассуждений во время предварительного обучения. После обучения с использованием того же высокопроизводительного процесса обучения с подкреплением (RL), что и o1, o1-mini демонстрирует сопоставимую производительность по многим полезным задачам рассуждения, при этом значительно более экономичен.

    При оценке на тестах, требующих интеллекта и рассуждений, o1-mini показывает хорошие результаты по сравнению с o1-preview и o1. Однако o1-mini хуже справляется с задачами, требующими фактических знаний, не связанных со STEM.

    Математика: В соревнованиях по математике AIME для старших классов o1-mini (70,0%) конкурентоспособен с o1 (74,4%), при этом значительно дешевле, и превосходит o1-preview (44,6%). Результат o1-mini (примерно 11 из 15 вопросов) помещает его примерно в топ-500 студентов старших классов США.

    Программирование: На сайте соревнований Codeforces o1-mini достигает 1650 Эло, что также конкурентоспособно с o1 (1673) и выше, чем у o1-preview (1258). Этот рейтинг Эло ставит модель примерно на 86-й процентиль среди программистов, участвующих на платформе Codeforces. o1-mini также показывает хорошие результаты на бенчмарке HumanEval по программированию и в задачах по кибербезопасности уровня старших классов, таких как соревнования Capture the Flag (CTF).

    STEM: На некоторых академических тестах, требующих рассуждений, таких как GPQA (наука) и MATH-500, o1-mini превосходит GPT-4o. Однако o1-mini не показывает таких же хороших результатов, как GPT-4o, на задачах, таких как MMLU, и отстает от o1-preview на GPQA из-за недостатка широких знаний о мире.

    Оценка человеческих предпочтений: Разработчики попросили людей-оценщиков сравнить o1-mini с GPT-4o по сложным, открытым вопросам в различных областях, используя ту же методологию, что и при сравнении o1-preview с GPT-4o. Подобно o1-preview, o1-mini предпочтительнее GPT-4o в областях, требующих интенсивного логического мышления, но не предпочтительнее GPT-4o в областях, ориентированных на язык.

    Скорость модели

    В качестве конкретного примера в OpenAI сравнили ответы GPT-4o, o1-mini и o1-preview на вопрос, требующий словесных рассуждений. В то время как GPT-4o не ответил правильно, o1-mini и o1-preview справились с задачей, причем o1-mini пришел к ответу примерно в 3-5 раз быстрее.

    Безопасность

    o1-mini обучен с использованием тех же методов согласования и безопасности, что и o1-preview. Модель имеет на 59% более высокую устойчивость к взлому на внутренней версии набора данных StrongREJECT по сравнению с GPT-4o. Перед развертыванием в OpenAI тщательно оценили риски безопасности o1-mini, используя тот же подход к готовности, внешнему red-teaming и оценкам безопасности, что и для o1-preview.

    Ограничения и дальнейшие планы

    Из-за своей специализации на возможностях STEM-рассуждений, фактические знания o1-mini по темам, не связанным со STEM, таким как даты, биографии и мелочи, сравнимы с небольшими языковыми моделями, такими как GPT-4o mini. OpenAI будет работать над устранением этих ограничений в будущих версиях, а также экспериментировать с расширением модели на другие модальности и специализации за пределами STEM.
    Последний раз редактировалось Oscar Smith; 13.09.2024 в 09:39.

  3. #3 (479493) | Ответ на # 479470
    "Процесс мышления o1 длится секунды (в ChatGPT - ред.), но мы стремимся к тому, чтобы будущие версии думали часами, днями или даже неделями. Стоимость умозаключений будет выше, но какую цену вы готовы заплатить за новое лекарство от рака? За революционные батареи? За доказательство гипотезы Римана? ИИ может быть больше, чем чат-боты", — отметил научный сотрудник OpenAI Ноам Браун.
    Последний раз редактировалось Oscar Smith; 13.09.2024 в 11:34.

  4. #4 (479524) | Ответ на # 479493
    OpenAI заявила о своих планах предоставить доступ к модели o1-mini всем бесплатным пользователям ChatGPT. Это означает, что любой пользователь, который не имеет подписки ChatGPT Plus, сможет попробовать новую модель o1-mini без дополнительных затрат.

    OpenAI еще не назвала точную дату, когда бесплатные пользователи получат доступ к o1-mini, но сообщила, что это произойдет в будущем. Пока что доступ к o1-preview и o1-mini имеют только платные подписчики ChatGPT Plus и Team, а также корпоративные и образовательные пользователи.

  5. #5 (479542) | Ответ на # 479524
    GPT-3 — гениальный ребенок.
    GPT-4 — школьник-отличник старших классов.
    o1 — 1 из 500 лучших студентов США, кандидат в доктора философии.

    Продолжение следует. Путь до AGI короче, чем думали многие.
    Последний раз редактировалось SpaceSpirit; 14.09.2024 в 05:44.

  6. #6 (479755) | Ответ на # 479542
    15 сентября 2024 года энтузиаст ИИ-технологий Максим Лотт в соцсети X рассказал, что недавно вышедшая в открытый доступ нейросеть OpenAI o1 прошла авторитетный норвежский IQ-тест Mensa на 120 баллов.

    Оказалось, что ИИ-модель o1 даже в превью-версии смогла в этом тесте значительно обойти конкурентов и 90% людей.

    Примечательно, что нейросеть o1 умеет сама дообучаться. Один из сотрудников OpenAI посоветовал попробовать o1 пройти этот тест еще через месяц, чтобы увидеть разницу.

    Последний раз редактировалось SpaceSpirit; 16.09.2024 в 08:17.

  7. #7 (479781) | Ответ на # 479755
    Цитата Сообщение от SpaceSpirit Посмотреть сообщение
    Оказалось, что ИИ-модель o1 даже в превью-версии смогла в этом тесте значительно обойти конкурентов и 90% людей.
    Илон Маск: "Я предполагаю, что примерно в конце следующего года (2025 - ред.) у нас появится ИИ, который будет умнее самого умного человека".

    Если скорость развития искусственного интеллекта не замедлится, то его прогноз сбудется. Это захватывает дух и обнадеживает.

  8. #8 (479815) | Ответ на # 479781
    Посмотрите на реакцию ученого-физика НАСА.



    За шесть запросов ИИ воспроизвел работу, на которую у ученого ушло 10 месяцев.

    15 сентября 2024 года Кайл Кабасарес, научный сотрудник НАСА, рассказал о своем опыте использования искусственного интеллекта в научной работе. По его словам, нейросеть OpenAI ChatGPT o1 смогла воссоздать код для его докторской диссертации за час, используя шесть запросов.

    Кабасарес сообщил, что ранее он потратил 10 месяцев на разработку этого кода самостоятельно. Ученый отметил, что нейросеть создала работающую версию кода, описанного в методическом разделе его исследовательской работы. Он также подчеркнул важное различие: ChatGPT o1 использовала собственные синтетические данные, которые ее просили создать, а не реальные астрономические данные, которые будут использоваться в настоящей работе.

    "Потенциал ChatGPT o1 невероятен, чтобы эффективно выполнить то, над чем я боролся около 10 месяцев в первый год моей докторской диссертации. Я с нетерпением жду возможности применить o1 для других вариантов использования", — уточнил Кабасарес.

  9. #9 (480110) | Ответ на # 479815
    Стало известно о тенденции к углублению сотрудничества властей ОАЭ и Саудовской Аравии с американской компанией Nvidia, хотя некоторое время назад страны лишились открытого доступа к новейшим чипам этой марки из-за ограничений США. Со следующего года Саудовская Аравия может получить доступ к ускорителям Nvidia вплоть до H200.



    В интервью CNBC на прошлой неделе заместитель руководителя Управления данных и искусственного интеллекта Саудовской Аравии (SDAIA) Абдулрахман Тарик Хабиб выразил надежду, что властям страны удастся со следующего года получить доступ к наиболее производительным ускорителям вычислений Nvidia. Это будет иметь для Саудовской Аравии очень большое значение, по словам чиновника, поскольку позволит облегчить сотрудничество между США и Саудовской Аравии, а также развивать вычислительные мощности на территории королевства. Местная инфраструктура готовилась к этим изменениям на протяжении трех предыдущих лет, по словам представителя ведомства. К 2030 году страна рассчитывает до 12% своего ВВП получать в сфере искусственного интеллекта. Финансировать проекты в этой области будет суверенный Публичный инвестиционный фонд Саудовской Аравии.

    С мая текущего года экспорт ускорителей Nvidia определенного ассортимента в страны Ближнего Востока ограничен, поскольку власти США опасаются транзита данной продукции в Китай.

    Агентство Bloomberg сообщило, что Nvidia будет сотрудничать с компанией G42 из ОАЭ в рамках инициативы по созданию инфраструктуры для более точного предсказания изменений в климате и погоде. По замыслу участников проекта, G42 позволит создать на территории ОАЭ инфраструктуру для ускорения вычислений и работы с цифровым двойником нашей планеты Earth-2, разработанным Nvidia, чтобы на его основе заниматься прогнозированием погоды. Система будет оперировать более чем 100 петабайтами геофизических данных.

    Компания G42 в этом году получила $1,5 млрд инвестиций от Microsoft, что многими экспертами трактовалось как сигнал, свидетельствующий о сближении ОАЭ и США. Принято считать, что ради получения доступа к технологиям и капиталу Microsoft руководству G42 пришлось дать американской стороне некоторые гарантии отказа от усиления сотрудничества с КНР. Налаживаются партнерские взаимоотношения между G42 и OpenAI. Руководство первой из компаний отметило, что сотрудничество с Nvidia позволит не только продвигать инновации, но и решать критически важные для всего человечества проблемы.
    Последний раз редактировалось Oscar Smith; 20.09.2024 в 17:44.

  10. #10 (480387) | Ответ на # 480110
    Недавнее открытие стало значительным этапом в исследовании загадочных линий Наска, расположенных в перуанской пустыне. С помощью искусственного интеллекта (ИИ) было выявлено более 300 новых геоглифов, ранее неизвестных. Эти фигуры, обнаруженные всего за полгода, включают в себя удивительные изображения, такие как гуманоиды, отсеченные головы, церемониальные сцены и даже кит-убийца с ножом. Это открытие почти вдвое увеличивает количество известных геоглифов в этом регионе, подчеркивая огромный потенциал ИИ в археологических исследованиях.



    Загадочные линии Наска

    Линии Наска представляют собой уникальный набор геоглифов, вырезанных на поверхности перуанской пустыни, охватывающей 440 квадратных километров. Эти гигантские фигуры, созданные между 200 годом до н. э. и 500 годом н. э., считаются произведением цивилизации Наска, предшествовавшей инкам. Они становятся видимыми благодаря контрасту между красноватой галькой и более светлой почвой. Некоторые фигуры имеют абстрактные формы, в то время как другие изображают животных, людей или геометрические узоры.

    Линии Наска были заново открыты в 1920-х годах благодаря пассажирам самолетов и с тех пор привлекают внимание исследователей и любителей со всего мира. Их точное назначение остается загадкой, и теории варьируются от религиозных ритуалов до древней астрономии.

    До недавнего времени было идентифицировано около 430 геоглифов, большинство из которых были обнаружены в последние два десятилетия с помощью спутниковых снимков и современных технологий. Однако новые открытия становились все более редкими, так как оставшиеся фигуры часто были слишком выветрены для визуального восприятия.

    ИИ — революционный инструмент для археологии

    Именно здесь искусственный интеллект проявил свою значимость. В новом исследовании ученые из Японии, Франции и США применили специально разработанную модель ИИ для выявления слабых контуров геоглифов на спутниковых снимках. Эта технология, работающая в 20 раз быстрее человека, составила список потенциальных линий, которые исследователи затем проверили в полевых условиях.

    С сентября 2022 года по февраль 2023 года команда отправилась в пустыню для проверки своих гипотез и подтвердила существование 303 новых геоглифов, что увеличило общее количество до более чем 700. Обнаруженные фигуры разнообразны и странны: гуманоиды, домашние животные, рыбы, птицы и более загадочные сцены, такие как отсеченные головы и антропоморфные фигуры с внеземными чертами. Одной из самых интригующих находок стал 22-метровый кит-убийца с ножом.

    Открытия, меняющие представления

    Эти новые линии предоставляют исследователям уникальную возможность глубже понять культуру Наска и причины создания этих геоглифов. Исследование выделило два основных типа линий: рельефные геоглифы, которые меньше и сложнее, часто расположенные рядом с древними тропами, и линейные геоглифы, занимающие большие площади и состоящие из геометрических узоров.

    Рельефные геоглифы, как правило, изображают людей или домашних животных, что указывает на их предназначение для наблюдения людьми, передвигающимися пешком. В то время как более крупные линии, изображающие диких животных, могли использоваться в ритуалах общины. Равномерное распределение этих линий по пустыне подтверждает эту гипотезу.

    ИИ на службе археологии

    Использованная модель ИИ уже стала важным достижением в изучении линий Наска. Кроме 303 выявленных геоглифов, алгоритм определил сотни других потенциальных фигур, которые команда еще не успела проверить в полевых условиях. Ученые надеются обнаружить не менее 250 новых линий в ближайшие годы.

    Это открытие также открывает новые горизонты для глобальной археологии. Объединив спутниковые снимки и искусственный интеллект, исследователи прокладывают путь к более быстрому и эффективному изучению исторических мест, которые часто трудно доступные или сложные для анализа. Этот метод может быть применен и в других регионах мира, где остатки скрыты под землей или сильно выветрены, что ускорит их обнаружение и исследование.
    Последний раз редактировалось Oscar Smith; 24.09.2024 в 18:29.

  11. #11 (480391) | Ответ на # 480387
    Участник Аватар для Artemida
    Регистрация
    14.06.2021
    Адрес
    Украина
    Сообщений
    87
    Если эти рисунки делали маленькие люди, ростом современных людей, то зачем такие огромные?..они хотели чтобы их увидели из космоса? Кому они писали свои послания и как у них получалось соотносить рисунок с размером, без наличия дронов?.. или эти рисунки делали дети великанов, просто так от нечего делать, без всякой цели...

  12. #12 (480542) | Ответ на # 480391
    Llama 3.2: Революция в edge AI и компьютерном зрении с помощью открытых, настраиваемых моделей.



    Текст новости составлен компанией Meta 25 сентября 2024 года. Перевод выполнен нейросетью GPT-4o.

    Ключевые моменты:

    • Сегодня мы выпускаем Llama 3.2, которая включает малые и средние мультимодальные модели (11B и 90B) с поддержкой обработки изображений, а также облегченные текстовые модели (1B и 3B), которые можно запускать на мобильных устройствах и периферийных устройствах. Эти модели доступны в предобученных версиях и версиях, настроенных для выполнения инструкций.
    • Модели Llama 3.2 1B и 3B поддерживают длину контекста до 128 тысяч токенов и являются передовыми в своем классе для задач, выполняемых на устройствах, таких как суммирование текста, выполнение инструкций и переформулирование, с возможностью локального запуска. Эти модели с первого дня поддерживаются на оборудовании Qualcomm и MediaTek и оптимизированы для процессоров Arm.
    • Поддерживаемые широкой экосистемой, модели Llama 3.2 11B и 90B для обработки изображений могут быть легко заменены на их текстовые аналоги и при этом превосходят закрытые модели, такие как Claude 3 Haiku, в задачах понимания изображений. В отличие от других открытых мультимодальных моделей, как предобученные, так и настроенные версии доступны для дообучения под пользовательские задачи с помощью инструмента torchtune и могут быть развернуты локально с использованием torchchat. Также эти модели можно протестировать через нашего умного помощника Meta AI.
    • Мы представляем первые официальные дистрибутивы Llama Stack, которые значительно упростят работу разработчиков с моделями Llama в различных средах, включая одиночные узлы, локальные серверы, облака и периферийные устройства, что позволит легко развертывать приложения, использующие генерацию с дополнительным поиском (RAG) и интегрированные инструменты безопасности.
    • Мы тесно сотрудничаем с партнерами, такими как AWS, Databricks, Dell Technologies, Fireworks, Infosys и Together AI, чтобы создать дистрибутивы Llama Stack для их корпоративных клиентов. Для периферийных устройств распространение осуществляется через PyTorch ExecuTorch, а для одиночных узлов — через Ollama.
    • Мы продолжаем делиться нашими разработками, потому что верим, что открытость стимулирует инновации и приносит пользу разработчикам, Meta и всему миру. Llama уже является лидером в области открытости, модифицируемости и экономической эффективности, помогая большему количеству людей создавать креативные, полезные и изменяющие жизнь решения с помощью генеративного ИИ.
    • Модели Llama 3.2 доступны для скачивания на llama.com и Hugging Face, а также для немедленной разработки на широкой экосистеме платформ наших партнеров, включая AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA, Oracle Cloud, Snowflake и другие.

    Мы были впечатлены влиянием моделей Llama 3.1, выпущенных два месяца назад, включая модель 405B — первую открытую модель ИИ на уровне фронтира. Эти модели невероятно мощные, но мы понимаем, что для работы с ними требуются значительные вычислительные ресурсы и опыт. Мы также слышим разработчиков, у которых нет доступа к таким ресурсам, но которые хотят работать с Llama. Как сегодня отметил основатель и генеральный директор Meta Марк Цукерберг на Connect, им больше не придется ждать. Сегодня мы выпускаем Llama 3.2, которая включает малые и средние модели (11B и 90B) для обработки изображений и легкие текстовые модели (1B и 3B), которые можно использовать на периферийных устройства и мобильных устройствах.

    Прошло всего полтора года с тех пор, как мы впервые анонсировали Llama, и за это время мы достигли невероятных результатов. В этом году Llama выросла в 10 раз и стала стандартом для ответственных инноваций. Llama продолжает лидировать по уровню открытости, модифицируемости и экономической эффективности, успешно конкурируя с закрытыми моделями и даже превосходя их в ряде областей. Мы считаем, что открытость стимулирует инновации и является правильным путем вперед, поэтому мы продолжаем делиться нашими исследованиями и сотрудничать с партнерами и сообществом разработчиков.

    Модели Llama 3.2 доступны для скачивания на llama.com и Hugging Face, а также для немедленной разработки на широкой экосистеме платформ наших партнеров. Партнеры играют важную роль в этой работе, и мы сотрудничаем более чем с 25 компаниями, включая AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA, Oracle Cloud и Snowflake, чтобы предоставить услуги с первого дня. Для выпуска Llama 3.2 мы также работаем с партнерами по периферийным устройствам, такими как Arm, MediaTek и Qualcomm, чтобы предложить широкий спектр услуг на момент запуска. Начиная с сегодняшнего дня, мы также открываем доступ к Llama Stack для сообщества. Дополнительные подробности о последнем выпуске, включая информацию о мультимодальной доступности в Европе, можно найти в нашей политике допустимого использования.

    Встречайте Llama 3.2

    Две крупнейшие модели из коллекции Llama 3.2 — 11B и 90B — поддерживают задачи визуального анализа, такие как понимание документов на уровне графиков и диаграмм, создание подписей к изображениям и решение задач визуальной привязки, например, определение объектов на изображениях по описанию на естественном языке. Например, можно спросить, в каком месяце прошлого года в малом бизнесе были наилучшие продажи, и Llama 3.2 сможет проанализировать график и быстро предоставить ответ. В другом примере модель может работать с картой и помочь ответить на вопросы, такие как когда подъем на маршруте станет круче или каково расстояние до определенного участка тропы, отмеченной на карте. Модели 11B и 90B также могут соединять визуальные данные с текстом, извлекая детали из изображения, понимая сцену и составляя описание, которое можно использовать для создания подписи к изображению, чтобы рассказать историю.

    Облегченные модели 1B и 3B обладают высокими возможностями для мультиязычной генерации текста и выполнения инструментальных вызовов (tool calling). Эти модели позволяют разработчикам создавать персонализированные приложения, работающие на устройстве, с высоким уровнем конфиденциальности, где данные никогда не покидают устройство. Например, такое приложение может помочь суммировать последние 10 полученных сообщений, выделить ключевые задачи и с помощью инструментальных вызовов автоматически отправить приглашения на встречи в календаре.

    Запуск этих моделей локально дает два основных преимущества. Во-первых, запросы и ответы могут обрабатываться почти мгновенно, так как вычисления происходят на устройстве. Во-вторых, локальная работа моделей обеспечивает конфиденциальность, так как данные, такие как сообщения и информация о календаре, не передаются в облако, что делает приложение более приватным. Поскольку обработка производится локально, приложение может четко контролировать, какие запросы остаются на устройстве, а какие могут потребовать обработки более крупной моделью в облаке.

    Оценка моделей

    Наши оценки показывают, что модели Llama 3.2 для работы с изображениями конкурентоспособны с ведущими базовыми моделями, такими как Claude 3 Haiku и GPT4o-mini, в задачах распознавания изображений и визуального понимания. Модель 3B превосходит модели Gemma 2 (2.6B) и Phi 3.5-mini в задачах выполнения инструкций, суммирования, переформулирования запросов и использования инструментов, а модель 1B конкурентоспособна с Gemma.

    Мы оценили производительность моделей на более чем 150 эталонных наборах данных, охватывающих широкий спектр языков. Для мультимодальных моделей производительность оценивалась на наборах данных, связанных с пониманием изображений и визуальным рассуждением.

    Модели для работы с изображениями

    Модели 11B и 90B — первые модели Llama, поддерживающие задачи визуального анализа, — потребовали создания новой архитектуры, которая поддерживает обработку изображений. Чтобы добавить поддержку ввода изображений, мы обучили набор адаптерных весов, которые интегрируют предобученный энкодер изображений в предобученную языковую модель. Адаптер состоит из нескольких слоев перекрестного внимания, которые передают представления энкодера изображений в языковую модель. Мы обучали адаптер на парах "текст-изображение", чтобы согласовать представления изображений с представлениями текста. Во время обучения адаптера мы также обновляли параметры энкодера изображений, но намеренно не обновляли параметры языковой модели. Это позволило сохранить все возможности модели для работы только с текстом, предоставляя разработчикам возможность легко заменить модели Llama 3.1 на новые.

    Наш процесс обучения состоит из нескольких этапов, начиная с предобученных текстовых моделей Llama 3.1. Сначала мы добавляем адаптеры и энкодеры изображений, затем проводим предобучение на больших наборах данных (пары "изображение-текст"), содержащих шум. Далее мы обучаемся на средних по масштабу высококачественных данных из целевых доменов, а также на данных, обогащенных знаниями (пары "изображение-текст").

    После основного обучения мы применяем аналогичный подход, как и для текстовых моделей, проводя несколько циклов выравнивания с использованием контролируемого дообучения, выборки с отклонением и оптимизации предпочтений напрямую. Мы используем синтетическую генерацию данных, применяя модель Llama 3.1 для фильтрации и расширения вопросов и ответов на основе изображений из целевых доменов, и используем модель вознаграждения для ранжирования всех возможных ответов, чтобы собрать высококачественные данные для дообучения. Мы также добавляем данные для смягчения рисков, связанных с безопасностью, чтобы создать модель с высоким уровнем безопасности, сохраняя при этом ее полезность.

    Итоговая модель способна принимать как текстовые, так и визуальные запросы, глубоко понимать их и выполнять рассуждения на основе их сочетания. Это еще один шаг к тому, чтобы модели Llama обладали еще более богатыми агентными возможностями.

    Легкие модели

    Как мы уже говорили в контексте Llama 3.1, мощные "учительские" модели могут быть использованы для создания меньших моделей с улучшенной производительностью. Мы применили два метода — обрезку (pruning) и дистилляцию знаний — к моделям 1B и 3B, сделав их первыми высокопроизводительными облегченными моделями Llama, которые могут эффективно работать на устройствах.

    Обрезка позволила нам уменьшить размеры существующих моделей в семействе Llama, сохранив при этом как можно больше знаний и производительности. Для моделей 1B и 3B мы использовали метод структурированной обрезки (structured pruning) в один этап, начиная с Llama 3.1 8B. Это включало систематическое удаление частей сети и корректировку величин весов и градиентов, чтобы создать меньшую и более эффективную модель, которая сохраняет производительность исходной сети.

    Дистилляция знаний использует большую сеть для передачи знаний меньшей сети, с идеей, что меньшая модель может достичь лучшей производительности с помощью "учителя", чем при обучении с нуля. Для моделей 1B и 3B в Llama 3.2 мы включили логиты моделей Llama 3.1 8B и 70B на этапе предобучения, где выходы (логиты) этих больших моделей использовались в качестве целевых значений на уровне токенов. Дистилляция знаний применялась после обрезки, чтобы восстановить производительность.

    На этапе пост-тренировки мы использовали аналогичный подход, как в Llama 3.1, и создавали финальные чат-модели через несколько раундов выравнивания на основе предобученной модели. Каждый раунд включает контролируемое дообучение (SFT), выборку с отклонением (RS) и прямую оптимизацию предпочтений (DPO).

    В ходе пост-тренировки мы масштабировали поддержку длины контекста до 128 тысяч токенов, сохраняя при этом то же качество, что и у предобученной модели. Мы также использовали синтетическую генерацию данных, проходящую через тщательную обработку и фильтрацию для обеспечения высокого качества. Мы тщательно смешивали данные, чтобы оптимизировать качество для различных задач, таких как суммирование, переформулирование, выполнение инструкций, языковое рассуждение и использование инструментов.

    Чтобы дать сообществу возможность создавать инновации на основе этих моделей, мы тесно сотрудничали с Qualcomm и MediaTek, двумя крупнейшими мировыми производителями систем на кристалле (SoC) для мобильных устройств, а также с Arm, которая предоставляет вычислительные платформы для 99% мобильных устройств. Весовые коэффициенты, которые выпускаются сегодня, основаны на числах в формате BFloat16. Наши команды активно изучают квантизированные варианты, которые будут работать еще быстрее, и мы надеемся вскоре поделиться подробностями.

    Дистрибутивы Llama Stack

    В июле мы выпустили запрос на комментарии по API Llama Stack — стандартизированному интерфейсу для канонических компонентов инструментальной цепочки (тонкая настройка, генерация синтетических данных) с целью кастомизации моделей Llama и создания агентных приложений. Отклик был отличным.

    С тех пор мы активно работали над реализацией API. Мы создали референтную реализацию API для инференса, использования инструментов и генерации с дополнительным поиском (RAG). Кроме того, мы сотрудничали с партнерами, чтобы адаптировать их в качестве провайдеров для этих API. Наконец, мы представили Llama Stack Distribution как способ объединения нескольких API-провайдеров, которые хорошо работают вместе и предоставляют единый конечный пункт для разработчиков. Теперь мы делимся с сообществом упрощенным и согласованным опытом работы с моделями Llama в различных средах, включая локальные серверы, облако, одиночные узлы и периферийные устройства.

    Полный набор релизов включает:

    1. Llama CLI (интерфейс командной строки) для создания, настройки и запуска дистрибутивов Llama Stack
    2. Клиентский код на нескольких языках, включая Python, Node, Kotlin и Swift
    3. Docker-контейнеры для Llama Stack Distribution Server и API-провайдера для агентов
    4. Несколько дистрибутивов:

    • Одноузловой дистрибутив Llama Stack через внутреннюю реализацию Meta и Ollama
    • Облачные дистрибутивы Llama Stack через AWS, Databricks, Fireworks и Together
    • Дистрибутив Llama Stack на устройствах под iOS, реализованный через PyTorch ExecuTorch
    • Локальные дистрибутивы Llama Stack для серверов, поддерживаемые Dell

    Мы с нетерпением ждем возможности работать с разработчиками и партнерами, чтобы упростить все аспекты работы с моделями Llama, и будем рады любым отзывам.

    Системный уровень безопасности

    Открытый подход приносит множество преимуществ. Он помогает обеспечить доступ большего числа людей по всему миру к возможностям, которые предоставляет ИИ, предотвращает концентрацию власти в руках немногих и способствует более справедливому и безопасному внедрению технологий в обществе. По мере того как мы продолжаем внедрять инновации, мы также стремимся к тому, чтобы разработчики могли создавать безопасные и ответственные системы.

    Основываясь на нашем предыдущем релизе и непрерывных усилиях по поддержке ответственных инноваций, сегодня мы добавляем новые обновления в наше семейство механизмов защиты:

    • Во-первых, мы выпускаем Llama Guard 3 11B Vision, который разработан для поддержки новых возможностей понимания изображений в Llama 3.2 и фильтрации текстово-изобразительных запросов или текстовых ответов на такие запросы.
    • Во-вторых, с выходом моделей Llama 1B и 3B, предназначенных для использования в более ограниченных средах, таких как мобильные устройства, мы также оптимизировали Llama Guard, значительно снизив его стоимость развертывания. Llama Guard 3 1B основан на модели Llama 3.2 1B и был оптимизирован с помощью обрезки и квантизации, что позволило уменьшить его размер с 2,858 МБ до 438 МБ, сделав его более эффективным для развертывания, чем когда-либо.

    Эти новые решения интегрированы в наши эталонные реализации, демонстрации и приложения и готовы к использованию сообществом с открытым исходным кодом уже с первого дня.

    Попробуйте Llama 3.2 сегодня

    Llama 3.2 нацелена на то, чтобы охватить больше людей, чем когда-либо прежде, и открыть новые увлекательные способы использования. Мы убеждены, что просто поделиться этими моделями с сообществом с открытым исходным кодом — это недостаточно. Мы хотим убедиться, что разработчики также имеют доступ к необходимым инструментам для ответственного использования Llama. В рамках наших постоянных усилий по ответственному выпуску мы предлагаем разработчикам новые инструменты и ресурсы, и, как всегда, будем обновлять лучшие практики в нашем Руководстве по ответственному использованию.

    Мы продолжаем делиться последними достижениями в экосистеме Llama, потому что верим, что открытость стимулирует инновации и приносит пользу разработчикам, Meta и всему миру. Мы с радостью продолжаем диалоги с нашими партнерами и сообществом с открытым исходным кодом и, как всегда, с нетерпением ждем, что сообщество создаст с использованием Llama 3.2 и Llama Stack.

    Эта работа была поддержана нашими партнерами по всему сообществу ИИ. Мы хотели бы поблагодарить и отметить поддержку следующих организаций (в алфавитном порядке): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI, и UC Berkeley - vLLM Project.

    --------------------

    Если коротко, то Llama 3.2 — мультимодальная языковая ИИ-модель с открытым исходным кодом. Ее можно бесплатно скачать, обучить на свое усмотрение и запустить на ПК или смартфоне.
    Последний раз редактировалось Oscar Smith; 27.09.2024 в 11:54.

  13. #13 (480547) | Ответ на # 480543
    Бесплатные мультимодальные языковые ИИ-модели с открытым исходным кодом - это нейросети, которые могут работать с графиками, диаграммами, таблицами и пр. Они, например, неплохо автоматизируют работу в компаниях, где нужно много обрабатывать графической информации, и при этом абсолютно бесплатно.

    Так же они могут быть неплохой альтернативой платным топовым моделям и для школьников. Они могут выполнять вместо них домашние школьные задания, освобождая время на детство.

    Задание для Llama 3.2 90B Vision Instruct:



    Найти высоту треугольника.

    Ответ: Треугольник равнобедренный, поэтому высота, проведенная из вершины B к основанию AC, делит основание на две равные части, каждая из которых равна 5. Таким образом, высота треугольника равна квадратному корню из разности квадрата длины стороны AB и квадрата половины длины основания AC. Высота треугольника равна √(102-52) = √(100-25) = √75 = 5√3.
    Последний раз редактировалось Oscar Smith; 28.09.2024 в 04:56.

  14. #14 (480556) | Ответ на # 480547
    Интеллидженс Эйдж



    В ближайшие несколько десятилетий мы сможем делать вещи, которые показались бы магией нашим бабушкам и дедушкам.

    Это явление не новое, но оно ускорится. Способности людей значительно возросли со временем; уже сейчас мы можем достигать того, что наши предшественники считали бы невозможным.

    Мы стали более способными не из-за генетических изменений, а благодаря тому, что пользуемся инфраструктурой общества, которое намного умнее и способнее любого из нас. В каком-то смысле общество само по себе является формой продвинутого интеллекта. Наши бабушки и дедушки – и поколения до них – создавали и добивались великих вещей. Они внесли свой вклад в фундамент человеческого прогресса, которым мы все пользуемся. Искусственный интеллект даст людям инструменты для решения сложных проблем и поможет нам добавить новые элементы к этому фундаменту, которые мы не смогли бы придумать самостоятельно. История прогресса будет продолжаться, и наши дети смогут делать то, что пока не под силу нам.

    Это не произойдет мгновенно, но вскоре мы сможем работать с ИИ, который поможет нам достигать гораздо большего, чем мы могли бы без него. В конечном итоге у каждого из нас может быть личная команда ИИ – виртуальные эксперты в различных областях, которые будут работать вместе, чтобы создавать почти все, что мы можем себе представить. У наших детей будут виртуальные наставники, которые смогут давать персонализированные уроки по любому предмету, на любом языке и с любой скоростью, которая им необходима. Мы можем представить подобные идеи для улучшения здравоохранения, создания любого программного обеспечения, которое только можно вообразить, и многого другого.

    С этими новыми возможностями у нас может появиться общее процветание в такой степени, которая сегодня кажется немыслимой. В будущем жизнь каждого человека может быть лучше, чем жизнь любого человека сегодня. Процветание само по себе не обязательно делает людей счастливыми – достаточно много несчастных богатых людей – но оно существенно улучшит жизнь людей по всему миру.

    Вот один узкий взгляд на историю человечества: после тысячелетий накопления научных открытий и технологического прогресса мы научились плавить песок, добавлять в него примеси, организовывать его с поразительной точностью на невероятно малом уровне в компьютерные чипы, пропускать через них энергию и получать системы, способные создавать все более продвинутый искусственный интеллект.

    Это может оказаться самым значимым фактом всей истории до сегодняшнего дня. Возможно, у нас появится суперинтеллект через несколько тысяч дней (!); возможно, это займет больше времени, но я уверен, что мы добьемся этого.

    Как же мы подошли к порогу следующего рывка в процветании?

    Тремя словами: сработало глубокое обучение.

    Пятнадцатью словами: глубокое обучение сработало, стало предсказуемо лучше с увеличением масштабов, и мы увеличили ресурсы для него.

    Вот и все: человечество открыло алгоритм, который может действительно научиться любой закономерности данных (или, если точнее, "правилам", которые лежат в основе любой закономерности данных). И чем больше вычислительных мощностей и данных доступно, тем лучше он становится в решении сложных задач. Сколько бы времени я ни проводил, размышляя об этом, я все равно не могу по-настоящему осознать, насколько это значимо.

    Есть множество деталей, которые нам еще предстоит понять, но ошибка – отвлекаться на отдельные проблемы. Глубокое обучение работает, и мы решим оставшиеся задачи. Можно сказать много о том, что может произойти дальше, но главное – ИИ будет становиться лучше с увеличением масштабов, что приведет к значительным улучшениям в жизни людей по всему миру.

    Модели ИИ вскоре будут служить автономными личными помощниками, выполняя конкретные задачи от нашего имени, такие как координация медицинской помощи. В какой-то момент ИИ станет настолько мощным, что будет помогать создавать следующие поколения систем и делать научные открытия во всех областях.

    Технологии привели нас от Каменного века к Сельскохозяйственному веку, а затем к Промышленному веку. Теперь путь к Веку Интеллекта вымощен вычислительными мощностями, энергией и человеческой волей.

    Если мы хотим сделать ИИ доступным для как можно большего числа людей, нам нужно снизить стоимость вычислений и сделать их доступными (что требует много энергии и чипов). Если мы не построим достаточно инфраструктуры, ИИ станет ограниченным ресурсом, из-за которого будут вестись войны, и который в основном будет служить инструментом для богатых людей.

    Нужно действовать разумно, но решительно. Наступление Века Интеллекта – это эпохальное событие, связанное с очень сложными и крайне важными вызовами. Это не будет исключительно позитивной историей, но потенциал настолько велик, что мы обязаны себе и будущим поколениям найти способ преодолеть риски, стоящие перед нами.

    Я верю, что будущее будет настолько светлым, что никто не сможет полноценно описать его сейчас. Определяющей чертой Века Интеллекта станет массовое процветание.

    Хотя прогресс будет происходить постепенно, поразительные достижения – такие как решение проблемы изменения климата, создание колоний в космосе и полное открытие законов физики – в конечном итоге станут обычным явлением. Обладая практически неограниченным интеллектом и обилием энергии – способностью генерировать великие идеи и реализовывать их – мы сможем достичь многого.

    Как мы видели с другими технологиями, будут и негативные стороны, и нам нужно уже сейчас начать работать над тем, чтобы максимизировать выгоды от ИИ, минимизируя его вред. Например, мы ожидаем, что эта технология может значительно изменить рынки труда (как в положительную, так и в отрицательную сторону) в ближайшие годы, но большинство рабочих мест будут меняться медленнее, чем многие думают, и я не боюсь, что у нас закончится работа (даже если она не будет похожа на "настоящие рабочие места" в нашем сегодняшнем понимании). У людей есть врожденное желание создавать и быть полезными друг другу, и ИИ позволит нам усиливать наши способности, как никогда раньше. Как общество, мы снова окажемся в расширяющемся мире и сможем сосредоточиться на играх с положительной суммой.

    Многие из тех работ, которые мы выполняем сегодня, показались бы пустой тратой времени людям несколько сотен лет назад, но никто не оглядывается назад с желанием вернуться к профессии фонарщика. Если бы фонарщик мог увидеть современный мир, он бы счел окружающее процветание немыслимым. И если бы мы могли перенестись на сто лет вперед от сегодняшнего дня, процветание вокруг нас показалось бы таким же немыслимым.

    --------------

    Глава OpenAI Сэм Альтман, 23 сентября 2024 года.
    Источник: ia.samaltman.com.

    Перевод и коррекция перевода выполнены нейросетью GPT-4o.
    Картина создана нейросетью DALL-E 3.
    Последний раз редактировалось Oscar Smith; 27.09.2024 в 18:50.

  15. #15 (480593) | Ответ на # 480556
    Полазил в интернете и нашел следующие крайние сроки появления искусственного общего интеллекта (AGI) от видных людей, тесно связанных с созданием ИИ.

    Илон Маск (глава SpaceX, Tesla и Neuralink) — 2025;
    Дэниел Кокотайло (сотрудник OpenAI) — 2026;
    Леопольд Ашенбреннер (сотрудник OpenAI) — 2027;
    Шейн Легг (ученый, сотрудник DeepMind) — 2028;
    Рэймонд Курцвейл (изобретатель, технический директор Google) — 2029;
    Дженсен Хуанг (глава Nvidia) — 2029;
    Гейб Ньюэлл (глава Valve) — 2029;
    Демис Хассабис (глава DeepMind) — 2030;
    Бен Гертцель (ученый, сотрудник Aidyia Holdings, председатель Novamente LLC) — 2030;
    Сэм Альтман (глава OpenAI) — 2030.

    Это лишь часть.

    Крайний срок появления AGI — 2030 год. После чего отцы искусственного интеллекта предсказывают быстрое появление искусственного сверхинтеллекта (ASI) и начало технологической сингулярности.

    В интересное время живем. Появление искусственного сверхинтеллекта люди ждут, как пришествие Машиаха.
    Последний раз редактировалось SpaceSpirit; 28.09.2024 в 08:36.

  16. #16 (480628) | Ответ на # 480593
    Участник Аватар для Artemida
    Регистрация
    14.06.2021
    Адрес
    Украина
    Сообщений
    87
    Цитата Сообщение от SpaceSpirit Посмотреть сообщение
    Полазил в интернете и нашел следующие крайние сроки появления искусственного общего интеллекта (AGI) от видных людей, тесно связанных с созданием ИИ.

    Илон Маск (глава SpaceX, Tesla и Neuralink) — 2025;
    Дэниел Кокотайло (сотрудник OpenAI) — 2026;
    Леопольд Ашенбреннер (сотрудник OpenAI) — 2027;
    Шейн Легг (ученый, сотрудник DeepMind) — 2028;
    Рэймонд Курцвейл (изобретатель, технический директор Google) — 2029;
    Дженсен Хуанг (глава Nvidia) — 2029;
    Гейб Ньюэлл (глава Valve) — 2029;
    Демис Хассабис (глава DeepMind) — 2030;
    Бен Гертцель (ученый, сотрудник Aidyia Holdings, председатель Novamente LLC) — 2030;
    Сэм Альтман (глава OpenAI) — 2030.

    Это лишь часть.

    Крайний срок появления AGI — 2030 год. После чего отцы искусственного интеллекта предсказывают быстрое появление искусственного сверхинтеллекта (ASI) и начало технологической сингулярности.

    В интересное время живем. Появление искусственного сверхинтеллекта люди ждут, как пришествие Машиаха.
    Успеет ли сверх ИИ проявить себя в полной мере до свершения армагедонца, который многие предчувствуют как то, что "стоит на пороге"?.. может быть что сверх интеллект и не нужен будет, т.к некому будет его демонстрировать..))

  17. #17 (480629) | Ответ на # 480623
    Президент ОАЭ Его Высочество шейх Мухаммед бен Заед бен Султан Аль Нахайян провел встречи с генеральным директором Microsoft Сатьей Наделлой, генеральным директором BlackRock Ларри Финком и генеральным директором Nvidia Дженсеном Хуангом в Вашингтоне для того, чтобы обсудить стремительное развитие современных технологий и искусственного интеллекта (ИИ).



    Президент ОАЭ Его Высочество шейх Мухаммед бен Заед бен Султан Аль Нахайян на встрече с генеральным директором Microsoft Сатьей Наделлой в Вашингтоне.

    Встречи, состоявшиеся в рамках официального визита шейха Мухаммеда бен Заеда Аль Нахайяна в США, были сосредоточены на изучении возможностей, которые обеспечивают технологические разработки компаний техно-гигантов, и развитии сотрудничества между ОАЭ и США в сфере передовых технологий.

    Существующее сотрудничество между двумя странами в данной области включает недавнее партнерское соглашение, заключенное между компаниями G42 и Microsoft и недавнее соглашение о глобальном партнерстве в сфере инвестиций в развитие инфраструктуры ИИ, которое заключили между собой базирующаяся в ОАЭ технологическая компания MGX, а также Microsoft, BlackRock и другие крупные игроки рынка высоких технологий.

    Подобное сотрудничество представляет собой значительный стимул для привлечения инвестиций в сферу ИИ-технологий на благо развития и процветания всего мира.

    В ходе прошедших встреч президент ОАЭ подчеркнул твердую приверженность страны инвестированию в развитие ИИ и передовых технологий в целях удовлетворения амбиций по дальнейшему развитию страны.

    Он также отметил важность укрепления сотрудничества с международными партнерами, подчеркнув, что ответственное использование ИИ и передовых технологий имеет потенциал для ускорения технического прогресса и расширения экономических возможностей всего мирового сообщества.

    Генеральные директора трех технологических компаний выразили глубокую заинтересованность в продолжении сотрудничества с ОАЭ в сфере передовых технологий, признав значимость стратегии ОАЭ в сфере ИИ-технологий.

    На встречах присутствовал ряд членов делегации президента ОАЭ, в которую вошли шейхи, министры и высокопоставленные должностные лица.

  18. #18 (480648) | Ответ на # 480629
    Google DeepMind представила AlphaChip — инновационный метод обучения искусственного интеллекта с использованием подхода с подкреплением для проектирования микросхем. Этот метод обещает значительно ускорить процесс создания планов кристаллов, а также улучшить сами чипы по параметрам производительности, энергопотребления и занимаемой площади. Google уже применила AlphaChip при проектировании ускорителей ИИ TPU (Tensor Processing Unit), и решение также используется другими компаниями, такими как MediaTek.



    Проектирование плана микросхемы, или плана кристалла, является одним из самых сложных и длительных этапов разработки полупроводниковых компонентов. Компании Synopsys и Cadence Design Systems, выпускающие ПО для проектирования чипов, уже внедрили ИИ в этот процесс, однако их решения весьма дороги. Google решила сделать этот подход более доступным. В настоящее время создание плана кристалла для сложных микросхем, таких как графические процессоры, может занимать около двух лет, если этим занимаются люди. Проектирование менее сложных компонентов требует несколько месяцев, но это все равно сопряжено с огромными затратами, так как крупные компании привлекают множество специалистов. AlphaChip, по утверждению Google, выполняет эту задачу за считанные часы, при этом выдавая оптимизированные по производительности и энергоэффективности результаты. На представленной Google диаграмме также видно, как сокращалась длина проводников в предыдущих версиях TPU и в новом Trillium.



    Основой AlphaChip является модель обучения с подкреплением. ИИ размещает компоненты схемы на поле, рассматривая этот процесс как игру, где каждый ход — это размещение одного элемента. Нейросеть выстраивает граф взаимосвязей между компонентами, и с каждой новой итерацией система улучшает свои результаты.

    Google начала использовать AlphaChip в разработке TPU начиная с 2020 года. Эти процессоры применяются для работы с крупными моделями ИИ и облачными сервисами, включая архитектуру трансформеров, на которой базируются такие решения, как Gemini и Imagen. AlphaChip помогала совершенствовать каждый последующий чип TPU, включая самые современные Trillium, сокращая время разработки и повышая их производительность. Однако на данный момент, как Google, так и MediaTek используют эту систему только для ограниченного числа блоков, оставляя значительную часть работы за людьми.



    Помимо TPU, AlphaChip также использовалась при проектировании мобильных 5G-чипов MediaTek Dimensity, которые широко применяются в современных смартфонах. Система была предварительно обучена на большом количестве различных микросхем, что позволяет ей генерировать все более эффективные макеты по мере накопления опыта. Как отмечают в Google, ИИ обучается намного быстрее, чем человек.

    Успех AlphaChip вдохновил Google на дальнейшую интеграцию ИИ в разные этапы разработки микросхем — от логического синтеза и выбора макросов до временной оптимизации. Компания считает, что в будущем AlphaChip сможет охватывать весь цикл разработки чипов — от проектирования архитектуры до их производства. Это позволит создавать более быстрые, компактные и энергоэффективные микросхемы при снижении затрат. В перспективе AlphaChip будет использоваться не только для серверных ускорителей Google и мобильных платформ MediaTek, но и для более широкого спектра решений. Разработка AlphaChip продолжается.

    DeepMind открыла исходный код AlphaChip, чтобы другие компании со всего мира могли перенять себе эту технологию.

    ------------------

    Напоминаю, что DeepMind недавно создала ИИ AlphaFold 3 и AlphaProteo, которые уже используются учеными. AlphaFold 3 предсказывает структуры белков, а AlphaProteo создает новые белки.

    У DeepMind есть и ряд других ИИ-моделей (AlphaZero, AlphaCode, AlphaStar, AlphaProof, AlphaGeometry и др.), возможности которых в итоге будут объединены в AGI.
    Последний раз редактировалось Oscar Smith; 29.09.2024 в 17:59.

Метки этой темы

Ваши права

  • Вы не можете создавать новые темы
  • Вы не можете отвечать в темах
  • Вы не можете прикреплять вложения
  • Вы не можете редактировать свои сообщения
  •