Благодарности Благодарности:  0
Страница 1 из 2 12 ПоследняяПоследняя
Показано с 1 по 20 из 26

Тема: Gemini

  1. #1 (459791)

    Gemini

    Компания Google объявила о запуске модели искусственного интеллекта — Gemini. По заявлению генерального директора Google Сундара Пичаи, Gemini 1.0 на данный момент является самой мощной и универсальной ИИ-моделью компании. Он отметил, что технология изначально создавалась, как мультимодальная: она может обобщать, понимать, комбинировать и оперировать различными типами информации, включая текст, код, аудио, изображения и видео.



    Gemini способна извлекать информацию из сотен тысяч документов посредством чтения, фильтрации и понимания, и это поможет добиться настоящего прорыва в области цифровых технологий в самых разных сферах — от науки до финансов. Gemini обучена распознавать и понимать текст, изображения, аудио и многое другое одновременно, поэтому она лучше разбирается в нюансах информации и может отвечать даже на сложные вопросы. Также новая ИИ-модель способна понимать и генерировать код на таких языках программирования, как Python, Java, C++ и Go.



    Google не обучала отдельные модели для распознавания аудио и изображений, а с самого начала строила одну модель, способную воспринимать разные виды информации. И в Google обещают, что это восприятие будет только улучшаться.

    "Есть еще такие вещи, как действие и прикосновение, что уже больше относится к области робототехники, — заявляет генеральный директор Google DeepMind Демис Хассабис. По его словам, со временем Gemini получит больше "чувств", станет осознанней и точнее. — Эти модели просто лучше понимают окружающий мир".

    Модель Gemini 1.0 реализована в нескольких вариантах:

    • Gemini Ultra — самая большая и мощная версия для решения сложных задач;
    • Gemini Pro — версия среднего уровня для широкого спектра задач;
    • Gemini Nano — версия для мобильных устройств.

    Gemini Ultra стала первой ИИ-моделью, которая превзошла людей в многозадачном тесте под названием MMLU, который охватывает 57 предметов, включая математику, физику, право, медицину и этику. Gemini Ultra будет использоваться в новом инструменте для написания кода под названием AlphaCode2, который, по утверждению Google, способен в тестах превзойти 85% программистов-людей.

    Gemini может эффективно работать на оборудовании различного типа: от центров обработки данных до мобильных устройств.

    Что касается использования Gemini в продуктах Google, то чат-бот Bard уже получил Gemini Pro. Сейчас она доступна только на английском языке более чем в 170 странах, а в ближайшем будущем появится на других языках и в других местах, таких как Европа. Gemini Ultra еще тестируется и увидит свет в начале 2024 года. Ее интегрируют в продвинутую версию Bard под названием Bard Advanced. Gemini Nano будет внедряться в смартфоны. Google Pixel 8 Pro станет первым мобильным устройством с поддержкой этой технологии. В ближайшие месяцы поддержка Gemini появится в поиске, рекламе, браузере Chrome и других сервисах Google.

    Подробнее о Gemini со сравнительными таблицами с GPT-4 здесь - Introducing Gemini: Google’s most capable AI model yet.
    Последний раз редактировалось Oscar Smith; 07.12.2023 в 06:09.

  2. #2 (459843) | Ответ на # 459791
    Google объявила о запуске новой большой языковой модели Gemini. Вместе с ней компания представила свой новый ИИ-ускоритель Cloud TPU v5e (Tensor processing unit — тензорный процессор). Кластер на базе новых TPU состоит из 8960 чипов v5p и оснащен самым быстрым интерконнектом Google — скорость передачи данных может достигать 4800 Гбит/с на чип.



    Cloud TPU v5e оснащен 95 Гбайт памяти HBM3 с пропускной способностью 2765 Гбайт/с. Производительность в целочисленных операциях INT8 составляет 918 Тфлопс/c (триллионов операций в секунду).

    Новые чипы значительно быстрее, чем чипы предыдущего поколения TPU v4. Новый Cloud TPU v5p предложит двукратное увеличение производительности в операциях с плавающей запятой и трехкратное увеличение объема памяти с высокой пропускной способностью.

    Ускорители TPU v5p способны обучать большие языковые модели, например GPT-3 со 175 млрд параметров, в 2,8 раза быстрее, чем TPU v4, и при этом с меньшими затратами энергии. Более того, благодаря второму поколению SparseCore, TPU v5p может обучать embedding-dense модели в 1,9 раза быстрее, чем TPU v4. Помимо повышения производительности, TPU v5p обеспечивает вдвое более высокий уровень масштабируемости, чем TPU v4, что в сочетании с удвоением производительности обеспечивает в четыре раза больше Флопс на кластер.

    -------------------

    Напоминаю, что ранее свои новейшие ИИ-ускорители представили компании Amazon, Microsoft и NVIDIA.

    Amazon - https://www.vforum.org/forum/t7393-p...tml#post459076.
    Microsoft - https://www.vforum.org/forum/t7367-p...tml#post457158.
    NVIDIA - https://www.vforum.org/forum/t7367-p...tml#post457027.
    Последний раз редактировалось Oscar Smith; 07.12.2023 в 11:06.

  3. #3 (459904) | Ответ на # 459791
    Цитата Сообщение от VladislavMotkov Посмотреть сообщение
    "Есть еще такие вещи, как действие и прикосновение, что уже больше относится к области робототехники, — заявляет генеральный директор Google DeepMind Демис Хассабис. По его словам, со временем Gemini получит больше "чувств", станет осознанней и точнее. — Эти модели просто лучше понимают окружающий мир".


    Отрывок из фильма "Я - робот" 2004 года.

  4. #4 (459906) | Ответ на # 459904
    Компания AMD, вслед за другими ведущими разработчиками, представила свои новейшие для работы с ИИ процессоры серии Instinct MI300.

    Последний раз редактировалось Oscar Smith; 08.12.2023 в 06:05.

  5. #5 (459914) | Ответ на # 459906
    Владельцам электромобилей Tesla пришло обновление автопилота FSD Beta 11.4.8.1.



    Скорее всего это последнее Beta обновление, после которого последует запуск FSD 12.

    По словам главы компании Tesla Илона Маска, FSD 12 будет полностью работать на нейронных сетях и полагаться только на зрение, как человек, а не на радары и лидары.
    Последний раз редактировалось Oscar Smith; 08.12.2023 в 09:52.

  6. #6 (459945) | Ответ на # 459914
    Калифорнийская компания Inflection AI завершила обучение языковой модели Inflection-2, одной из лучших по способностям LLM в мире.



    Миссия Inflection - создать персональный ИИ для каждого. Всего несколько месяцев назад компания анонсировала Inflection-1. Модель Inflection-2 значительно превосходит Inflection-1, демонстрируя гораздо более глубокие знания фактов, лучший стилистический контроль и значительно улучшенные рассуждения.

    Inflection-2 скоро будет работать в чат-боте Pi. Благодаря переходу с ИИ-процессоров A100 на H100, компании удалось снизить стоимость и увеличить скорость обслуживания по сравнению с Inflection-1, несмотря на то, что Inflection-2 в несколько раз больше.

    Это важная веха компании на пути к созданию персонального ИИ для всех, и разработчики с нетерпением ждут новых возможностей, которые Inflection-2 откроет в Pi. По мере того как компания продолжает расширяться, она уже запланировала обучение еще более крупных моделей на полной мощности ее кластера из 22 000 GPU.

    Страница компании Inflection - Inflection.

  7. #7 (459951) | Ответ на # 459945
    В начале следующего года в штате Орегон, США, откроется RoboFab компании Agility Robotics - первое в мире предприятие по массовому производству человекоподобных промышленных роботов.



    Первая партия из 100 роботов Digit будет развернута в компании Amazon для поддержки ее систем сортировки и логистики. Со временем производитель планирует расширить производство до 10 000 роботов в год.

    RoboFab займет площадь около 6 500 квадратных метров и на первых порах будет выпускать около сотни человекоподобных роботов в год, а более крупные поставки начнутся в 2025 году.

    "Мы придаем большое значение скорейшему выводу роботов на рынок", — сказал генеральный директор компании Agility Robotics Дэмион Шелтон. "Наш большой план — как можно скорее создать универсальных гуманоидов", — добавил он.

    Сайт Agility Robotics - https://agilityrobotics.com.

  8. #8 (460024) | Ответ на # 459951
    В последние дни все чаще стали поступать жалобы пользователей на то, что ИИ-чат-бот ChatGPT на базе модели OpenAI GPT-4 стал отказываться выполнять запросы, мотивируя это тем, что он не заинтересован в помощи людям.

    Так, в ответ на просьбу предоставить фрагмент кода, он мог просто дать небольшой фрагмент и предложить пользователю доделать остальное самостоятельно. Причем, по словам некоторых пользователей, это делалось самым дерзким образом, например, иногда бот просто заявлял, что они вполне могли бы выполнить всю работу самостоятельно — без обращения к ИИ.

    В OpenAI сообщили, что осведомлены о жалобах на ИИ-бот и отметили, что никаких изменений в модель не вносили. "Мы просмотрели все ваши отзывы о том, что GPT-4 становится более ленивым! — написала компания в соцсети X. — Мы не обновляли модель с 11 ноября, и это определенно не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить".



    Люди вскоре могут потерять контроль над искусственным интеллектом, учитывая темпы его развития. Об этом в интервью Bloomberg заявил глава одного из ведущих разработчиков чипов Arm Holdings Рене Хаас.

    В то же время он отметил, что в ближайшем будущем Arm Holdings окажется столь же важной для революции искусственного интеллекта, как и для смартфонов, где ее технологии распространены повсеместно.

    Arm Holdings была приобретена японской компанией Softbank в 2016 году за $32 млрд. Как отмечает Bloomberg, Arm Holdings "вездесущ", поскольку технологии компании, на базе которых разрабатываются мобильные процессоры, используются в 99% смартфонов, продаваемых ежегодно.
    Последний раз редактировалось Oscar Smith; 11.12.2023 в 08:31.

  9. #9 (460035) | Ответ на # 460024
    Глава компании NVIDIA Дженсен Хуанг продолжает свою поездку по Азии. Теперь Хуанг прибыл во Вьетнам. NVIDIA расширит сотрудничество с вьетнамскими компаниями технологического сектора, а также поможет им в подготовке квалифицированных кадров.



    NVIDIA вложила в экономику Вьетнама $250 млн, развивая сотрудничество с представителями местного бизнеса в сфере облачных вычислений, искусственного интеллекта, решений для автомобильной промышленности и здравоохранения.

    Дженсен Хуанг: "Вьетнам уже является нашим партнером, и у нас здесь миллионы клиентов".

    Развивая сотрудничество с компаниями Viettel, FPT, Vingroup и VNG, американский разработчик ускорителей вычислений будет помогать Вьетнаму развивать инфраструктуру систем искусственного интеллекта и готовить для нее специалистов. Власти Вьетнама заинтересованны в развитии компетенций вьетнамских компаний в сфере разработки, а в идеале и производства полупроводниковых компонентов.

    Министр инвестиций Вьетнама Нгуен Чи Дунг заявил, что правительство страны готовит механизмы и субсидии для привлечения инвестиционных проектов в сфере полупроводниковых компонентов и искусственного интеллекта. Чиновник призвал NVIDIA построить во Вьетнаме исследовательских центр, и глава компании в том или ином виде пообещал создать "базу" в этой стране.

    Напоминаю, что на прошлой неделе Дженсен Хуанг посещал Малайзию, и местный холдинг YTL Power International заявил о намерениях совместно с NVIDIA вложить около $4,3 млрд в строительство большого вычислительного центра, занимающегося искусственным интеллектом. Уже к середине следующего года центр обработки данных планируется построить в Малайзии, а местный партнер как раз поможет NVIDIA с доступом к инженерным сетям. Кроме того недавно Хуанг посетил Японию, о чем подробнее здесь - https://www.vforum.org/forum/t7393.html#post459564.
    Последний раз редактировалось Oscar Smith; 11.12.2023 в 11:04.

  10. #10 (460070) | Ответ на # 460035
    В начале этого года Meta представила набор персонажей искусственного интеллекта, в том числе основанных на реальных знаменитостях, таких как Пэрис Хилтон, MrBeast, Кендалл Дженнер, Том Брэди, Шарли Д'Амелио, Снуп Дог и другие, с которыми пользователи могут общаться в приложениях Meta. Сегодня компания объявила о том, что 28 персонажей искусственного интеллекта полностью развернуты в США, и люди могут общаться с ними в WhatsApp, Messenger и Instagram.



    Кроме того, компания сообщила, что большее количество ее ИИ-персонажей будет поддерживать поиск на базе Bing и начнет экспериментировать с "долговременной памятью" - это значит, что персонажи будут учиться и запоминать ваш разговор, когда он закончится.

    Преимущество последнего варианта заключается в том, что персонаж больше похож на реального человека и помнит, о чем вы говорили раньше, но это также дает Meta возможность сохранять данные о пользователях между сессиями, чтобы со временем улучшить свои продукты ИИ.

    По словам Meta, функция долговременной памяти будет работать в Билли (по мотивам Кенделл Дженнер), Картере (тренер по свиданиям), Скарлетт ("подруга по шумихе"), Заке (по мотивам MrBeast), Викторе (по мотивам Дуайана Уэйда), Салли (по мотивам Сэм Керр) и Лео (тренер по карьере).

    Компания объясняет, что когда пользователи будут общаться с этим подмножеством персонажей ИИ, они смогут продолжить разговор с того места, на котором остановились.

    "Наша цель - привнести в ваши чаты с ИИ потенциал для более глубоких связей и расширенных разговорных возможностей", - говорится в блоге компании. В нем также отмечается, что пользователи смогут в любой момент очистить историю общения с ИИ, а при использовании данных чата Meta будет руководствоваться своими рекомендациями по конфиденциальности генеративного ИИ.

    Помимо долговременной памяти, все персонажи будут поддерживать возможность работы с поиском Bing. Два спортивных ИИ, Брю (основанный на Томе Брэди) и Перри (основанный на Крисе Поле), поддерживают Bing Search с момента своего появления. Теперь эта функция появится и у персонажей ИИ Луиса (на основе Иззи Адесаньи), Коко (на основе Чарли Д'Амелио), Лорены (на основе Падмы Лакшми), Тамики (на основе Наоми Осаки), Иззи (начинающий певец-песенник) и Джейд ("одержимая хип-хопом").

    Чтобы получить доступ к ИИ в приложении Meta, пользователям нужно сначала начать новое сообщение в приложении, а затем выбрать "Создать чат с ИИ" в Instagram, Messenger и WhatsApp.

  11. #11 (460125) | Ответ на # 460070
    Французская компания Mistral AI продолжает свою миссию по предоставлению одних из лучших открытых моделей ИИ сообществу разработчиков. Движение вперед в области ИИ требует новых технологических поворотов, не ограничиваясь повторным использованием известных архитектур и парадигм обучения. Самое главное - это сделать так, чтобы сообщество могло пользоваться оригинальными моделями для развития новых изобретений и применений.



    Команда Mistral AI выпускает Mixtral 8x7B, высококачественную модель SMoE с открытыми весами. Модель лицензирована под Apache 2.0. Mixtral превосходит LLaMA 2 70B в большинстве бенчмарков и в 6 раз быстрее делает выводы. Это самая сильная модель с открытыми весами с разрешительной лицензией и лучшая модель в целом в отношении компромисса между стоимостью и производительностью. В частности, она соответствует или превосходит GPT-3.5 в большинстве стандартных бенчмарков.

    Mixtral обладает следующими возможностями:

    • Изящно обрабатывает контекст из 32 тысяч лексем.
    • Обрабатывает английский, французский, итальянский, немецкий и испанский языки.
    • Демонстрирует высокую производительность при генерации кода.
    • Может быть доработана до модели следования инструкциям, которая достигает 8,3 балла в MT-Bench.

    Подробнее о модели на официальном сайте Mistral AI - https://mistral.ai/news/mixtral-of-experts/.
    Скачать бета версию модели можно на Hugging Face - mistralai/Mixtral-8x7B-v0.1 * Hugging Face.

    Ранее Mistral AI привлекла 414 млн долларов во втором раунде финансирования на развитие. Раунд возглавил американский венчурный фонд Andreessen Horowitz. Среди других инвесторов - технологические гиганты США как Salesforce и NVIDIA.

    ---------------

    Важно учитывать, что подобные языковые модели с малым количеством параметров не про знания о мире, а об умениях. Например, такие модели хорошо справляются с такими задачами, как суммаризация текста, решение математических задач, написание программного кода и прочее. Кроме того их можно запустить на домашнем компьютере.

    Orca 2 - другая мощная языковая модель с небольшим количеством параметров. О ней подробнее здесь - https://www.vforum.org/forum/t7393.html.
    Последний раз редактировалось Oscar Smith; 12.12.2023 в 17:41.

  12. #12 (460156) | Ответ на # 460136
    Корпорация Microsoft представила новую модель искусственного интеллекта под названием Phi-2, которая демонстрирует удивительную способность соответствовать или даже превосходить по производительности гораздо более крупные и известные модели, в 25 раз превышающие ее по размеру.



    В своем блоге Microsoft сообщила, что Phi-2 - это языковая модель с 2,7 миллиардами параметров, которая демонстрирует "современную производительность" по сравнению с другими базовыми моделями в сложных эталонных тестах, измеряющих ее способности к рассуждению, пониманию языка, математике, кодированию и здравому смыслу. Phi-2 выпускается сейчас через каталог моделей Microsoft Azure AI Studio, то есть она уже доступна для исследователей и разработчиков, желающих интегрировать ее в сторонние приложения.

    Phi-2 обладает невероятно мощным потенциалом благодаря обучению на данных "качества учебника", которые, по словам компании, ориентированы именно на знания, а также методам, позволяющим передавать полученные знания от альтернативных моделей.

    Что интересно в Phi-2, так это то, что традиционно превосходство больших языковых моделей всегда было тесно связано с их общим размером, который измеряется в параметрах. Модели с большими параметрами обычно демонстрируют больше возможностей, но с появлением Phi-2 ситуация изменилась.

    Phi-2 продемонстрировала способность соответствовать или даже превосходить возможности гораздо более крупных фундаментальных моделей, включая Mistral 7B, LLaMA 2 13B и даже LLaMA-2 70B в определенных бенчмарках.

    Возможно, самым удивительным заявлением является то, что она может даже превзойти производительность Gemini Nano от Google. Gemini Nano предназначена для выполнения задач на устройстве и может работать на смартфонах, обеспечивая такие функции, как резюмирование текста, расширенная корректура и исправление грамматики, а также контекстные умные ответы.

    Тесты, в которых участвовала Phi-2, были обширными и охватывали понимание языка, рассуждения, математику, задачи по кодированию и многое другое.



    Производительность Phi-2 объясняется тем, что она была обучена на тщательно подобранных данных, которые были направлены на обучение рассуждениям, знаниям и здравому смыслу, что означает, что она может узнать больше из меньшего количества информации. Исследователи Microsoft также применили методы, позволяющие внедрять знания из более мелких моделей.

    Примечательно, что Phi-2 может достичь высоких показателей без использования таких методов, как обучение с подкреплением на основе обратной связи с человеком или тонкая настройка, которые часто применяются для улучшения поведения моделей ИИ. Несмотря на то, что эти методы не используются, Phi-2 смогла продемонстрировать более высокую производительность в плане смягчения предвзятости и токсичности по сравнению с другими моделями с открытым исходным кодом, которые их используют. Компания считает, что это результат индивидуального подхода к обработке данных.

    Информация о Phi-2 в блоге Microsoft - Phi-2: The surprising power of small language models - Microsoft Research.
    Доступ к Phi-2 в Microsoft Azure AI Studio - Azure AI | Machine Learning Studio.
    Последний раз редактировалось Oscar Smith; 13.12.2023 в 17:13.

  13. #13 (460232) | Ответ на # 460156
    В эпоху, когда языковые модели становятся неотъемлемой частью нашего взаимодействия с технологиями, израильская компания Deci представляет языковую модель DeciLM-7B. Лицензированная под Apache 2.0, DeciLM-7B является одной из самой быстрой и самой совершенной базовой LLM с 7 миллиардами параметров, доступной сегодня, и пересматривает стандарты скорости и точности.



    Особенности DeciLM-7B:

    • Точность: Достигнув среднего балла 61,55 на Open LLM Leaderboard, DeciLM-7B превосходит своих конкурентов в классе 7 миллиардов параметров, включая предыдущего лидера, Mistral 7B. Такое повышение точности потенциально может привести к более надежным и точным ответам в различных приложениях, от ботов для обслуживания клиентов до комплексного анализа данных.
    • Производительность: В бенчмарке PyTorch DeciLM-7B демонстрирует заметный прирост производительности, опережая Mistral 7B в 1,83 раза и превосходя LLaMA 2 7B в 2,39 раза при обработке последовательностей из 2048 токенов как на входе, так и на выходе.
    • Ускорение с Infery-LLM: производительность DeciLM-7B может быть еще больше увеличена благодаря синергии с Infery-LLM, SDK для вычислений Deci, разработанным для обеспечения высокой пропускной способности, низких задержек и экономически эффективных вычислений на широко распространенных графических процессорах. Этот мощный дуэт устанавливает новый стандарт производительности, достигая скорости в 4,4 раза выше, чем Mistral 7B с vLLM. Такая синергия очень полезна для отраслей, где требуется возможность одновременного обслуживания множества клиентов. Интеграция DeciLM-7B с Infery-LLM создает среду, в которой высокоскоростное взаимодействие с клиентами в больших объемах становится реальностью. Это особенно важно в таких отраслях, как телекоммуникации, онлайн-ритейл и облачные сервисы, где способность отвечать на массовые запросы клиентов в режиме реального времени может значительно повысить удобство работы и операционную эффективность.
    • Архитектура: В DeciLM-7B, разработанном с помощью поискового движка с нейронной архитектурой AutoNAC, используется переменное внимание к сгруппированным запросам, что является прорывом в достижении оптимального баланса между точностью и скоростью.
    • Вариант, настроенный на инструкцию: DeciLM-7B был настроен по инструкции с помощью LoRA на наборе данных SlimOrca. Полученная модель, DeciLM-7B-instruct, достигла среднего значения 63,19 на Open LLM Leaderboard и является одной из лучших моделей 7B instruct, полученных с помощью простой тонкой настройки LoRA, без использования методов оптимизации предпочтений, таких как RLHF и DPO.
    • Язык (NLP): Английский.
    • Лицензия: Apache 2.0.

    Предприятия могут использовать удивительное сочетание эффективности и точности DeciLM-7B для создания более эффективных и удобных инструментов искусственного интеллекта по низкой цене, что способствует инновациям во всех отраслях. DeciLM-7B прокладывает путь к более умным, отзывчивым, экономически эффективным и масштабируемым ИИ-решениям - от улучшения обслуживания клиентов в режиме реального времени с помощью чат-ботов и персонализированных рекомендаций до автоматизации рабочих процессов в профессиональных областях с большим объемом текста.

    Скачать DeciLM-7B можно здесь - Deci/DeciLM-7B * Hugging Face.
    Последний раз редактировалось Oscar Smith; 15.12.2023 в 15:17.

  14. #14 (460435) | Ответ на # 460417
    Цитата Сообщение от VladislavMotkov Посмотреть сообщение
    В начале следующего года в штате Орегон, США, откроется RoboFab компании Agility Robotics - первое в мире предприятие по массовому производству человекоподобных промышленных роботов.

    Первая партия из 100 роботов Digit будет развернута в компании Amazon для поддержки ее систем сортировки и логистики. Со временем производитель планирует расширить производство до 10 000 роботов в год.

    RoboFab займет площадь около 6 500 квадратных метров и на первых порах будет выпускать около сотни человекоподобных роботов в год, а более крупные поставки начнутся в 2025 году.

    "Мы придаем большое значение скорейшему выводу роботов на рынок", — сказал генеральный директор компании Agility Robotics Дэмион Шелтон. "Наш большой план — как можно скорее создать универсальных гуманоидов", — добавил он.

    Сайт Agility Robotics - https://agilityrobotics.com.
    Компания Tesla представила Optimus Gen 2, новое поколение своего робота-гуманоида.

    Новая версия робота теперь оснащена всеми приводами и датчиками, разработанными Tesla, и ходит на 30% быстрее. Кроме того снижен вес на 10 кг при одновременном улучшении баланса.

    Одна из самых сложных частей робота-гуманоида — это руки. Они должны быть достаточно прочными, чтобы выдерживать значительный груз, и в то же время достаточно точными, чтобы обращаться с хрупкими объектами.

    Компания заявила, что планирует вскоре начать использовать робота в собственных производственных операциях. Как только робот докажет свою полезность, Tesla планирует начать его продавать.

    Ранее Илон Маск заявил, что потенциальный спрос на таких роботов может достигать от 10 до 20 миллиардов единиц.



    Optimus создается для выполнения задач, которые являются для человека опасными, повторяющимися и скучными, например, помощь на производстве или уборка в доме, поливка цветов и пр.

    Обучение искусственного интеллекта робота проходит на собственных суперкомпьютерах компании. Сейчас уже построен суперкомпьютер Dojo, который в 2024 году будет разогнан до скорости вычислений ИИ в 100 экзафлопсов. Он будет использоваться как для обучения автопилота электромобилей Tesla, так и робота.

    О предыдущих версиях робота можно почитать здесь - https://www.vforum.org/forum/t7243.html.

  15. #15 (462370) | Ответ на # 460435
    Ученые Университетского колледжа Лондона (UCL) объяснили, каким образом человеческий мозг способен к воображению и какую роль в этом играет эпизодическая память. Согласно результатам исследования, опубликованного в журнале Nature Human Behaviour, нейронные процессы, отвечающие за эти функции, сильно напоминают работу искусственного интеллекта — обученной генеративной нейронной сети, способной создавать новые изображения.

    Известно, что эпизодическая память содержит автобиографические переживания, включая информацию об их времени и местоположении, тогда как семантическая память связана с фактическими знаниями. Эпизодическая память осуществляется за счет долговременной потенциации нейронов в гиппокампе, когда между нервными клетками происходит усиление синаптической передачи сигналов. При этом она является конструктивной, то есть воспоминание является реконструкцией прошлого опыта, а не извлеченной копией.

    Гиппокамп — область, в которой воспоминания формируются, однако благодаря процессу, называемому консолидацией систем и происходящему во время отдыха, они передаются в неокортекс. Параллельно происходит процесс, называемый семантизацией, когда часть воспоминаний преобразуется в более абстрактное представление.



    Основой нового исследования, проведенного специалистами Института когнитивных нейронаук в UCL, стало предположение, что консолидированные воспоминания имеют форму генеративной нейронной сети, которая обнаруживает статистические закономерности в данных и способна создавать новые данные. Такие нейронные сети, как, например, GPT или Midjourney, могут генерировать тексты или изображения животных.

    В ходе экспериментов были использованы нейронные сети, моделирующие гиппокамп и неокортекс. Роль гиппокампа играла автоассоциативная нейронная сеть, которая обучена выдавать те же данные, что поступают на ее входы. Данные из этой сети использовались для обучения генеративных нейронных сетей — вариационных автоэнкодеров. Сеть гиппокампа кодировала десять тысяч изображений простых сцен, а неокортикальная использовала закодированную информацию для воссоздания сцен в виде активности выходных нейронов.

    Результаты исследования показывают, что человеческий мозг способен создавать высокоэффективные концептуальные представления сцен, отражающие их смысл (например, расположение объектов), вместо того, чтобы кодировать каждую деталь. Это позволяет как воссоздавать старые сцены, так и генерировать совершенно новые, что лежит в основе воображения. Модель также объясняет, как сцены могут генерироваться при планировании будущего, а также почему существующие воспоминания часто содержат искажения.

    Ссылка на исследование - https://www.nature.com/articles/s41562-023-01799-z.

    Как видите, ничего сверхъестественного в воображении человека нет. Природу человеческого разума можно объяснить и скопировать, что уже делается и будет сделано в недалеком будущем.
    Последний раз редактировалось Oscar Smith; 22.01.2024 в 18:22.

  16. #16 (462391) | Ответ на # 462370
    "Великолепную семерку" американских технологических компаний составляют Apple, Microsoft, Alphabet (Google), Amazon, NVIDIA, Tesla и Meta. В начале 2024 года индекс S&P 500 закрылся на историческом максимуме после стремительного роста акций этих мировых лидеров технологической отрасли. Инвесторы воодушевлены потенциалом ИИ, который принес 62% от общего прироста в размере 26% за 2023 год.



    Пять американских компаний, капитализация которых превысила триллион долларов:

    Apple - $3 трлн (самый высокий в мире показатель);
    Microsoft - $2.95 трлн;
    Alphabet - $1.8 трлн;
    Amazon - $1.6 трлн;
    NVIDIA - $1.4 трлн.

  17. #17 (462439) | Ответ на # 462391
    Корпорация Microsoft достигла исторической рыночной оценки в 3 трлн долларов на фоне оптимизма в отношении развития искусственного интеллекта.



    Microsoft, благодаря своему партнерству с OpenAI, считается одним из крупнейших бенефициаров ИИ.

    Такой рост привел к тому, что Microsoft стала одной из самых популярных акций на Уолл-стрит.

  18. #18 (462526) | Ответ на # 462439
    Уже шестая американская корпорация достигла капитализации в триллион долларов. На этот раз в этот список попала корпорация Meta, которая так же занимается исследованиями в области искусственного интеллекта.



    Тем временем исследователи искусственного интеллекта из подразделения Google Research американской корпорации Google создали генератор видеоконента по текстовым запросам под названием Lumiere. Команда разместила отчет о проделанной работе на платформе научных публикаций arXive.

    Новая нейросеть может генерировать готовые ролики в высоком разрешении в соответствии с короткими запросами.

    Google описывает технологию, лежащую в основе нового инструмента, как "революционную архитектуру пространства-времени U-Net". Она была разработана для создания видео за один сеанс работы ИИ-модели.

    Инструмент может как создавать видеоролики с нуля, так и редактировать уже готовые клипы в соответствии с запросами. Также Lumiere способен анимировать статичное изображение.

    В Google пока не уточнили когда Lumiere станет общедоступным.

    Ссылка на исследование - https://arxiv.org/pdf/2401.12945.pdf.
    Последний раз редактировалось Oscar Smith; 27.01.2024 в 11:35.

  19. #19 (462552) | Ответ на # 462526
    Илон Маск сообщил в соцсети X, что первый человек получил нейрочип, который позволяет силой мысли управлять электронными устройствами. По словам Маска, доброволец "хорошо восстанавливается". Первоначальная цель компании — создать чип, который поможет устранить последствия травм головного и спинного мозга, чтобы парализованные люди могли управлять электронными устройствами силой мысли через Bluetooth, а затем данный чип будет использоваться для управления экзоскелетом, а в идеале и своим собственным парализованным телом.



    "Вчера первый человек получил имплант от Neuralink и хорошо восстанавливается. Первоначальные результаты показывают многообещающее обнаружение нейронных спайков", — написал Маск. Он отметил, что устройство позволит его носителю, "просто подумав", управлять электронными устройствами. "Представьте, что Стивен Хокинг мог бы общаться быстрее, чем машинистка или аукционист. Это цель", — заявил Маск.

    Ранее Илон Маск заявлял, что предлагаемая технология может помочь снять опасения по поводу вытеснения человека искусственным интеллектом.

    Так же загляните сюда - https://www.vforum.org/forum/t7383-p...tml#post458400.
    Последний раз редактировалось Oscar Smith; 30.01.2024 в 04:50.

  20. #20 (462823) | Ответ на # 462552
    Корпорация Microsoft запускает программу ADVANTA(I)GE INDIA, которая направлена на обучение 2 млн жителей Индии навыкам использования искусственного интеллекта к 2025 году. Программу представил Сатья Наделла, глава Microsoft. Обучение будет проводиться в средних и небольших городах, а также в сельской местности через местные центры занятости, курсы профориентации, школы, колледжи и университеты. Кроме того, компания будет повышать квалификацию госчиновников, расширять возможности некоммерческих организаций и проведет саммит для руководителей НКО в апреле 2024 года.

    Подробнее здесь - Microsoft to provide AI skilling opportunities to 2 million people in India by 2025 - Microsoft Stories India.

Метки этой темы

Ваши права

  • Вы не можете создавать новые темы
  • Вы не можете отвечать в темах
  • Вы не можете прикреплять вложения
  • Вы не можете редактировать свои сообщения
  •