Мир Вам! Если это Ваш первый визит к нам, то Вы можете посмотреть как пользоваться форумом в справке. Для публикации статей и для общения необходимо зарегистрироваться. Благословений!
TSMC начала производство чипов на своей фабрике Fab 21 недалеко от Финикса, Аризона, используя свой 4-нм техпроцесс.
"Впервые в истории нашей страны мы производим передовые 4-нм чипы на американской земле, с участием американских рабочих, — на уровне выхода и качества с Тайванем", — сказала министр торговли Джина Раймондо.
Проект TSMC в Аризоне играет ключевую роль в достижении цели США по производству 20% самых передовых логических чипов в мире к 2030 году, которую администрация Байдена поставила несколько лет назад, еще до принятия Закона о чипах и науке (CHIPS and Science Act). Фабрика TSMC Fab 21 в Аризоне производит чипы для американских компаний в значительных объемах, что является явным свидетельством успешности инициативы.
В рамках Закона о чипах и науке Министерство торговли США предоставило TSMC гранты в размере $6,6 миллиардов и гарантии по кредитам до $5 миллиардов. Для включения трех модулей фабрики, которые планируется построить и запустить к концу десятилетия, площадке Fab 21 потребуется финансирование в размере около $65 миллиардов.
Первый модуль Fab 21 производит чипы с использованием 4-нм и 5-нм техпроцесса. Следующий модуль Fab 21 ожидается в 2028 году с 3-нм техпроцессом. К концу десятилетия TSMC планирует построить третий модуль Fab 21, который будет производить чипы на 2-нм и 1,6-нм.
OpenAI объявила о заключении договора о сотрудничестве с Национальными лабораториями США, чтобы "дать толчок их научным исследованиям с помощью своих новейших моделей рассуждения". Компания назвала правительство США критически важным партнером в вопросе обмена технологиями OpenAI с ведущими учеными страны.
Ранее OpenAI запустила ChatGPT Gov специально для американских правительственных учреждений. Чат-бот должен упростить чиновникам выполнение их повседневных задач и обеспечить безопасность данных.
В декабре прошлого года OpenAI начала сотрудничество со стартапом в сфере оборонных технологий Anduril Industries, чтобы интегрировать свои технологии в американские военные системы борьбы с беспилотниками.
В рамках нового соглашения OpenAI совместно с Microsoft развернет o1 или другую модель o-серии на суперкомпьютере Venado в Лос-Аламосской национальной лаборатории, где модель станет общим ресурсом также для Ливерморской национальной лаборатории и Сандийских национальных лабораторий.
Venado разработали для стимулирования научных исследований в материаловедении, возобновляемой энергетике, астрофизике и других областях. Суперкомпьютер Nvidia представили в апреле прошлого года. Разработка основана на чипах Nvidia Grace Hopper и способна обеспечить производительность около 10 экзафлопс.
Модель "рассуждения" OpenAI будут использовать для ускорения развития фундаментальной науки, выявления новых подходов к лечению и профилактике заболеваний, повышения кибербезопасности и защиты американской энергосистемы. Также они помогут повысить безопасность США за счет улучшения систем обнаружения природных и антропогенных угроз до их возникновения.
Кроме того, OpenAI пообещала обеспечить поддержку Национальным лабораториям США в их программе по снижению риска ядерной войны.
Компания представила свою первую модель искусственного интеллекта o1 с возможностями "рассуждения" в сентябре 2024 года. Проект имеет в несколько раз большую производительность, чем GPT-4o.
---------------
Со дня на день OpenAI запустит новую ИИ o3. Сообщается, что версия o3-mini будет бесплатной для всех пользователей. В рамках теста ARC-AGI, который был специально создан для сравнения возможностей искусственного интеллекта с интеллектом человека, модель o3 более чем в три раза превзошла возможности o1, продемонстрировав результат в 88%. Если скорость развития сохранится, то высока вероятность, что уже в этом году ИИ достигнет уровня человеческого интеллекта.
Последний раз редактировалось Oscar Smith; 01-31-2025, 05:20 PM.
Что насчет модели DeepSeek R1? Правда ли она настолько хороша, как о ней говорят китайские коллеги? Какой-то конкретики о ней я так и не услышал. Единственный плюс лично для меня - ее полная бесплатность. А вот в плане ответов она мне не особо нравится. Не всегда получаешь от нее то, чего ждешь, особенно при анализе новостной ленты из интернета. А стиль ее ответов подозрительно похож на o1. Ну и цензура раздражает. О политике с ней не поговоришь. Хотелось бы услышать мнение людей, разбирающихся во всех этих ИИ.
Только что на сайте OpenAI увидел новость о запуске модели o3-mini. Ей можно пользоваться бесплатно, но с ограничениями в количестве запросов. Для платных пользователей никаких ограничений нет.
Последний раз редактировалось SpaceSpirit; 02-01-2025, 05:54 AM.
Что насчет модели DeepSeek R1? Правда ли она настолько хороша, как о ней говорят китайские коллеги? Какой-то конкретики о ней я так и не услышал. Единственный плюс лично для меня - ее полная бесплатность. А вот в плане ответов она мне не особо нравится. Не всегда получаешь от нее то, чего ждешь, особенно при анализе новостной ленты из интернета. А стиль ее ответов подозрительно похож на o1. Ну и цензура раздражает. О политике с ней не поговоришь. Хотелось бы услышать мнение людей, разбирающихся во всех этих ИИ.
Только что на сайте OpenAI увидел новость о запуске модели o3-mini. Ей можно пользоваться бесплатно, но с ограничениями в количестве запросов. Для платных пользователей никаких ограничений нет.
В тесте ARC-AGI ИИ-модель DeepSeek R1 набрала 15.8%. OpenAI o1 набрала 35%, а o3 — 87.5%. Чем выше показатель, тем ближе ИИ к интеллекту человека. R1 в 2.2 раза уступает o1 и в 5.5 раз — o3.
R1 менее требовательна к вычислительным ресурсам благодаря ее архитектуре. Дело в том, что ее нейросеть разделена на блоки. Каждый блок отвечает за свою тему. Если пользователь задает вопрос о математике, то нейросеть активирует только тот блок, который отвечает за математику. Если разговор идет о биологии, то активируется соответствующий блок. Т.е. во время генерации ответа активируется не вся нейросеть, а только те блоки, которые необходимы для генерации ответа. В этом плане все существующие ИИ-модели, включая o1, медленнее, чем R1. Но только что вышедшая o3 имеет гораздо большую скорость, чем o1. Сравнить с R1 я ее пока не могу из-за неимения точных показателей. Но в любом случае для пользователя эти скорости не имеют никакого значения, т.к. даже самая медленная нейросеть генерирует ответ быстрее, чем человек может его прочитать. А вот для владельцев дата-центров скорость имеет значение, т.к. чем быстрее нейросеть работает, тем дешевле она обходится в плане потребления электроэнергии.
Главное преимущество нейросети R1 заключается в том, что она бесплатная и не имеет ограничений по количеству запросов. Но это скорее не ее преимущество, а преимущество ценовой политики компании-разработчика. Так-то любую нейросеть можно сделать бесплатной, если разработчик не стремится заработать максимум денег.
Китайцы говорят, что обучение R1 обошлось в разы дешевле, чем обучение ее конкурентов, но у нас нет никаких доказательств этому утверждению. Многие эксперты сходятся во мнении, что R1, даже если и дешевле в обучении, то не настолько, как говорят китайцы. И давайте не будем забывать, что у R1 около 600 млрд нейронных связей, в то время как у нейросетей от OpenAI триллионы связей. Как ни крути, но обучение таких гигантов обойдется дороже, чем у R1.
Почему ответы у R1 похожи на ответы o1? Все дело в том, что разработчики использовали в обучении метод дистилляции. Это когда нейросеть обучается на основе ответов более умных нейросетей. Она копирует логику и стиль своего учителя. У DeepSeek имеются несколько вариантов R1: DeepSeek-R1-Distill-Llama и DeepSeek-R1-Distill-Qwen. Из названий моделей видно, что они обучались на основе ответов моделей Llama и Qwen. Но вы нигде не сможете найти вариант DeepSeek-R1-Distill-o1 или что-то вроде того, поэтому мы не можем точно сказать, использовали ли разработчики при обучении флагманской R1 ответы из ChatGPT. Но, судя по тому, что ответы R1 подозрительно похожи на ответы o1, разработчики втихаря обучали свою R1 на основе ответов o1 через API. В OpenAI заявили, что прикроют эту лазейку для таких тихушников.
В итоге мы имеем следующее:
- R1 в разы уступает по интеллектуальным способностям моделям от OpenAI.
- R1 быстрее своих конкурентов, но вряд ли быстрее o3.
- R1 можно использовать бесплатно без ограничений по количеству запросов. Но это преимущество не модели, а политики разработчика.
- R1 обошлась дешевле в обучении, но это не доказано, и есть везкие причины не доверять этому утверждению.
- R1 копирует логику и стиль ответов у o1, потому что она, скорее всего, обучалась у o1.
И еще, когда появилась новость о запуске R1, капитализация американских технологических компаний обвалилась. Но это длилось недолго, и через пару дней, когда люди поняли, что к чему, капитализация снова вернулась на прежний уровень. Обвал произошел, потому что люди в большинстве ничего не понимают о нейросетях. Но когда они разобрались, то стало ясно, что у R1 нет никакого глобального преимущества над американскими конкурентами, а по интеллектуальным способностям, а это главное для потребителя, а значит и для заработка разработчика, она даже уступает американским нейросетям в разы.
Так что новость о DeepSeek R1 раздута искусственно.
В OpenAI запустили агента Operator и рассказали про скорый запуск GPT-5, флагманской o3 и новой DALL-E. Еще они обещали снизить цены, частично открыть ход рассуждения у думающих моделей и открыть исходный код моделей ИИ прошлого поколения.
Google обновила в своем чат-боте Gemini ИИ до Gemini 2.0 Flash. Вот что она мне написала в ответ на просьбу сочинить стихотворение о беззубом вампире.
Был Влад вампир, но вот те раз!
Зубов лишился в тот же час.
Не в битве, не в ночной войне,
А просто, как-то, по весне,
И челюсть будто отвалилась,
Кусать теперь совсем не в силах.
И вот, печальный, бледный Влад,
В плаще из бархата, как ад,
В свой замок древний возвратился,
Где пылью гроб давно покрылся.
И кровь не пьет, как прежде, он,
Не слышен ночью страшный стон.
Он смотрит грустно на луну,
И вспоминает старину,
Как молод был, как был зубаст,
Как наводил на смертных страх.
Теперь же, с горечью в душе,
Он пьет томатный сок в ковше.
И чеснока не избегает,
И серебро не обжигает.
Он просто тихий, добрый дед,
Вампир, но, в сущности, сосед.
Который ночью не кусает,
А лишь тихонечко вздыхает.
Так вот, друзья, мораль проста:
Все в мире может измениться.
И тот, кто был грозой вчера,
Сегодня может присмириться.
Пусть Влад теперь не царь ночей,
Зато душою стал добрей!
Кто из поэтов может написать хотя бы такое стихотворение за несколько секунд и за 20 долларов в месяц? Еще у нее контекстное окно в 1 млн токенов или 1500 страниц.
Последний раз редактировалось SpaceSpirit; 02-01-2025, 06:42 PM.
OpenAI объявила о Deep Research — режиме для ChatGPT, который переводит его в высокую автономность, благодаря чему он может проводить длительные глубокие исследования: самостоятельно вырабатывать план работ, ходить по интернету в поисках информации, агрегировать и анализировать данные при помощи Python-скриптов, и все это без участия человека. ИИ может проводить исследования продолжительностью до 30 минут.
Интересная история. В последнее время OpenAI заваливает нас новыми ИИ-инструментами. Я уже со счета сбился и точно не знаю, что есть у этой компании. Но одно ясно точно: OpenAI семимильными шагами идет на пути к созданию AGI. Он будет копировать человеческий интеллект, работая в миллионы раз быстрее. А все эти множество инструментов — подобие отделов головного мозга человека, каждый отвечающий за свой функционал. Сейчас у OpenAI уже есть следующие инструменты, которые будут отвечать за следующий функционал (на мой взгляд) у AGI, когда их объединят в один искусственный мозг:
- GPT — банк знаний.
- o — рассуждение.
- DALL-E — статичное воображение.
- Sora — динамичное воображение.
- Operator — управление устройствами.
- Deep Research — исследование.
Еще есть генератор реалистичного эмоционального голоса (даже смеяться и петь умеет) и способность видеть и слышать в реальном времени.
По такому же пути идут в компании Google DeepMind. Они тоже понаделали кучу всяких нейросетей. Есть даже нейросеть для управления конечностями робота. OpenAI тоже собралась делать роботов.
Какие инструменты будут в конечном итоге, мы пока не знаем, но их точно объединят. Об том говорят все топовые разработчики AGI. Они утверждают, что мозг AGI будет поделен на отделы. Каждый отдел будет отвечать за свой функционал.
Последний раз редактировалось SpaceSpirit; 02-03-2025, 09:47 AM.
OpenAI представила Deep Research – автономного ИИ-агента, способного самостоятельно проводить многоступенчатые исследования в интернете. Deep Research доступен в тарифе Pro с 100 запросами в месяц.
В отличие от обычных поисковых систем, которые возвращают короткие ответы или ссылки за считанные секунды, Deep Research "рассуждает" до 30 минут, проводя глубокий анализ сотен источников, агрегируя данные и синтезируя их в единую, детально задокументированную работу. Такой подход, в теории, позволяет системе выдавать отчеты, сопоставимые по качеству с результатами труда профессионального аналитика.
В основе работы Deep Research лежит принцип автономного планирования исследования. Пользователь вводит запрос, после чего система задает уточняющие вопросы для сбора необходимых деталей. Это позволяет агенту точно понять задачу и разработать план поиска.
После утверждения плана Deep Research последовательно проводит поиск по сотням сайтов, просматривает текст, изображения и PDF-файлы, анализирует и агрегирует найденные данные, а в итоге синтезирует информацию в виде структурированного отчета со ссылками и цитатами. Такой подход кардинально отличается от обычного поиска, где выдача основывается лишь на ранжировании ссылок без детального анализа содержимого и контекста.
Deep Research сочетает в себе возможности веб-браузинга, выполнения Python-скриптов для численного анализа и создания визуализаций, а также анализа прикрепленных пользователем файлов. Это позволяет агенту находить нужные данные, обрабатывать их, строить графики и таблицы, что значительно повышает качество итогового отчета.
Помимо конечного результата, пользователю доступен "сайдбар", в котором отображается цепочка рассуждений агента. Такой уровень прозрачности помогает в фактчекинге.
В тесте Humanity’s Last Exam (более 3 000 вопросов от лингвистики до ракетостроения), Deep Research показал точность 26,6%. Для сравнения, модели, такие как Grok-2 и GPT-4o, набрали всего 3,8% и 3,3% соответственно, а конкурирующая модель Gemini Thinking – 6,2%. Впечатляющий прогресс.
Вспомните недавний релиз Operator для выполнения рутинных действий в браузере от OpenAI. Сейчас компания фокусируется на развитии основных агентов, применяемых в практических задачах. Deep Research, Operator и будущие специализированные агенты будут интегрированы в единую мультиагентную систему.
Похоже, что OpenAI готовят продвинутого агента-программиста, способного самостоятельно обучать ИИ-модели.
Если все эти агенты объединятся в мультиагентную систему, которая сможет проводить исследования, писать код и действовать в интернете как единое целое, мы увидим первые признаки общего ИИ (AGI).
Это будет система, способная самостоятельно обучаться, открывать новые знания и действовать в самых разнообразных сферах жизни, а главное, по версии Microsoft, – автономно зарабатывать миллиарды долларов.
Конечно, всем агентам придется пройти "путь становления" по отдельности, но, судя по дорожной карте AGI от OpenAI, Operator будет "пробивать" третий уровень (автономность), а Deep Research четвертый (инновационность), останется последний (организованность).
Поэтому Deep Research – это не просто инструмент для поиска информации, а фундаментальный шаг к созданию автономных ИИ-агентов, которые могут вывести качество исследований на новый уровень.
Остается только ожидать более массовое появление воплощенных (embodied) агентов, которые будут искать и анализировать информацию не только в интернете, но и в реальном мире в форме роботов.
OpenAI объявила о Deep Research — режиме для ChatGPT, который переводит его в высокую автономность, благодаря чему он может проводить длительные глубокие исследования: самостоятельно вырабатывать план работ, ходить по интернету в поисках информации, агрегировать и анализировать данные при помощи Python-скриптов, и все это без участия человека. ИИ может проводить исследования продолжительностью до 30 минут.
Интересная история. В последнее время OpenAI заваливает нас новыми ИИ-инструментами. Я уже со счета сбился и точно не знаю, что есть у этой компании. Но одно ясно точно: OpenAI семимильными шагами идет на пути к созданию AGI. Он будет копировать человеческий интеллект, работая в миллионы раз быстрее. А все эти множество инструментов — подобие отделов головного мозга человека, каждый отвечающий за свой функционал. Сейчас у OpenAI уже есть следующие инструменты, которые будут отвечать за следующий функционал (на мой взгляд) у AGI, когда их объединят в один искусственный мозг:
- GPT — банк знаний.
- o — рассуждение.
- DALL-E — статичное воображение.
- Sora — динамичное воображение.
- Operator — управление устройствами.
- Deep Research — исследование.
Еще есть генератор реалистичного эмоционального голоса (даже смеяться и петь умеет) и способность видеть и слышать в реальном времени.
По такому же пути идут в компании Google DeepMind. Они тоже понаделали кучу всяких нейросетей. Есть даже нейросеть для управления конечностями робота. OpenAI тоже собралась делать роботов.
Какие инструменты будут в конечном итоге, мы пока не знаем, но их точно объединят. Об том говорят все топовые разработчики AGI. Они утверждают, что мозг AGI будет поделен на отделы. Каждый отдел будет отвечать за свой функционал.
DeepMind, дочернее предприятие Google, специализирующееся на исследованиях в сфере искусственного интеллекта, сообщило о новых достижениях ИИ-модели AlphaGeometry2 в решении геометрических задач. В недавно опубликованном исследовании DeepMind сообщается, что AlphaGeometry2 успешно решила 84% задач (42 из 50) Международной математической олимпиады (IMO) с 2000 по 2024 год, набрав средний балл золотого медалиста (40,9).
AlphaGeometry2 является улучшенной версией ИИ-системы AlphaGeometry, вышедшей в январе прошлого года. В июле прошлого года DeepMind продемонстрировала возможности системы, объединившей ИИ-модели AlphaProof и AlphaGeometry2, которой удалось решить 4 из 6 задач IMO.
AlphaGeometry2, используя лингвистическую модель на основе архитектуры Gemini и усовершенствованный механизм символической дедукции способна определять стратегии решения задач с точностью, превосходящей возможности большинства экспертов-людей.
Принятый подход объединяет два основных компонента: лингвистическую модель, способную генерировать предложения на основе подробного геометрического описания, и символический механизм DDAR (Deductive Database Arithmetic Reasoning), который проверяет логическую связность предлагаемых решений, создавая дедуктивное замыкание на основе доступной информации.
Проще говоря, модель Gemini AlphaGeometry2 предлагает символическому механизму шаги и конструкции на формальном математическом языке, и механизм, следуя определенным правилам, проверяет эти шаги на логическую согласованность.
Ключевым элементом, который позволил AlphaGeometry2 превзойти по скорости предшественника AlphaGeometry, является алгоритм SKEST (Shared Knowledge Ensemble of Search Trees), который реализует итеративную стратегию поиска, основанную на обмене знаниями между несколькими параллельными деревьями поиска. Это позволяет одновременно исследовать несколько путей решения, увеличивая скорость обработки и улучшая качество сгенерированных доказательств.
Эффективность системы удалось значительно повысить с новой реализацией DDAR на C++, что в 300 раз увеличило ее скорость по сравнению с версией, написанной на Python.
Вместе с тем из-за технических особенностей AlphaGeometry2 пока ограничена в возможности решать задачи с переменным числом точек, нелинейными уравнениями или неравенствами. Поэтому DeepMind изучает новые стратегии, такие как разбиение сложных задач на подзадачи и применение обучения с подкреплением для выхода ИИ на новый уровень в решении сложных математических задач.
Как сообщается, AlphaGeometry2 технически не является первой ИИ-системой, достигшей уровня золотого медалиста по геометрии, но она первая, достигшая этого с набором задач такого размера.
При этом AlphaGeometry2 использует гибридный подход, поскольку модель Gemini имеет архитектуру нейронной сети, в то время как ее символический механизм основан на правилах.
Сторонники использования нейронных сетей утверждают, что интеллектуальных действий, от распознавания речи до генерации изображений, можно добиться только благодаря использованию огромных объемов данных и вычислений. В отличие от символических систем ИИ, которые решают задачи, определяя наборы правил манипуляции символами, предназначенных для определенных задач, нейронные сети пытаются решать задачи посредством статистической аппроксимации (замены одних результатов другими, близкими к исходным) и обучения на примерах. В свою очередь, сторонники символического ИИ считают, что он более подходит для эффективного кодирования глобальных знаний.
В DeepMind считают, что поиск новых способов решения сложных геометрических задач, особенно в евклидовой геометрии, может стать ключом к расширению возможностей ИИ. Решение задач требует логического рассуждения и способности выбирать правильный шаг из нескольких возможных. По мнению DeepMind, эти способности будут иметь решающее значение для будущего универсальных моделей ИИ.
Сэм Альтман объявил о скором запуске GPT-4.5. Эта модель будет последней, не умеющей рассуждать. Так же в скором времени будет запущена GPT-5. Она будет бесплатной для всех пользователей.
Илон Маск объявил о скором запуске Grok 3.
Искусственный интеллект становится все дешевле и дешевле.
Илон Маск объявил о запуске Grok 3. Эта модель в 10 раз умнее Grok 2.
Попросил его перевести сказку о Красной Шапочке в стихотворную форму, но чтобы стишок был коротеньким.
В лесу дремучем, где тень густа,
Жила Красная Шапочка — всем мила.
С корзинкой в руках, в алом плаще,
Шла к своей бабушке в тот день вообще.
"Не тронь цветы, не сверни с пути!" —
Мать молвила строго, но все ж отпусти.
А волк, хитрец, уж подстерегал,
В кустах притаился, следы изучал.
"Куда, малышка, идешь одна?
Бабуся ждет? Ах, как ты нежна!"
Он бабушку съел, нарядился в чепец,
И ждал, чтоб и внучку поймать наконец.
Но Шапочка смелой была, не глупа,
Лесничий пришел — и волку беда!
С тех пор в лесу тишина и покой,
А Шапочка с бабушкой — живы, домой.
Не великий поэт, но с рифмой на русском языке работать все же научился. Не всегда получается хорошо, но прогресс налицо. А вот на английском языке работает отлично. Еще немного, и живые поэты нафиг не нужны будут.
Google Research создала новую систему искусственного интеллекта под названием AI Co-Scientist ("ИИ-Соученый"), которая работает вместе с учеными-людьми, генерируя и проверяя научные гипотезы. Система, построенная на модели Google Gemini 2.0, призвана ускорить прорывные открытия, выступая в роли виртуального партнера по исследованиям.
Система использует несколько специализированных ИИ-агентов, которые совместно генерируют, оценивают и уточняют потенциальные направления исследований. Она также использует возможности "вычислений во время тестирования" (test-time compute) для обработки и анализа идей. Ученые могут активно сотрудничать с системой, предлагая свои собственные гипотезы и предоставляя обратную связь. Для оценки качества своих предложений система использует интегрированную систему рейтинга Эло.
AI Co-Scientist уже показал многообещающие результаты в реальных лабораторных экспериментах в трех биомедицинских приложениях. Система предложила новые лекарственные препараты-кандидаты для лечения острого миелоидного лейкоза, которые впоследствии были подтверждены в ходе испытаний. Она также сгенерировала ценные гипотезы о потенциальных мишенях для лечения фиброза печени и помогла объяснить механизмы устойчивости к антибиотикам - некоторые из них исследователи независимо подтвердили еще до разработки системы.
Несмотря на эти первые успехи, Google Research признает ряд важных ограничений. Системе необходимы более совершенные возможности поиска литературы и процедуры проверки фактов. Методы оценки требуют расширения, в частности, за счет тестирования с большим количеством экспертов по различным типам исследовательских задач.
Команда разработчиков рекомендует добавить внешние инструменты для перекрестной проверки результатов и улучшить методы автоматической самооценки системы. Чтобы собрать более полную обратную связь, Google планирует предоставить избранным исследовательским институтам доступ к AI Co-Scientist в рамках программы доверенных тестировщиков.
----------------------
Перевод новости на русский язык выполнен ИИ Gemini 2.0 Pro.
Последний раз редактировалось Oscar Smith; 02-23-2025, 06:32 AM.
Комментарий