AGI может быть ближе, чем мы думаем, с новой моделью OpenAI под названием Strawberry, которую они уже протестировали, и, скажем так, результаты немного пугающие. Запускаемая этой осенью, Strawberry может преодолеть ограничения современного ИИ, справляясь с задачами, которые ранее считались невозможными. Эта модель обладает передовыми возможностями: от решения сложных проблем до улучшения существующих инструментов ИИ, таких как ChatGPT. Давайте разберемся подробнее.
Strawberry - это кодовое название новой модели ИИ от OpenAI, которую они планируют запустить этой осенью. Согласно различным сообщениям, Strawberry разрабатывается для выполнения задач, с которыми текущие модели ИИ справляются с трудом или вообще не могут справиться. Речь идет о таких вещах, как решение сложных математических задач, с которыми она никогда раньше не сталкивалась, разработка детальных маркетинговых стратегий или даже решение сложных словесных головоломок. Например, сообщается, что Strawberry смогла решить головоломку New York Times Connections, что является немалым достижением для ИИ.
Но возможности Strawberry гораздо серьезнее, чем головоломки и математические задачи. Модель должна значительно улучшить способности к рассуждению, позволяя проводить углубленные исследования, генерировать высококачественные синтетические данные и потенциально революционизировать области, которые сильно зависят от анализа данных и стратегического планирования. OpenAI даже продемонстрировала возможности Strawberry официальным лицам национальной безопасности США, что показывает, насколько серьезно они относятся к этой новой разработке.
Потенциальные применения Strawberry обширны: от бизнес-стратегии и управления цепочками поставок до исследований и безопасности. Название Strawberry может звучать несколько легкомысленно, но история его появления совсем не такая. Изначально эта модель была известна как Q* (произносится как "кью-стар") внутри OpenAI. Это было не просто изменение названия в целях брендинга - оно произошло в период значительных потрясений в OpenAI. Внутренняя разработка и потенциальные последствия Q* привели к некоторым интенсивным обсуждениям внутри компании, даже способствуя временному отстранению генерального директора Сэма Альтмана. Альтман в конечном итоге был восстановлен в должности, но этот инцидент подчеркивает, под каким давлением и пристальным вниманием находилась эта модель с самого начала.
Опасения по поводу Q* и теперь Strawberry связаны с ее потенциалом стать значительным шагом к AGI (искусственному общему интеллекту). AGI представляет собой тип ИИ, который может понимать, учиться и применять знания в различных задачах, подобно человеку. Технологическое сообщество осторожно относится к AGI из-за возможных рисков, которые он представляет. Продвинутый ИИ, способный действовать с высокой степенью автономности, может представлять проблемы, такие как согласование его целей с человеческими ценностями и обеспечение того, чтобы он не приводил к непреднамеренным последствиям. Есть много энтузиазма, но также и немало осторожности.
Теперь давайте рассмотрим некоторые технические детали, потому что именно здесь Strawberry действительно выделяется. Сообщается, что модель набрала более 90% в математическом тесте - серии задач чемпионского уровня по математике. Для контекста, GPT-4, другая известная модель от OpenAI, набрала только 53%, в то время как GPT-4o, улучшенная версия, смогла достичь 76,6%. Если Strawberry действительно достигнет отметки в 90%, это будет не просто небольшое улучшение, а квантовый скачок в возможностях ИИ.
Модель также демонстрирует продвинутые навыки рассуждения и планирования, что делает ее более универсальной, чем ее предшественники. Она способна генерировать синтетические данные, что означает, что она может создавать свой собственный учебный материал для постоянного улучшения своей производительности. Эта способность к самогенерации данных является революционной. Она уменьшает потребность в огромных объемах реальных данных для обучения моделей ИИ, что является огромным преимуществом, учитывая проблемы и ограничения, связанные с конфиденциальностью, качеством и доступностью данных.
Более того, Strawberry, вероятно, будет интегрирована в продукты, такие как ChatGPT, расширяя его возможности продвинутыми рассуждениями. Это позволит ChatGPT вести беседы, решать сложные проблемы, планировать стратегии и помогать с исследованиями в реальном времени, делая его более универсальным ИИ-ассистентом.
Но это только начало планов OpenAI для Strawberry. Эта модель также играет ключевую роль в обучении новой системы ИИ под кодовым названием Orion, которая, по слухам, является следующим шагом после GPT-4 и GPT-4o. Orion потенциально может стать долгожданным GPT-5. Со Strawberry, закладывающей основу для обучающих данных Orion, ясно, что OpenAI не довольствуется незначительными улучшениями - они готовятся к крупному прорыву в возможностях ИИ.
Подход, который они используют, включает нечто похожее на технику, называемую STaR (Self-Taught Reasoner), предложенную исследователями из Стэнфорда. Этот метод включает обучение моделей ИИ более эффективному рассуждению путем генерации объяснений своих ответов, фильтрации неправильных и правильных, а затем тонкой настройки модели на основе этих самогенерированных объяснений. Такой самосовершенствующийся ИИ может стать ключевым шагом к AGI, где ИИ не просто реагирует, но активно улучшает свое понимание и способности к рассуждению с течением времени.
Однако, несмотря на то, что потенциал Strawberry захватывает, существуют законные опасения по поводу безопасности ИИ, особенно по мере того, как модели ИИ становятся более продвинутыми. OpenAI не понаслышке знакома с этими опасениями. Фактически, в компании было немало внутренних волнений по поводу безопасности ИИ.
Сообщается, что почти половина команды безопасности OpenAI покинула компанию, сократившись примерно с 30 до 16 членов. Даниэль Кокотайло, бывший исследователь, упомянул, что люди, сосредоточенные на безопасности AGI, чувствовали себя все более маргинализированными в компании. Это вызвало некоторое беспокойство в технологическом сообществе, особенно учитывая потенциальные риски, связанные с разработкой высокоразвитых моделей ИИ, таких как Strawberry.
Несколько громких уходов еще больше подогрели эти опасения. Джон Шульман, соучредитель и глава отдела науки о согласовании ИИ, недавно ушел, чтобы присоединиться к Anthropic, компании, специально сосредоточенной на безопасности ИИ. Илья Суцкевер, еще один соучредитель и главный научный сотрудник, также покинул OpenAI ранее в этом году, чтобы основать свою собственную компанию Safe Superintelligence Inc. И Шульман, и Суцкевер были ключевыми фигурами в усилиях OpenAI по обеспечению безопасности, поэтому их уход предполагает значительное изменение фокуса компании.
Хотя OpenAI настаивает на том, что остается приверженной безопасности ИИ и активно взаимодействует с правительствами и сообществами по этим вопросам, исход ключевого персонала по безопасности может указывать на переход к более агрессивной разработке и внедрению новых технологий.
Несмотря на внутренние проблемы, OpenAI продолжает выпускать впечатляющие новые функции и модели. Ранее в этом году они представили продвинутую голосовую функцию для ChatGPT, использующую модель GPT-4o, которая позволяет получать гиперреалистичные аудиоответы и вести интерактивные разговоры в реальном времени, где пользователи могут даже прерывать ChatGPT на полуслове. Это небольшое изменение, которое может иметь большие последствия, делая взаимодействие с ИИ более естественным и привлекательным.
Они также запустили новый инструмент под названием SearchGPT, который в настоящее время находится в режиме прототипа. SearchGPT стремится предоставлять более краткие и релевантные результаты поиска, чем традиционные поисковые системы, предлагая краткие ответы со ссылками на источники вместо простого списка ссылок.
Для тех, кто ищет более доступное решение ИИ, OpenAI выпустила GPT-4o mini, меньшую и более экономичную версию своей модели ИИ. GPT-4o mini превосходит GPT-3.5 Turbo по производительности в различных тестах, включая текстовый интеллект и мультимодальные рассуждения. Это умный ход, чтобы охватить более широкую аудиторию, от разработчиков до бизнеса, продолжая при этом расширять границы возможностей ИИ.
Глядя в будущее, внедрение Strawberry может стать поворотным моментом не только для OpenAI, но и для всего ландшафта ИИ. Ее способности справляться со сложными задачами, генерировать собственные обучающие данные и потенциально интегрироваться в существующие инструменты, такие как ChatGPT, могут переопределить то, что возможно с ИИ. Речь идет не просто о том, чтобы сделать чат-боты умнее, а о создании ИИ, который может думать, рассуждать и учиться способами, все более похожими на человеческие.
Однако с этими достижениями приходят значительные проблемы. Дебаты вокруг AGI, баланс между инновациями и безопасностью, а также необходимость ответственной разработки ИИ становятся все более актуальными. OpenAI нужно будет тщательно ориентироваться в этих водах, обеспечивая, чтобы их стремление к инновациям не затмевало важность безопасности и этических соображений.
Конкуренты, такие как Google и DeepMind, также делают быстрые успехи с такими моделями, как AlphaProof и AlphaGeometry 2, уже показывающими впечатляющие результаты в математических рассуждениях. Кроме того, Google только что объявила о выпуске трех новых экспериментальных моделей ИИ.
Первая модель, Gemini 1.5 Flash 8B Experemental 0827, - это компактный, но мощный ИИ с 8 миллиардами параметров, разработанный для обработки мультимодальных задач. Он особенно хорош в быстрой обработке больших объемов данных и обобщении длинных документов, что делает его сильным выбором для бизнеса, нуждающегося в быстрых и эффективных решениях ИИ.
Следующая - улучшенная модель Gemini 1.5 Pro Experemental 0827, которая превосходит своего предшественника во всех отношениях. Эта модель отлично справляется с управлением сложными запросами и задачами кодирования, предлагая значительное повышение производительности. Она идеально подходит для разработчиков и компаний, ориентированных на создание продвинутых приложений ИИ, требующих нюансированного понимания языка.
Наконец, есть обновленная модель Gemini 1.5 Flash Experemental 0827. Хотя подробности скудны, Google сообщает о заметном повышении производительности, подчеркивая скорость и эффективность, критически важные для масштабирования решений ИИ без ущерба для качества.
Эти модели теперь доступны через Google AI Studio и API Gemini, предлагая новые возможности для разработчиков. Они идеально подходят для таких задач, как обработка больших объемов данных, обобщение длинных контекстов и продвинутое кодирование.
Конкуренция жесткая, и OpenAI нужно будет оставаться впереди не только с точки зрения возможностей, но и в поддержании доверия и обеспечении безопасности своих моделей ИИ.
------------
Перевод расшифровки видео выполнен нейросетью Claude 3.5 Sonnet.
Комментарий