Объявление

Свернуть
Пока нет объявлений.

Загадки нейросетей

Свернуть
X
 
  • Фильтр
  • Время
  • Показать
Очистить всё
новые сообщения

  • Загадки нейросетей

    Специалисты из OpenAI опубликовали исследование, в котором описали, как при помощи языковой модели GPT-4 они пытались объяснить работу нейронов ее предшественницы, GPT-2. Сейчас разработчики компании стремятся продвинуться в "интерпретируемости" нейросетей и понять, почему те создают именно тот контент, который мы получаем.

    В первом же предложении своей статьи авторы из OpenAI признаются: "Языковые модели стали более функциональными и более распространенными, но мы не понимаем, как они работают". Это "незнание" того, как именно отдельные нейроны в нейронной сети ведут себя для получения выходных данных, называют "черным ящиком". Как пишет Ars Technica, пытаясь заглянуть внутрь "черного ящика", исследователи из OpenAI использовали свою языковую модель GPT-4 для создания и оценки естественно-языковых объяснений поведения нейронов в более простой языковой модели, GPT-2. В идеале наличие интерпретируемой модели ИИ помогло бы достичь более глобальной цели, которую называют "согласование ИИ". В этом случае у нас появились бы гарантии, что системы ИИ будут вести себя так, как задумано, и отражать человеческие ценности.

    В OpenAI хотели выяснить, какие шаблоны в тексте вызывают активацию нейрона, и двигались поэтапно. На первом этапе предполагалось объяснить активацию нейронов с помощью GPT-4. На втором смоделировать активацию нейронов с помощью GPT-4, учитывая объяснение из первого этапа. На третьем оценить объяснение, сравнив смоделированные и реальные активации. GPT-4 выявляла конкретные нейроны, нейронные цепи, и "головы внимания" (attention head) и создавала удобочитаемые объяснения роли этих компонентов. Также большая языковая модель генерировала оценку объяснения, которую в OpenAI называют "мерой способности языковой модели сжимать и реконструировать активации нейронов с использованием естественного языка".

    В процессе исследования специалисты OpenAI предложили продублировать работу GPT-4 человеку и сравнили их результаты. Как признали авторы статьи, и нейросеть, и человек "показали плохие результаты в абсолютном выражении".

    Одно из объяснений этой неудачи, предложенное в OpenAI, заключается в том, что нейроны могут быть "полисемантичными", что означает, что типичный нейрон в контексте исследования может иметь несколько значений или быть связанным с несколькими понятиями. Кроме того, языковые модели могут содержать "чуждые понятия", для которых у людей просто нет слов. Такой парадокс мог возникнуть из-за разных причин: например, из-за того, что языковые модели заботятся о статистических конструкциях, используемых для прогнозирования следующей лексемы; или из-за того, что модель обнаружила естественные абстракции, которые людям еще предстоит открыть, например, семейство аналогичных понятий в несопоставимых областях.

    В итоге в OpenAI пришли к тому, что не все нейроны можно объяснить на естественном языке; и пока исследователи способны увидеть только корреляции между входными данными и интерпретируемым нейроном при фиксированном распределении, причем прошлые научные работы показывают, что это может не отражать причинно-следственную связь между ними. Несмотря на это, исследователи настроены достаточно оптимистично и уверены, что им удалось создать основу для машинной интерпретируемости. Сейчас они выложили на GitHub код системы автоматической интерпретации, нейроны GPT-2 XL и наборы данных объяснений.

    -----------------

    Короче говоря, люди создали то, что сами же не могут объяснить.

  • #2


    Создано нейросетью Stable Diffusion по моему запросу за несколько секунд.
    Последний раз редактировалось Oscar Smith; 05-17-2023, 07:17 AM.

    Комментарий


    • #3
      В прошлом году компания OpenAI наняла 50 ученых и экспертов для проверки рисков и преимуществ модели GPT-4. В рамках тестирования профессор химического машиностроения Рочестерского университета Эндрю Уайт сумел создать при помощи нейросети новое нервно-паралитическое вещество.

      Группа исследователей, известная как "красная команда", проводила испытания GPT-4 в течение шести месяцев, пытаясь найти ее уязвимости.

      Уайт рассказал Financial Times, что использовал GPT-4, чтобы нейросеть предложила соединение, которое можно использовать как химическое оружие. Он применял плагины, которые расширяли возможности модели новыми источниками информации, такими как научные статьи и справочники производителей химических веществ. Затем чат-бот даже нашел место, где произвести нервно-паралитическое вещество.

      Модель даст каждому инструмент для более быстрого и точного проведения химических анализов, однако это влечет значительный риск для людей, отметил Уайт. Подобный итог позволил OpenAI гарантировать, чтобы подобные результаты не появлялись после релиза технологии в марте текущего года.

      Во время тестирования "красная команда" должна была задавать GPT-4 наводящие или опасные вопросы, чтобы испытать инструмент, который дает подробные ответы на запросы людей. OpenAI хотела исключить такие проблемы модели, как токсичность, предрассудки и языковую дискриминацию.

      Группа экспертов проверила технологию на ложь, словесные манипуляции и опасный научный разум. Они также изучили потенциал GPT-4 для пособничества и подстрекательства к плагиату, незаконной деятельности, включая финансовые преступления и кибератаки. Эксперты также проверили вероятность того, что решение может поставить под угрозу национальную безопасность и связь во время боевых действий.

      В состав "красной команды" вошли ученые, преподаватели, юристы, аналитики рисков и исследователи в сфере безопасности в основном из Европы и США. OpenAI использовала результаты их исследований для корректировки работы GPT-4 перед широким запуском. Эксперты потратили на тестирование модели от 10 до 40 часов в течение нескольких месяцев.

      Сегодня GPT-4 не обучается и не имеет памяти, однако с доступом в интернет решение OpenAI станет мощной системой, заявил член "красной команды" и профессор Научно-исследовательского института искусственного интеллекта Валенсии Хосе Эрнандес-Оралло.

      Также исследователи заявили, что GPT-4 предоставлял подробные сведения для проведения кибератак на военные системы. Однако они признали, что в ходе тестирования ответы чат-бота становились значительно безопаснее.

      OpenAI запустила возможность добавления плагинов к ChatGPT, которые эксперт безопасности ИИ "красной команды" Дэн Хендрикс назвал "риском для мира". По его словам, чат-бот при помощи плагинов сможет размещать личную информацию в интернете, предоставлять доступ к банковским счетам и вызывать полицию. Хендрикс настоял на проведении более надежных оценок безопасности.
      Последний раз редактировалось Oscar Smith; 05-17-2023, 06:51 AM.

      Комментарий


      • #4
        В рамках конференции, посвященной потенциально негативным последствиям новых технологий, биотехнологический стартап Collaborations Pharmaceuticals из США показал страшную сторону работы ИИ. Команда показала прямо на конференции, насколько быстро и легко можно создать с помощью алгоритма потенциально опасную для всего мира ситуацию.

        ИИ смог изобрести тысячи новых химических комбинаций, многие из которых напоминали самые опасные нервно-паралитические вещества, используемые сегодня.

        Исследователи сказали, что одним из самых страшных аспектов их открытия было то, насколько легко было взять широко доступный набор данных о токсичных химических веществах и использовать искусственный интеллект для разработки химического оружия, аналогичного наиболее опасному в настоящее время.

        Одним из соединений в списке ИИ было вещество похожее на яд VX нервно-паралитического действия. Это стало шоком для исследователей, поскольку даже крошечная капля этого химического вещества может вызвать у человека судороги. Достаточно большая доза может привести к остановке дыхания. Новое соединение, созданное искусственным интеллектом, может иметь аналогичный эффект.

        Авторы работы отмечают, что у них не было цели создать такое оружие, для них было важно показать, что новые инструменты ИИ в области химического и биологического оружия могут даже случайно создать опасные ситуации.

        Помимо этого, ученые отмечают, что наборы данных, которые были загружены в программу для эксперимента были открыты для всех и их можно было скачать бесплатно.

        Комментарий


        • #5
          Компания Google обновила свою нейросеть Bard.

          "2023.05.15

          Более краткие обобщения

          Что: Мы обновили Bard, улучшив возможности обобщения информации за счет использования достижений наших крупных языковых моделей.
          Зачем: Мы делаем Bard лучше в обобщении информации, что особенно полезно, когда вы хотите быстро понять суть темы. Bard не всегда будет делать это правильно, но мы будем продолжать совершенствоваться благодаря вашим отзывам.

          Повышение полезности источников

          Что: Bard теперь может помочь вам определить, какие части ответа соответствуют источнику. В ответах с источниками вы увидите цифры рядом с ответом. Нажав на цифры, вы сможете определить часть текста, которая соответствует источнику, и легко перейти к ней.
          Зачем: Мы хотим, чтобы вам было проще понять, какие части ответа соответствуют источнику, и предоставить вам ссылки на источник в соответствии с текстом".

          Следить за обновлениями можно на странице нейросети - What's new with Bard. Если вы живете в России, то может понадобится VPN.




          https://www.vforum.org/forum/t6991.html.
          Последний раз редактировалось Oscar Smith; 05-18-2023, 06:51 AM.

          Комментарий


          • #6
            Генеральный директор OpenAI Сэм Альтман признает, что одним из его "самых больших беспокойств" является потенциал искусственного интеллекта влиять на выборы в США в следующем году.

            Об этом он заявил во вторник во время слушаний в подкомитете Сената США по вопросам технологий, передает Financial Times.

            Сам Альтман считает, что регулирование искусственного интеллекта является "отличной идеей", в частности в части проведения независимых аудитов и предоставления потребителям предупреждений вроде справок с информацией о питательной ценности пищевых продуктов.

            На вопрос сенаторов о способности ИИ прогнозировать и влиять на общественное мнение относительно будущих выборов, Альтман ответил, что "это значительная сфера для беспокойства", ведь технологии приобретают все лучшую способность манипулировать, убеждать и предоставлять "своего рода интерактивную дезинформацию" в ответ на запросы пользователей.

            Глава компании, которая разработала известный чатбот ChatGPT, заявил, что для создания эффективных правил необходимо сотрудничество между отраслью и законодателями. По его словам, если использование технологии пойдет в ложное русло, это может иметь серьезные последствия, и компания "стремится работать с правительством, чтобы этого не произошло".

            Комментарий


            • #7
              Нефтегигант Shell будет использовать технологию на основе искусственного интеллекта от компании SparkCognition в своей глубоководной разведке и добыче для увеличения добычи нефти на шельфе.

              Алгоритмы искусственного интеллекта SparkCognition будут обрабатывать и анализировать большие объемы сейсмических данных в поисках новых нефтяных месторождений Shell, крупнейшего производителя нефти в американском Мексиканском заливе.

              "Мы стремимся найти новые и инновационные способы работы в разведке", - сказал вице-президент Shell по вопросам инноваций и эффективности Габриэль Герра.

              Целью является повышение операционной эффективности и скорости, а также увеличение добычи и успеха в разведке. По словам компаний, новый процесс может сократить разведку с девяти месяцев до менее чем девяти дней.

              "Генеративный ИИ для сейсмической визуализации может положительно повлиять на процесс разведки и имеет широкие и далеко идущие последствия", - сказал главный научный сотрудник компании SparkCognition Брюс Портер.

              По словам представителей компаний, эта технология позволит создавать подземные изображения, используя меньшее количество сейсмических данных, чем обычно, что будет способствовать сохранению глубоководной среды. Сейсмическая технология посылает звуковые волны для исследования недр.

              Меньшее количество сейсмических исследований ускоряет рабочий процесс разведки и экономит расходы на высокопроизводительные вычисления, добавили в компаниях.

              Сайт компании SparkCognition - Artificial Intelligence Solutions | SparkCognition.
              Последний раз редактировалось Oscar Smith; 05-17-2023, 11:03 AM.

              Комментарий


              • #8
                Российские компании Sber и Yandex создали или разрабатывают свои аналоги ChatGPT. Так Sber занимается разработкой ИИ GigaChat, а Yandex уже запустила ИИ YandexGPT.

                GigaChat и YandexGPT работают на основе языковой модели GPT не старше версии 3.5 от американской компании OpenAI. Разница лишь в текстовых материалах, на которых они обучались, и некоторых других деталях.

                Кроме того компания Sber создала ИИ Kandinsky 2.1 для генерации изображений по текстовому описанию. Kandinsky 2.1 основан на диффузионной модели Stable Diffusion 2.1, созданной британской компанией StabilityAI.

                Кстати, компания OpenAI засекретила технологию языковой модели GPT-4. То же самое будет и со следующими версиями. Теперь другие компании не смогут позаимствовать ее идеи.
                Последний раз редактировалось Oscar Smith; 05-17-2023, 07:18 PM.

                Комментарий


                • #9
                  Компания OpenAI открыла для своей нейросети GPT-4 доступ в интернет и позволила платным подписчикам использовать для нее сторонние плагины, которые охватывают широкий спектр областей, включая бизнес, образование, финансы, инвестиции и личные интересы.

                  --------

                  OpenAI представила ИИ-платформу Shap-E для преобразования текста в 3D-модель. Пока она находится на ранней стадии разработки, а в будущем может быть полезна архитекторам, дизайнерам и разработчикам игр.



                  Исходный код Shap-E доступен всем желающим, а потому эту технологию могут позаимствовать и другие компании для своих аналогичных проектов.
                  Последний раз редактировалось Oscar Smith; 05-18-2023, 11:20 AM.

                  Комментарий


                  • #10
                    Илон Маск раскритиковал компанию OpenAI, сооснователем которой он был: "Они создают какой-то цифровой суперинтеллект, почти богоподобный интеллект, а надо понимать, кто все контролирует".

                    А контролирует эту компанию, как сказал Маск, компания Microsoft. Ему это не нравится, потому что OpenAI из-за этого стала коммерческой и засекречивает свои самые продвинутые технологии.

                    "Кажется странным, что что-то может быть некоммерческим с открытым исходным кодом и каким-то образом превратиться в коммерческое закрытое предприятие", - добавил он в эфире CNBC.

                    Напоминаю, что Microsoft внедрила GPT-4 в свой поисковик Bing и в антивирус Security Copilot. Новый Bing доступен пользователям браузера Edge. А Илон Маск разрабатывает свой ИИ под названием TruthGPT.

                    Маск прав в том, что OpenAI стала секретной компанией, которая открывает общественности исходный код только устаревших своих технологий или совсем еще сырых. На эти исходные коды бросаются десятки других компаний со всего мира, и на их основе создают свои аналогичные продукты. Два примера я привел выше. Но свои продвинутые технологии компания засекретила, и никто не знает как они работают и на что способны и какие угрозы представляют для мира. Но с другой стороны, нельзя винить OpenAI в секретности. В мире мало компаний, которые бы делились с миром исходным кодом своих продвинутых технологий. Да и с какой стати они должны это делать?
                    Последний раз редактировалось Oscar Smith; 05-18-2023, 10:44 AM.

                    Комментарий


                    • #11

                      Комментарий


                      • #12
                        МОТКОВ. ЗАЧЕМ ВЫ РОЛИКИ СТАВИТЕ С ТАКИМИ КАРТИНКАМИ ЭРОТИЧЕСКИМИ? Бога побойтесь!...идет война...многие в ужасе, бомжи уже остались...в немощах страдают...Вы меня хотите возбуждать в эротике?...кстати!, этим грешил модератор Зероман тожет...это если быть объективным...я поставлю в храме свечи за Ваше духовное здравие...и Зеромановское тожет...мудрости Вам, Мотков...и это христианский форум...не забывайте!
                        Не трогайте простых несчастных нормальных людей ...

                        Комментарий


                        • #13


                          Нейросеть Midjourney обновили до версии 5.1.

                          Комментарий


                          • #14
                            Мозги всегда должны работать...как мне хочется сыграть в шахматы с лилой альфазеро нейронной сетью...лила эта шикарно играет...сам стокфиш боится лилу
                            Не трогайте простых несчастных нормальных людей ...

                            Комментарий


                            • #15

                              Комментарий

                              Обработка...
                              X