Понравилось:
0
Благодарности:
0
-
03.11.2023, 10:04
#1 (455456)
Безработная жизнь
Илон Маск заявил в четверг Риши Сунаку, что искусственный интеллект однажды искоренит необходимость в рабочих местах.
В интервью премьер-министру, которое он дал в завершение саммита AI Safety Summit, глава Tesla, SpaceX, Starlink, Neuralink и X заявил, что в будущем технологии смогут "делать все", а люди будут решать, иметь ли работу, только если они этого хотят для "личного удовлетворения".
Господин Маск также призвал к налоговым льготам для технологических предпринимателей в Великобритании, чтобы стимулировать их к созданию новых инновационных компаний.
Миллиардер, заявил, что в будущем роботы будут настолько совершенны, что станут друзьями людей, но при этом предупредил, что необходимо предусмотреть физический выключатель на случай, если роботы станут плохо работать.
Господин Маск заявил, что ИИ станет "самой разрушительной силой в истории" для рабочих мест.
"Наступит момент, когда работа станет не нужна - вы сможете работать, если захотите, для личного удовлетворения", - сказал он.
"ИИ может делать все. Я не знаю, будет ли это комфортно или некомфортно для людей. Это и хорошо, и плохо. Одна из проблем будущего будет заключаться в том, как нам найти смысл жизни?"
Далее он отметил, что "мы будем жить в эпоху изобилия", добавив: "Мы не будем жить по принципу всеобщего базового дохода, мы будем жить по принципу всеобщего высокого дохода".
На мероприятии в Уайтхолле перед аудиторией из примерно 300 руководителей компаний господин Маск сказал, что иногда ему хотелось бы, чтобы ИИ взял на себя часть его работы, добавив: "Зачастую мне приходится впадать в состояние неверия - часто в три часа ночи я думаю: "Зачем я это делаю, я могу просто подождать, пока это сделает искусственный интеллект"".
Но премьер-министр сказал ему: "Я тот, кто верит, что работа наполняет тебя смыслом".
Последний раз редактировалось Oscar Smith; 03.11.2023 в 10:08.
-
Великобритания опубликовала "Декларацию Блетчли", направленную на активизацию глобальных усилий по сотрудничеству в области безопасности искусственного интеллекта. Декларация 28 стран и Европейского Союза была обнародована в день открытия Саммита по безопасности искусственного интеллекта, проходившего в Блетчли-Парке, центральная Англия.
"Декларация выполняет ключевые задачи саммита по установлению общего согласия и ответственности в отношении рисков, возможностей и дальнейшего процесса международного сотрудничества в области безопасности и исследований в сфере искусственного интеллекта, особенно посредством более широкого научного сотрудничества", — заявил представитель Великобритании при обнародовании документа.
В документе изложена программа, направленная на выявление рисков, вызывающих общую обеспокоенность, и формирование их научного понимания, а также на разработку международной политики по их смягчению. Декларация поощряет прозрачность и подотчетность участников, разрабатывающих передовые технологии ИИ, призывая к мониторингу и смягчению потенциально вредных возможностей.
"Это включает, наряду с повышением прозрачности со стороны частных субъектов, разрабатывающих передовые возможности искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности, а также развитие соответствующих возможностей государственного сектора и научных исследований", — говорится в декларации.
"Это знаковое достижение, благодаря которому величайшие мировые державы в области ИИ соглашаются с необходимостью понимания рисков ИИ, помогая обеспечить долгосрочное будущее наших детей и внуков", — заявил премьер-министр Великобритании Риши Сунак.
Декларацию подписали ЕС, США, Великобритания, Австралия, Израиль, Индия, Китай, Канада, Бразилия, Южная Корея, Япония, ОАЭ, Саудовская Аравия, Сингапур, Турция и другие страны.
Последний раз редактировалось SpaceSpirit; 04.11.2023 в 06:51.
-
Лидеры "Большой семерки" (США, Великобритания, Германия, Италия, Канада, Франция и Япония) подписали "Соглашение о международных руководящих принципах ИИ" и "Добровольный кодекс поведения разработчиков ИИ" в рамках "Хиросимского процесса ИИ" — форума, посвященного перспективам и проблемам развития искусственного интеллекта. Эти документы дополнят на международном уровне юридически обязательные правила, которые в настоящее время дорабатываются законодателями ЕС в соответствии с "Законом об ИИ".
Одиннадцать руководящих принципов, принятых лидерами "Большой семерки", служат руководством по обеспечению безопасности и надежности технологий для организаций, разрабатывающих, внедряющих и использующих передовые системы ИИ. Они включают в себя обязательства по снижению рисков и злоупотреблений, выявлению уязвимостей, поощрению ответственного обмена информацией, отчетности об инцидентах и инвестициям в кибербезопасность, а также систему маркировки, позволяющую пользователям идентифицировать контент, созданный ИИ.
Эти принципы, основанные на результатах опроса заинтересованных сторон, были разработаны ЕС совместно с другими членами "Большой семерки" в рамках инициативы, известной как "Хиросимский процесс ИИ". Они послужили основой для составления кодекса, который предоставит подробное и практическое руководство для организаций, разрабатывающих ИИ и будет способствовать ответственному управлению ИИ во всем мире.
Оба документа будут пересматриваться и обновляться по мере необходимости, в том числе посредством консультаций с участием многих заинтересованных сторон, чтобы гарантировать, что они остаются пригодными для использования и отвечают требованиям этой быстро развивающейся технологии. Лидеры "Большой семерки" призвали организации, разрабатывающие передовые системы ИИ, взять на себя обязательство использовать в своей деятельности провозглашенные в принятых документах принципы.
"Хиросимский процесс ИИ" был учрежден на саммите "Большой семерки" 19 мая 2023 года с целью содействия развитию передовых систем ИИ на глобальном уровне. Эта инициатива является частью более широкого спектра международных дискуссий по вопросам контроля развития ИИ.
"Потенциальные преимущества ИИ для граждан и экономики огромны. Однако ускорение развития возможностей ИИ также порождает новые проблемы. Уже будучи лидером в сфере регулирования благодаря "Закону об ИИ", ЕС вносит свой вклад в создание барьеров и управление ИИ на глобальном уровне. Я рада приветствовать международные руководящие принципы и добровольный кодекс поведения, отражающие ценности ЕС. Я призываю разработчиков ИИ подписать и внедрить этот Кодекс поведения как можно скорее", — прокомментировала принятые решения президент Еврокомиссии Урсула фон дер Ляйен.
-
Президент США Джозеф Байден подписал первый в своем роде указ, направленный на регулирование направления технологий искусственного интеллекта. Это первое в своем роде действие со стороны американского правительства, направленное на переоценку вопросов обеспечения безопасности, рекомендаций по охране труда и гражданских прав в этой сфере.
Указ, помимо прочего, обязует разработчиков ИИ-алгоритмов предоставлять правительству данные, полученные в ходе тестирования своих продуктов до их вывода на потребительский рынок. Новый указ американского президента разделен на восемь основных частей:
1) Создание новых стандартов безопасности для ИИ. Разработка новых стандартов безопасности, в том числе, включает в себя требование для некоторых отраслевых компаний предоставлять результаты тестирования создаваемых алгоритмов федеральным властям. В дополнение к этому Министерство торговли должно создать программу по кибербезопасности, в рамках которой будут создаваться ИИ-инструменты для выявления уязвимостей в критически важном программном обеспечении.
2) Защита конфиденциальности потребителей, в том числе путем создания руководящих принципов, которые профильные ведомства смогут использовать для оценки методов обеспечения конфиденциальности в сфере ИИ.
3) Обеспечение равенства и соблюдение гражданских прав путем разработки рекомендаций для федеральных подрядчиков, чтобы ИИ-алгоритмы не способствовали дискриминации. Также планируется создание практик по расширению роли ИИ в системе правосудия, включая использование алгоритмов для вынесения приговоров, оценки рисков и прогнозирования уровня преступности.
4) Для полноценной защиты потребителей Министерству здравоохранения и социальным службам поручено создание программы для оценки потенциально опасных методов в сфере здравоохранения с использованием ИИ, а также ведение просветительской деятельности по ответственному использованию ИИ-инструментов.
5) Поддержка граждан путем подготовки отчета о потенциальных последствиях воздействия ИИ на рынок труда и изучение способов, которые могут использоваться федеральными властями для поддержки людей, пострадавших от повсеместного внедрения ИИ-систем.
6) Содействие инновациям и конкуренции путем увеличения количества грантов на ИИ-разработки, а также модернизация критериев для оценки высококвалифицированных сотрудников из других стран, которые могли бы продолжить работу в США.
7) Работа с международными партнерами над внедрением стандартов искусственного интеллекта по всему миру.
8) Разработка руководства по использованию и закупкам технологий на основе ИИ для федеральных агентств и ускорение процесса найма правительством квалифицированных сотрудников в этой сфере.
"Указ представляет собой самый расширенный набор действий, которые когда-либо предпринимало любое правительство в мире в отношении безопасности, защищенности и доверия к ИИ", — заявил заместитель главы администрации Белого дома Брюс Рид.
Новый указ президента США основан на обязательствах, которые ранее взяли на себя крупнейшие американские компании, ведущие разработки в сфере ИИ.
Последний раз редактировалось SpaceSpirit; 04.11.2023 в 06:53.
-
На фоне указа президента Джо Байдена о перераспределении задач федерального правительства в области разработки ИИ, вице-президент Камала Харрис заявила на Всемирном саммите безопасности ИИ в Великобритании о ряде инициатив в области машинного обучения. К числу ключевых инициатив относятся создание Института Безопасности Искусственного Интеллекта США и публикация первого проекта политических рекомендаций по использованию ИИ федеральным правительством.
"Мы с президентом Байденом уверены, что лидеры всех уровней, будь то государственные структуры, общественные организации или частный сектор, несут ответственность перед обществом за безопасное внедрение ИИ", - заявила Камала Харрис.
Она также акцентировала внимание на потенциальной угрозе, которую может представлять недостаточно контролируемый ИИ, включая масштабные кибератаки и разработку биологического оружия на базе ИИ.
В рамках этой инициативы Харрис объявила о создании Института Безопасности Искусственного Интеллекта США, который будет отвечать за формирование рекомендаций, стандартов и методик для тестирования и оценки потенциально опасных систем ИИ.
Также было объявлено о скором публичном обсуждении первого проекта политических рекомендаций по использованию ИИ в госсекторе. Эти рекомендации помогут в создании мер безопасности для применения ИИ в различных сферах общественной деятельности.
Камала Харрис также сообщила о сборе подписей 30 стран под Политической декларацией об ответственном использовании ИИ в военных целях. В дополнение к этому был анонсирован виртуальный хакатон с целью противостояния угрозам, связанным с мошенничеством по телефону и интернету с использованием ИИ.
Основное внимание администрации Байдена и Харрис уделяется проверке подлинности контента. В рамках этой работы планируется сотрудничество с промышленными объединениями.
"Эти добровольные обязательства компаний — это первый шаг к безопасному будущему в области ИИ, и наша работа здесь не заканчивается", - сказала Камала Харрис.
В заключение она подчеркнула значение законодательства для решения этих задач, при этом поддерживая инновации в области ИИ.
Метки этой темы
Ваши права
- Вы не можете создавать новые темы
- Вы не можете отвечать в темах
- Вы не можете прикреплять вложения
- Вы не можете редактировать свои сообщения
-
Правила форума