КЛЮЧЕВЫЕ МОМЕНТЫ
- Правительство Великобритании опубликовало официальный документ для индустрии «Искусственного Интеллекта».
- В нем содержится призыв к регулирующим органам разработать «индивидуальные подходы с учетом контекста, которые соответствуют тому, как ИИ фактически используется в их секторах».
- Правительство заявило в среду, что искусственный интеллект, который вносит в экономику Великобритании около 3,7 млрд фунтов стерлингов, должен соблюдать действующие законы и не допускать дискриминации в отношении отдельных лиц или создавать несправедливые коммерческие результаты.
- Появление рекомендаций связано с тем, что генеративные инструменты искусственного интеллекта, такие как ChatGPT, вызвали волну спроса на эту технологию.
Эмблема и веб-сайт ChatGPT и OpenAI.
Правительство Великобритании в среду опубликовало рекомендации для индустрии искусственного интеллекта, изложив всеобъемлющий подход к регулированию этой технологии в то время, когда она достигла бешеного уровня шумихи.
В официальном документе, который будет представлен в парламент, Министерство науки, инноваций и технологий (DSIT) изложит пять принципов, которым должны следовать компании.
К ним относятся: безопасность, защищенность и надежность; прозрачность и объяснимость; справедливость; подотчетность и управление; состязательность и возмещение.
Вместо того, чтобы устанавливать новые правила, правительство призывает регулирующие органы применять существующие правила и информировать компании об их обязательствах в соответствии с «Белой Книгой».
Он поручил Управлению по охране труда и технике безопасности, Комиссии по вопросам равенства и прав человека, и Управлению по конкуренции и рынкам, разработать «адаптированные, зависящие от контекста подходы, которые соответствуют тому, как ИИ фактически используется в их секторах».
«В течение следующих двенадцати месяцев регулирующие органы будут выпускать для организаций практические руководства, а также другие инструменты и ресурсы, такие как шаблоны оценки рисков, чтобы определить, как реализовать эти принципы в своих секторах», — заявили в правительстве.
«Когда позволит парламентское время, можно будет принять закон, чтобы регуляторы последовательно рассматривали принципы».
Майя Пиндеус, генеральный директор и соучредитель стартапа в области искусственного интеллекта Humanising Autonomy, сказала, что шаг правительства стал «первым шагом» к регулированию искусственного интеллекта.
«Действительно, должно быть немного более сильное повествование», — сказала она.
«Я надеюсь увидеть это. Это своего рода посадка семян для этого».
Однако она добавила: «Регулировать технологию как таковую невероятно сложно. Вы хотите, чтобы она развивалась; вы не хотите препятствовать каким-либо достижениям, когда они определенным образом влияют на нас».
Появление рекомендаций является своевременным.
ChatGPT — популярный чат-бот с «искусственным интеллектом», разработанный Microsoft.
Компания OpenAI вызвала волну спроса на эту технологию, и люди используют этот инструмент для всего: от написания школьных сочинений до составления юридических заключений.
ChatGPT уже стал одним из самых быстрорастущих потребительских приложений всех времен, привлекая 100 миллионов активных пользователей в месяц по состоянию на февраль. Но эксперты выразили обеспокоенность негативными последствиями этой технологии, в том числе возможностью плагиата и дискриминации в отношении женщин и этнических меньшинств.
Специалистов по этике ИИ беспокоят предубеждения в данных, которые обучают модели ИИ. Было показано, что алгоритмы имеют тенденцию отдавать предпочтение мужчинам, особенно белым мужчинам, что ставит женщин и меньшинства в невыгодное положение.
Также высказывались опасения по поводу возможности потери рабочих мест из-за автоматизации.
Во вторник Goldman Sachs предупредил, что до 300 миллионов рабочих мест могут быть уничтожены продуктами генеративного ИИ.
Правительство хочет, чтобы компании, внедряющие ИИ в свой бизнес, обеспечивали достаточный уровень прозрачности в отношении того, как именно разрабатываются и используются их алгоритмы.
Организации «должны иметь возможность сообщать, когда и как используется технология, и объяснять процесс принятия решений в системе с надлежащим уровнем детализации, который соответствует рискам, связанным с использованием ИИ», — говорится в сообщении DSIT.
«Компании также должны предлагать пользователям возможность оспаривать решения, принятые инструментами на основе ИИ», — говорится в сообщении DSIT.
Пользовательские платформы, такие как Facebook, TikTok и YouTube часто используют автоматизированные системы для удаления контента, помеченного как «противоречащий» их правилам цензуры.
ИИ, который, как считается, ежегодно вносит 3,7 миллиарда фунтов стерлингов (4,6 миллиарда долларов) в экономику Великобритании, также должен «использоваться таким образом, который соответствует действующим законам Великобритании. Например Закону о равенстве 2010 года или GDPR Великобритании, и не должен дискриминировать отдельных лиц или создавать несправедливые коммерческие результаты», — добавили в DSIT.
В понедельник госсекретарь Мишель Донелан посетила офис стартапа DeepMind в Лондоне, сообщил представитель правительства.
«Искусственный интеллект больше не является предметом научной фантастики, а темпы развития ИИ ошеломляют, поэтому нам нужны правила, обеспечивающие его безопасную разработку», — заявил Донелан в своем заявлении в среду. «Наш новый подход основан на строгих принципах, чтобы люди могли доверять бизнесу, чтобы раскрыть эту технологию завтрашнего дня».
Лила Ибрагим, главный операционный директор DeepMind и член британского Совета по «искусственному интеллекту», сказала, что искусственный интеллект — это «трансформационная технология», но что он «может раскрыть весь свой потенциал только в том случае, если ему доверяют, что требует государственного и частного партнерства в духе ответственного новаторства». «Предложенный Великобританией контекстно-ориентированный подход поможет регулированию идти в ногу с развитием ИИ, поддерживать инновации и снижать будущие риски», — сказала Лила Ибрагим.
Это происходит после того, как другие страны придумали свои собственные режимы регулирования ИИ.
В Китае правительство потребовало от технологических компаний предоставить подробную информацию об их ценных алгоритмах рекомендаций , в то время как Европейский Союз предложил собственные правила для отрасли.
Не все согласны с подходом правительства Великобритании к регулированию ИИ.
Джон Байерс, глава отдела искусственного интеллекта в юридической фирме Osborne Clarke, сказал, что решение делегировать ответственность за надзор за технологией среди регулирующих органов может привести к созданию «сложного лоскутного одеяла, полного дыр».
«Риск при нынешнем подходе заключается в том, что проблемная система ИИ должна будет представить себя в правильном формате, чтобы вызвать юрисдикцию регулирующего органа, и, кроме того, рассматриваемый регулирующий орган должен иметь правоприменительные полномочия для принятия решительных и эффективных действий. Чтобы устранить причиненный вред и создать достаточный сдерживающий эффект, чтобы стимулировать соблюдение требований в отрасли», — сообщил Байерс CNBC по электронной почте.
Напротив, ЕС предложил «нормативную базу сверху вниз», когда речь идет об ИИ, — добавил он.
Также стало известно, что некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».
В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества».
В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.
Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа.
Письмо подписали также тяжеловесы в области «искусственного интеллекта», такие как Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.
В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.
Вот полный текст письма:
«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных «цифровых умов», которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.
Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками?
Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ?
Должны ли мы развивать «нечеловеческие умы», которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить?
Должны ли мы рисковать потерей контроля над нашей цивилизацией?
Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей». Мы согласны. Этот момент наступил сейчас.
Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.
Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям «чёрного ящика» с более широкими возможностями.
Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.
Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.
Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к «лету ИИ», когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».
Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо.
«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. — «Системы ИИ могут причинить серьёзный вред… Крупные игроки становятся всё более скрытными в отношении того, что они делают».
Напомним, что OpenAI представила GPT-4 14 марта.
Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки.
После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.
В Италии чат GPT заблокирован
Национальный регулятор конфиденциальности Италии распорядился заблокировать ChatGPT, обвинив компанию OpenAI в — «незаконном сборе личных данных».
Согласно пресс-релизу GPDP , у компании нет законных оснований для сбора конфиденциальной информации.Также регулятор обвинил OpenAI в отсутствии механизма, позволяющего запретить детям доступ к сервису.
По мнению GPDP, инструмент «подвергает несовершеннолетних абсолютно неподходящим ответам по сравнению с их уровнем развития и самосознания».
Компании OpenAI приказали немедленно прекратить сбор данных итальянских пользователей, пока она не изменит методы получения персональной информации. На выполнение требований GPDP у компании OpenAI есть 20 дней.
В противном случае ей грозит штраф в 20 млн. евро или 4% от их годового оборота.
Представитель компании OpenAI подтвердил факт блокировки, — «Мы отключили ChatGPT для пользователей в Италии по запросу местного регуляторного органа.
Забота о людях? С чего бы это? Помеха в новой индустриальной революции, или людям просто снова «пудрят» мозг по плану «Великой Перезагрузки» от ВЭФ?
А может быть все перечисленные в статье реально опасаются различных групп хакеров, которые могут использовать эти технологии с целью шантажа крупных корпораций?
Будем наблюдать за развитием событий и держать вас в курсе друзья.