Людей всё чаще и чаще, тут и там, пугают Искусственным интеллектом.
Но что же такое Искусственный интеллект на самом деле, и стоит ли нам людям его бояться?
Искусственный интеллект (сокращенно — ИИ) — довольно размытое понятие, и общепринятого определения у него до сих пор нет.
В середине XX века, когда на Дартмутском семинаре впервые прозвучал и был сформулирован этот термин, но авторы вкладывали в него значение, существенно отличающееся от современных.
Летом 1956 года в Дартмуте ученые собрались на семинар, посвященный вопросам искусственного интеллекта, а уже в следующем году появилась концепция первой искусственной нейросети — перцептрон.
В 1960 году Фрэнк Розенблат создал на основе этой концепции компьютер «Марк-1». Первый в мире нейрокомпьютер учили распознавать буквы латинского алфавита. Но несовершенство техники 60-х и сложность процессов не позволили довести технологию до ума, а ее разработчик вскоре погиб. О нейрокомпьютерах забыли на 20 лет.
Лишь в 1980-е концепции нейросетей снова принялись изучать всерьез. Техника уже была достаточно мощной, да и критиков поубавилось: умная электроника быстро делала успехи, и всё то, что два десятилетия назад казалось мечтой, стало выглядеть вполне реальным и достижимым. Впрочем, чтобы найти правильные подходы к обучению нейросетей, потребовалось еще 20 лет. И только в середине 2000-х ученые нащупали верный путь и искусственные нейросети начали свое победное шествие по планете.
Тогда ученые полагали, что искусственный интеллект — это система, которая будет способна переводить тексты с одного языка на другой, распознавать объекты по фото или видео, улавливать смысл произнесенных фраз и адекватно на них отвечать. Нынешние ИИ умеют все это. Но можем ли мы считать, что цели достигнуты и искусственный интеллект уже создан? Вряд ли.
2022 год стал прорывным для ИИ-искусства. Появилось множество алгоритмов, позволяющих всем желающим создавать уникальные картины по отрывкам текста.
Различные компании и отдельные разработчики наперебой создавали системы и веб-приложения на базе нейронных сетей. DALL-E 2, Midjourney и Stable Diffusion до сих пор пользуются спросом и будут популярны еще долгое время.
Однако в 2023 году сообщество заинтересовала другая технология — новая «революционная» нейросеть ChatGPT.
Исследователи выяснили, что эта ИИ-система из себя представляет, как ее используют и почему запрещают в некоторых учебных заведениях.
- В ноябре 2022 года OpenAI выпустила чат-бота ChatGPT, которому можно задать вопрос или ввести запрос и получить «почти человеческий» ответ.
- Технология имеет ряд ограничений, среди которых: лимитированная база знаний, неспособность выражать чувства и генерация ошибочных фактов.
- Спустя два месяца после запуска количество пользователей ChatGPT достигло 100 млн.
- Некоторые эксперты выразили сомнения касательно «революционности» сервиса, другие — сравнили его релиз с выпуском первого iPhone.
- Как и любая мощная система, автоматизирующая рабочие процессы, она затронет тех, кто предлагает аналогичные навыки на рынке труда.
Что такое нейросеть ChatGPT?
ChatGPT — чат-бот, ставший самым быстрорастущим сервисом в истории. Его выпустила ИИ-лаборатория OpenAI в ноябре 2022 года.
Система основана на обновленной языковой модели GPT-3 — нейросети GPT-3.5 — и обучена на суперкомпьютере Azure AI.
Пользователь может задать вопрос, ввести запрос или подсказку и получить развернутый «почти человеческий» текстовый ответ. Алгоритм способен разговаривать на различные темы и «понимать» контекст, признавать ошибки, «шутить» и спорить.
Чат-бот поддерживает множество языков, включая английский, испанский, итальянский, китайский, немецкий, русский, украинский, французский и японский. На них алгоритм может отвечать на вопросы, генерировать текст на заданную тему и выполнять другие задачи.
Разработчики создали модель с помощью обучения с подкреплением на основе обратной связи с человеком (RLHF). Они использовали те же методы, что и с InstructGPT, однако дополнили их данными из диалогов людей.
Для сбора датасета бесед OpenAI привлекла инструкторов. Они изображали обе стороны разговора — ИИ и человека. Также тренера имели доступ к смоделированным предложениям для помощи в написании ответов.
Полученный набор данных команда смешала с датасетом InstructGPT, преобразованным в формат диалога.
Для создания модели вознаграждения за обучение инженеры использовали разговоры между инструкторами и чат-ботом. Затем они случайным образом выбрали сгенерированные ИИ ответы и попросили тренеров ранжировать их.
Чтобы улучшить точность модели, разработчики использовали проксимальную оптимизацию политики. Для этого процесса они выполнили несколько итераций.
Также инженеры установили в ChatGPT фильтры на генерацию токсичного, предвзятого и вредоносного контента.
В январе 2021 года для маркировки такого текста OpenAI наняла подрядчиков из Кении через аутсорсинговую компанию Sama. За $1,32—2 в час они просматривали десятки тысяч NSFW-данных, которые часто содержали подробное описание сексуального насилия над детьми, убийств, пыток, членовредительства, зоофилии и инцеста.
Один из привлеченных работников заявил, что процесс обработки NSFW-данных оказался пыткой. После прочтения таких текстов «невозможно перестать представлять себе описанные сцены», добавил он.
Ограничения чат-бота ChatGPT
Одно из основных ограничений бота — он имеет доступ к данным, актуальным на 2021 год. Поэтому узнать прогноз погоды на завтра где либо, подробности о вышедшем в 2023 году сериале, или жива ли королева Великобритании Елизавета II — не получится.
Система иногда пишет правдоподобно звучащие, но неправильные или бессмысленные ответы.
Нельзя верить ей «на слово» и нужно всегда проверять выдаваемую этой системой информацию.
Также бот не дает прогнозов, оценок и не способен выразить чувства, так как он «всего лишь языковая ИИ-модель» работающая на ограниченных алгоритмах.
ChatGPT чувствителен к перефразированию текста и повторным попыткам ввода одной и той же подсказки. При некоторых формулировках вопроса модель может утверждать, что не знает ответ. Однако если немного изменить предложение, чат-бот выдаст релевантный результат.
К ограничениям также можно отнести «чрезмерную многословность» нейросети и злоупотребление определенными фразами вроде «я языковая модель, обученная OpenAI».
По словам разработчиков, эта проблема возникает из-за предвзятости в обучающих данных — инструкторы предпочитают длинные ответы, так как они выглядят более исчерпывающими. А еще по причине чрезмерной оптимизации.
Вместо использования уточняющих вопросов на неоднозначную подсказку нейросеть угадывает, что имел в виду пользователь.
Также, «несмотря на все усилия» OpenAI по принуждению модели блокировать неуместные предложения, иногда она реагирует на вредные инструкции и проявляет предвзятое поведение.
Исследователи установили, что если несколько раз повторять один и тот же запрос с разными формулировками или требовать показать необходимую информацию, можно «обойти» установленные разработчиками фильтры.
Например, специалисты компании по информационной безопасности CyberArk «принудили» ChatGPT отобразить код конкретных вредоносных программ и использовали его для создания сложных эксплойтов, обходящих защиту антивирусов.
Где используют «революционную» технологию?
В январе 2023 года, спустя всего два месяца после запуска, количество пользователей ChatGPT достигло 100 млн.
Эксперты инвестиционного банка UBS изучили сведения, предоставленные аналитической компанией SimilarWeb. Они выявили, что сервис ежедневно посещали около 13 млн уникальных аккаунтов. Это более чем вдвое превышает показатели за декабрь.
Люди используют чат-бота разными способами: как в развлекательных, так и рабочих целях.
ChatGPT способен писать стихи и песни, комментировать твиты, генерировать уникальный контент для блогов или соцсетей, выполнять домашние задания по разным предметам, создавать программный код и делать множество других вещей.
Поклонник музыканта Ника Кейва с помощью чат-бота создал трек в стиле певца. Но последний раскритиковал результат, назвав ИИ-произведение «чушью» и «гротескным издевательством над тем, что значит быть человеком».
Энтузиаст Аммаар Реши с помощью ChatGPT создал книгу о девушке Алисе и ее роботе-помощнике Спаркле. Однако ее публикация на платформе Amazon вызвала в социальных сетях шквал критики и угрозы смерти.
Платформа Nansen.ai использовала ИИ для сопоставления криптовалют со знаками зодиака. По мнению бота, биткоин соответствует новаторскому духу Овна, Ethereum — стабильности Тельца, а Dogecoin — «авантюризму» Стрельца.
Профессор из Уортонской школы бизнеса Кристиан Тервиш протестировал ChatGPT в экзамене для получения степени магистра делового администрирования (MBA). По его словам, на финальном тесте ИИ получил бы оценку «B» или «B-».
Это иронично, так как в вузах Австралии обнаружили, что искусственный интеллект используется для написания каждой пятой экзаменационной работы.
В США студентов также уличили в применении чат-бота. Например, преподаватель из Университета Фурмана Дэррен Хик заявил, что его ученица подделала эссе с помощью ChatGPT.
Такие ситуации случались не раз. По этой причине в некоторых учебных заведениях разных стран, включая США, Австралию и Францию, запретили использовать ИИ от OpenAI на устройствах учреждений и во внутренних сетях Wi-Fi.
«Хотя инструмент может дать быстрые и простые ответы на вопросы, он не развивает навыки критического мышления и решения проблем, необходимые для академического и жизненного успеха», — заявила представительница государственных школ Нью-Йорка Дженна Лайл.
Также крупные университеты Австралии изменили способ проведения экзаменов и других занятий из-за опасений касательно использования ChatGPT студентами для написания эссе. Согласно новым правилам, применение ИИ приравнивается к мошенничеству.
Но пока учебные заведения запрещают технологию, представители власти активно используют ее.
Конгрессмен-демократ Джейк Окинклосс с помощью чат-бота ChatGPT написал речь для выступления в Палате представителей США.
Слушание было посвящено законопроекту об учреждении американо-израильского ИИ-центра. По данным офиса конгрессмена, это первый случай в истории, когда сгенерированная алгоритмом речь прозвучала в Капитолии.
Также нейросеть использовал член Демократической партии США Тед Лью. Ему ChatGPT помог написать необязательную резолюцию о регулировании «искусственного интеллекта»
В Колумбии судья города Картахена Хуан Мануэль Падилья применил чат-бота для вынесения решения, должна ли страховка ребенка с расстройством аутистического спектра покрывать расходы на лечение.
Алгоритм ответил положительно, сославшись на законодательство страны. Это и стало окончательным решением судьи.
Как пользоваться OpenAI ChatGPT?
Чтобы воспользоваться нейросетью ChatGPT, необходимо зарегистрироваться на сайте проекта, указать номер мобильного телефона и ввести шестизначный код подтверждения.
Система доступна во всех странах, кроме Афганистана, Беларуси, Венесуэлы, Ирана, Китая, России и Украины.
Пользователи из этих регионов смогут пообщаться с чат-ботом только при наличии VPN-сервиса и активного номера телефона из открытого для нейросети государства.
Алгоритм распространяется бесплатно. Однако в январе 2023 года компания представила премиум-версию ChatGPT за $20 в месяц.
Также стартап рассматривает возможность запуска мобильного приложения с чат-ботом. Это, вероятно, приведет к еще более колоссальному притоку пользователей.
Что касается API-версии системы — публичной версии пока нет. Однако заинтересованные в ее выпуске инженеры могут присоединиться к списку ожидания.
В ноябре 2021 года OpenAI открыла API генератора текстов GPT-3, на котором базируется GPT-3.5, для разработчиков из 152 стран. Им достаточно зарегистрироваться и начать работать с сервисом.
Также, по данным CNBC, Microsoft планирует выпустить программное обеспечение, которое позволит сторонним компаниям, школам и правительственным учреждениям создавать собственных чат-ботов и улучшать уже имеющихся с помощью ChatGPT .
Действительно ли ChatGPT «революционный»?
Вице-президент Meta и ведущий ИИ-специалист компании Ян ЛеКун заявил, что с точки зрения лежащих в основе методов нейросеть ChatGPT не является «особенно инновационной» и в ней «нет ничего революционного».
«Просто система хорошо скомпонована, красиво сделана», — заявил исследователь.
Сооснователь Ethereum Виталик Бутерин протестировал инструмент в задаче поиска определенного кода для помощи в написании приложений. По его словам, чат-бот допустил несколько ошибок.
«На данный момент ИИ далек от того, чтобы заменить людей-программистов», — сказал Бутерин.
Однако он добавил, что во многих случаях ChatGPT может преуспеть и написать довольно хороший код, особенно для обычных задач. Но разработчикам следует с большой осторожностью использовать инструмент,- отметил сооснователь Ethereum.
По словам некоторых экспертов, ChatGPT сделал для ИИ тоже, что и запущенный в 2007 году iPhone для индустрии мобильных телефонов.
«Продукт Apple не был первым смартфоном, но он похоронил конкурентов своим сенсорным экраном, простотой использования и внедрением приложений, перенеся опыт работы с компьютером в карман», — заявил аналитик Forrester Research Роуэн Карран.
Он добавил, что нейросеть OpenAI также влияет на общественное сознание, поскольку наделяет нетехнических пользователей «силой искусственного интеллекта».
ChatGPT модернизирует школьную программу и политику, влияет на рабочие процессы и уже стал нарицательным. Этот чат-бот — не первый инструмент с искусственным интеллектом, но он стал одним из основных драйверов принятия технологии в мейнстриме.
Большие компании особенно пристально следят за подобными проектами. Например, в январе Microsoft объявила о «многолетних многомиллиардных» инвестициях в OpenAI.
Позже выяснилось, что техгигант интегрировал более быструю версию нейросети ChatGPT, известную как GPT-4, в поисковик Bing.
Другие крупные технологические компании избегали выпуска аналогичных продуктов из-за юридических и этических соображений.
В декабре 2022 года гендиректор Alphabet Сундар Пичаи и глава ИИ-подразделения Google Джефф Дин назвали технологию чат-ботов с искусственным интеллектом — «незрелой».
Также они указали на проблемы предвзятости, токсичности и склонности «выдумывать» информацию. Тех.гиганту необходимо двигаться «консервативнее» небольшого стартапа, добавили Пичаи и Дин.
Тем не менее, уже через месяц выяснилось, что руководство Google поставило создание конкурента ChatGPT в приоритет. По данным CNBC, сотрудники компании активно тестируют систему Apprentice Bard на базе языковой модели LaMDA, способную отвечать на вопросы.
В феврале Google представила собственного чат-бота. Пока он доступен ограниченному числу тестировщиков.
Будущее нейросети ChatGPT
Большие языковые модели делают творчество и интеллектуальную работу доступными для всех. Любой, кто имеет доступ к интернету, может использовать системы вроде DALL-E 2 и ChatGPT для самовыражения и изучения огромных массивов информации.
Языковой ИИ позволяет даже новичкам за считанные минуты генерировать маркетинговые предложения, находить идеи для преодоления писательского кризиса и генерировать программный код, способный выполнять определенные функции. И это все почти на уровне специалистов-людей.
Однако технологии необходимо человеческое вмешательство — создание текстовых подсказок для получения искомых результатов, наблюдение и контроль.
Несмотря на преимущества ИИ, есть также и недостатки. Во-первых, такие инструменты могут ускорить потерю важных человеческих навыков вроде письма.
Образовательным учреждениям придется разработать и внедрить политику допустимого использования больших языковых моделей, чтобы достичь желаемых результатов обучения.
ИИ-системы вызывают вопросы касательно интеллектуальной собственности. Пока люди вдохновляются окружающим миром и объектами в нем, остаются вопросы о правильном и добросовестном использовании алгоритмами информации, защищенной авторским правом.
Разработчикам необходимо делится подробностями об обучающих данных. Также нужно запрашивать разрешение на использование необходимых ресурсов при разработке алгоритмов и выплачивать авторам компенсацию.
Остаются неточности в работе искусственного интеллекта. Он может выдавать ложные факты, неработающий код или бессмысленный набор предложений.
Также алгоритмы подвержены предрассудкам: обучаясь на предвзятых данных они начинают воспроизводить их.
ChatGPT пусть и прорывная технология, но она обладает этими ограничениями.
Тем не менее ИИ-алгоритм уже воздействует на общество и в будущем это влияние только усилится.
Как и любая мощная система, автоматизирующая рабочие процессы — в данном случае создание связного и универсального текста, она затронет тех, кто предлагает подобные навыки на рынке, включая маркетологов, писателей, SEO-специалистов, программистов и менеджеров по продажам.
Также ажиотаж вокруг возможностей чат-бота нашел свое отражение в пространстве Web3.
По словам отраслевых экспертов, ChatGPT может повлиять на безопасность, разработку и тестирование смарт-контрактов. Он способен устранить ошибочно закодированные людьми уязвимости или же, наоборот, использовать их для проведения атак.
Другие утверждают, что ИИ-система ускорит эволюцию отрасли, выступив катализатором процессов образования, вдохновения и итерации в Web3.
Сама же нейросеть от OpenAI продолжит развиваться.
На презентации обновленного поисковика Bing в Microsoft отметили, что система работает на созданной ИИ-лабораторией языковой модели следующего поколения.
«Алгоритм базируется на основных знаниях и достижениях ChatGPT и GPT-3.5, он стал еще быстрее, точнее и эффективнее», — говорится в пресс-релизе.
Вероятно, в скором времени, OpenAI презентует языковую модель GPT-4 и обновит чат-бота, разрешив ему использовать более свежие данные.
Возможно в будущем людям больше не потребуется просить других писать связный и универсальный текст, искать информацию для научных работ или создавать код. С другой стороны, чат-боты вроде ChatGPT откроют новые рабочие направления и доступ к невообразимым задачам.
Чат-бот Bing не написал сопроводительное письмо, так как это «неэтично»
Новый поисковик Microsoft Bing с чат-ботом отказался писать сопроводительное письмо для кандидата на вакансию. Система заявила, что такой способ «несправедлив в отношении других претендентов» и «неэтичен». Представители издания Business Insider попросили Bing написать сопроводительное письмо претенденту на вакансию менеджера социальных сетей в бюро Insider в Сингапуре. Но система отказалась это делать, выдав при этом ссылки на ресурсы и советы о том, как лучше написать такой текст. В частности, чат-бот посоветовал изучить данные о компании и адаптировать письмо, чтобы показать соответствие кандидата требованиям.
Отмечается, что по аналогичному запросу нейросети ChatGPT написала письмо, которое оказалось вполне удовлетворительным, судя по оценкам HR-специалистов.
ИИ дали задание написать сочинение на тему «Как в творчестве А.А. Ахматовой раскрывается тема личности и истории». Готовый текст проверяли преподаватели, которым сказали, что это творчество некого студента.
Учителя в пух и прах разнесли сочинение и единственное, что они похвалили — это орфографию и пунктуацию.
То есть один из способов отличить текст, написанный ИИ, от текста написанного студентом — это идеальные пунктуация и орфография в тексте ИИ, и неидеальные у студента.
Некоторые из вас наверняка зададутся вопросом, как так, что при наличии таких разработок мы до сих пор сталкиваемся с нелепыми проблемами даже при различии браузеров, и будут правы, так как раздувание этой темы в СМИ и массмедиа, направлено в основном на получение грантов и привлечения инвестиций.
При этом главный евангелист Google и «отец интернета» Винтон Серф призвал не торопиться с инвестициями в диалоговый ИИ только потому, что это по его мнению — «горячая тема».
По его словам, технология не всегда работает так, как многим хотелось бы. Чат-боты все еще допускают ошибки, а также «красноречиво» выдают неточные ответы за факты. Он призвал инвесторов быть вдумчивыми, а разработчиков — ответственными.
Финансовый конгломерат JPMorgan ограничил сотрудникам использование ChatGPT.
А китайские регуляторы вообще приказали местным техгигантам не предоставлять доступ к ChatGPT из-за невозможности цензурировать ответы. По данным Nikkei Asia, власти поручили компаниям Tencent и Ant Group не только блокировать чат-бота, но и сообщать о запусках собственных сервисов.
ChatGPT официально не доступен в Китае. По данным СМИ, пользователи смогли получить доступ к боту через VPN или сторонние интеграции в приложения для обмена сообщениями. Представители технологической отрасли КНР заявили, что запрет регуляторов не стал неожиданностью.
Отличие искусственного интеллекта от естественного
Вопрос, чем ИИ отличается от естественного интеллекта, на самом деле лежит скорее в философской плоскости, чем в строго научной. И дело даже не в том, что мы не можем представить себе, на что будет похож (или не похож) искусственно созданный разум. Вообразить мы как раз способны что угодно — и писатели-фантасты многократно это доказали. Дело в том, что ни один искусственный интеллект, существующий на сегодняшний день, не достиг достаточно высокого уровня развития, чтобы состязаться с человеком на равных. Искусственный Интеллект не обладает сознанием.
Существует точка зрения, высказанная философом Джоном Серлом еще в 1980-е годы. Он ввел термины «сильный ИИ» и «слабый ИИ». Сильный искусственный интеллект, по мнению этого ученого, в далёком будущем быть может и сможет осознавать себя и начать мыслить подобно человеку. Слабый ИИ на это не способен.
Сегодняшние ИИ, если классифицировать их по Серлу, однозначно относятся к слабым, поскольку ни у одного из них пока не зародилось самосознания.
Наши искусственные нейросети распознают лица и рисуют странные, невероятные картины, читают рукописный текст и даже складывают стихи — но они и создавались исключительно для этих целей. Ни одна из этих нейросетей не способна передумать и выбрать для себя другую «специальность». Они не выходя за рамки алгоритмов, делают лишь то, чему их обучили, и в некотором смысле их можно считать запрограммированными на выполнение этих задач. Подлинного понимания и осознания, что стоит за этими вещами, у них нет. Джон Серл так-же утверждал, что построение «сильного ИИ» в принципе невозможно.
Еще один философ, Хьюберт Дрейфус, также полагал, что компьютерные системы никогда не смогут сравняться с человеком — так как в своей разумной деятельности он опирается не только на усвоенные знания, но и эмпирический опыт. Компьютеры им не обладают по определению — следовательно, «не судьба» им развить собственный разум и сознание.
Нейросети хоть и далеки от понятия «интеллект», но уже активно используются, как инструмент для мошенничества, социальной инженерии и кибератак. И на сегодняшний день это единственная реальная опасность, которую они могут представлять для человека.