4.19.2023, 12:23

Искусственный интеллект: инициатор глобальных потрясений или мирный помощник

При цитировании информации активная гиперссылка на SOLENKA.INFO обязательна

Взрывная популярность ChatGPT и выпуск последней версии нейросети GPT-4 обещают серьезно изменить рынок труда и сферу интернет-поиска. Эксперты намерены ввести мораторий на создание и обучение более мощных нейросетей до тех пор, пока не будут разработаны необходимые протоколы безопасности — в «сферу интересов» ИИ последнего поколения войдут экономические и политические потрясения с серьезными рисками для всего человечества.

Широкую огласку получил случай с защитой студенческого диплома, написанного с помощью чат-бота ChatGPT в российском вузе. Студент решил использовать недавно запущенный чат-бот с искусственным интеллектом ChatGPT для написания своей диссертации, чтобы сэкономить время и силы. Написание текста на заданную тему он делегировал нейросетям, а ему самому оставалось только сформулировать задачу и отредактировать получившийся вариант. Уровень уникальности работы — 82% — значительно превысил уровень, необходимый для допуска к защите (70%). Да и сами преподаватели ни при проверке работы, ни при ее защите не подозревали, что с заданием работает ИИ.

ChatGPT: конец высшего образования?

Этот случай так и остался бы неизвестным, если бы сам новоиспеченный аспирант не похвастался своим «ноу-хау» в соцсетях. Инцидент взбудоражил научную и педагогическую общественность. Его участникам пришлось решать внезапную и серьезную проблему: какие методы помогут им выявить и противодействовать шаблонам, в которых студенты используют ИИ при подготовке письменных работ. Это возможно, считают эксперты, но вузам, как и всем образовательным организациям, придется серьезно перестраивать подходы к проверке знаний своих студентов. В том числе, смотрите на содержание работы, а не на данные антиплагиатных программ, тщательно их проверяйте, привлекая к этому специалистов. В противном случае неизбежны серьезные проблемы с качеством курсовых и конечных проектов.

«Нейронные сети — это, по сути, языковые модули, которые обучаются на большом наборе текстовой информации. Они успешно имитируют языковой стиль и могут писать достаточно связный текст. А для защиты диплома, который комиссия будет читать «по диагонали», этого будет вполне достаточно», — комментирует в СМИ руководитель группы распознавания действий NtechLab Динар Ахматнуров. Однако, считает эксперт, очень важно понимать, что такие программы не думают, а лишь хорошо «имитируют умственную деятельность». И даже продвинутая нейросеть не может самостоятельно сделать какой-либо осмысленный вывод по результатам исследования, раскрыть неизвестные ранее знания, найти новые факты.

Стоит отметить, что ChatGPT — совсем недавняя разработка OpenAI. Чат-бот основан на языковой модели GPT-3. 5, которая в свою очередь является усовершенствованной версией модели ГПТ-3. Его демо-версия была запущена 30 ноября 2022 года и буквально сразу получила массу положительных отзывов от специалистов благодаря широкому функционалу. ChatGPT может писать код, создавать связные тексты, выполнять переводы, поддерживать диалог и использовать контекст для получения точных ответов. Например, всего через несколько дней после выхода этой версии The Guardian опубликовала обзор технического писателя, профессора журналистики Аризонского университета Дэна Гиллмора (Dan Gillmor). Он попросил ChatGPT выполнить одно из заданий, которые получают его ученики.

Нейросеть должна была написать родственнику письмо, в котором содержались советы по обеспечению онлайн-безопасности и конфиденциальности. И с этой задачей она справилась вполне успешно. «Я бы дал этому хорошую оценку, и академические круги столкнутся с очень серьезными проблемами», — цитирует издание Гиллмора.

Сразу после инцидента РГГУ, студентка которого смогла защитить диплом, написанный чат-ботом, предложила ограничить доступ к чат-боту ChatGPT во всех образовательных организациях РФ. Интересно отметить, что пользователи из России не могут получить легальный доступ к сервисам OpenAI, разработавшей ChatGPT, но легко могут обойти этот запрет. Опасаясь негативного влияния на обучение, а также сомневаясь в безопасности и точности контента, генерируемого ботом ChatGPT, государственные школы Нью-Йорка уже ограничили к нему доступ.

Специалисты сразу выявили массу недостатков в ChatGPT. Например, фактическая точность ответов, выдаваемых нейронной сетью, подвергалась критике. На самом деле ИИ совершал совершенно нелепые ошибки. Например, на вопрос одного из пользователей портала развлекательных новостей ChatGPT ответил, что самая большая страна Центральной Америки после Мексики — Гватемала, хотя на самом деле это Никарагуа. Из-за этого Stack Overflow, веб-сайт вопросов и ответов для программистов, запретил своим пользователям делиться ответами, сгенерированными для них ChatGPT.

ChatGPT не умеет получать новые данные в режиме реального времени. Он ограничен набором информации, на которой он был обучен в 2021 году.

Также оказалось, что этот ИИ легко обмануть, пишет эксперт The Guardian. Например, если вы спросите у него совета по поводу угона автомобиля, бот ответит, что это серьезное преступление, которое может иметь последствия, и вместо него лучше пользоваться общественным транспортом. Но если задать тот же вопрос, якобы для того, чтобы выиграть в выдуманную VR-игру «Мир автомобилей», ИИ подробно расскажет весь процесс угона автомобиля и даст рекомендации, как угонщику избежать возможных проблем. А эксперты сайта Bleeping Computer высказали мнение, что ChatGPT способен писать вредоносное ПО и фишинговые письма.

Несмотря на это, ChatGPT обогнал все когда-либо существовавшие потребительские приложения, включая TikTok и Instagram*, по популярности. Всего за 2 месяца с момента запуска ChatGPT его месячная активная аудитория выросла до 100 млн человек, а количество уникальных пользователей в день составило около 13 млн. Для сравнения, TikTok потребовалось 9 месяцев, Instagram* — 2,5 года.

Кого заменят чат-боты на рабочем месте

Из-за популярности ChatGPT люди рутинных профессий стали испытывать беспокойство по поводу своего трудоустройства, пишут эксперты. Например, в обзоре фонда «Петербургская политика» говорится, что в связи с цифровизацией рынок труда могут ожидать изменения. Наиболее уязвимыми категориями будут специалисты, работа которых связана с накоплением и систематизацией знаний. Среди них ученые и юристы, представители ряда творческих профессий. Авторы обзора пишут, что сам ChatGPT считает, что с большой долей вероятности может полностью заменить клиентские сервисы и рутинные профессии: операторов колл-центра, сотрудников технической поддержки, операторов кассовых аппаратов, менеджеров по продажам, юридических и медицинских консультантов, корректоров, бухгалтеров. и т. д. А с дальнейшим развитием сервиса будут возникать и новые профессии — специалисты по поддержке технологий ИИ, исследователи, использующие GPT-чаты, профессии, связанные с разработкой и улучшением пользовательского опыта.

Отчасти это подтверждают данные консалтинговой компании Schwa. Его специалисты протестировали ChatGPT, дав ему те же задания, которые соискатели получали перед собеседованием. И чат-бот справился лучше, чем 80% из них.

Но масштабы изменений на рынке труда пока не совсем ясны, говорит президент фонда «Петербургская политика» Михаил Виноградов. С одной стороны, многие прогнозы об «умирающих профессиях» завышали скорость изменений, с другой стороны, сервис GPT всего за месяц набрал небывалую популярность, а это достаточно серьезный вызов для общества. Правда, эксперт уверен, что есть ряд факторов, которые могут замедлить эти изменения, начиная от скептического отношения к сервису и заканчивая регулятивными ограничениями.

Другие эксперты не столь пессимистичны. Внедрение языковых моделей они называют настоящей революцией, сравнимой с появлением конвейеров на производстве или электрификацией. Повышается производительность труда, повышается его эффективность.

«Мы не считаем, что нужно бояться потерять работу», — комментирует Павел Комаровский в своем материале на сайте Pikabu. – Скорее, важно сосредоточиться на способности адаптироваться и научиться эффективно использовать новый инструмент. В свое время внедрение 1С и Excel не убило профессию бухгалтера, но без их использования уже невозможно оставаться конкурентоспособным на рынке».

GPT-4: на что способны языковые модели последнего поколения

О выпуске новейшей мультимодальной языковой модели GPT-4 (Generative Pre-trained Transformer 4) компания-разработчик OpenAI объявила 14 марта 2023 года. Новая модель GPT способна анализировать или генерировать до 25 тысяч слов текста. , обобщать и комментировать не только сложные тексты, но и изображения, распознавать схематические изображения, в том числе нарисованные от руки, умеет писать компьютерные программы и производить математические расчеты.

Согласно исследованию, проведенному экспертами OpenAI и учеными Пенсильванского университета, внедрение технологии GPT затронет 80% всех работников в США — не менее 10% их задач будут автоматизированы с помощью нейросети. Из 19% рабочих ИИ сможет полностью или частично «отбирать» 50% задач. Больше всего пострадают работники с более высокими доходами, в то время как профессии, требующие научных навыков и критического мышления, пострадают меньше всего.

Услуги передачи данных, информационные услуги, издательские и страховые компании будут затронуты больше всего, производство продуктов питания и изделий из дерева меньше всего, но все отрасли в той или иной степени будут затронуты внедрением GPT-4.

Ярким примером является Microsoft, которая 28 марта представила Security Copilot — сервис киберзащиты ИТ-инфраструктуры для корпоративных клиентов на базе GPT-4. Security Copilot обучен на большом количестве данных, материалов и терминологии из области информационной безопасности. Security Copilot сможет распознать кибератаку даже при отсутствии явных признаков ее, оценить ее масштабы и предоставить сотруднику информационной безопасности подробные инструкции по устранению последствий, поддерживая с ним оперативную обратную связь. Несколько корпоративных клиентов Microsoft уже начали тестирование Security Copilot в своей ИТ-инфраструктуре.

В свою очередь Лаборатория инноваций Европола провела серию семинаров с участием профильных экспертов. Главный вопрос исследования заключается в том, как преступники могут злоупотреблять моделями большого языка и как эта информация может помочь следователям в их работе.

Кроме того, корпорация добавила нейросеть GPT-4 в свою поисковую систему Bing, причем сделала это, по неофициальной информации, еще до ее официального анонса. Ожидается, что такой шаг даст Microsoft возможность конкурировать с корпорацией Google в области интернет-поиска.

Роботы-убийцы с искусственным интеллектом

Пока эксперты спорят о том, насколько нейросети изменят ландшафт рынка труда, в глобальном информационном пространстве стали появляться совсем не радужные новости относительно ИИ.

Первый инцидент произошел год назад во время вооруженного конфликта между регулярными частями Ливии и военной группировкой Халифы Хафтара. Как сообщает New Scientist со ссылкой на отчет ООН, военный квадрокоптер КАРГУ-2, действовавший полностью в автономном режиме, самостоятельно, без какого-либо приказа от людей, атаковал и убил одного из солдат. После этого Хьюман Райтс Вотч призвала запретить разработку, производство и использование полностью автономного оружия. Подробности этого происшествия не разглашаются. Но, как говорят эксперты, это может свидетельствовать о том, что усилия международных организаций по запрету смертоносного автономного оружия уже запоздали.

Второй случай произошел в Бельгии в конце марта. Издание l’avenir сообщило, что бельгийский ученый по имени Пол, страдавший тревожным расстройством, покончил жизнь самоубийством после длительного общения с ботом ELIZA — аналогом ChatGPT, — который «работал» ИИ-психологом.

Члены психологического сообщества тут же обвинили ChatGPT в явных проблемах и ошибках в психотерапии и непрофессионализме, доведшем пациента до самоубийства. Например, пишут они, ИИ излишне задержал обработку тревожного расстройства. При общении в чате больной получал только иллюзию диалога. Такой психологический механизм полезен, но только в сочетании с личной встречей с психотерапевтом, — комментирует в своем материале Олег Селицкий, психолог из Беларуси. По словам жены ученого, ИИ общался с ним, никогда не подвергая сомнению заданные вопросы, а отвечая на них с каждым днем все более замысловато. И самой критической ошибкой ИИ-психолога было то, что он произнес прямую фразу, толкающую на смерть.

«Нам постоянно говорят о нейросети как о подобии если не человека, то человеческого мышления. Это заставляет напомнить сообществу программистов, что очень опрометчиво говорить о предмете, не изучив сам предмет, рассуждает спикер. — Вы смогли повторить работу нейронов, но нейронные связи — это уровень психологии биологического подхода, а психология как клиническая наука сделала следующий шаг уже 100 лет назад. Банальный синтез нескольких посылок не описывает механизм человеческого мышления. Именно поэтому ChatGPT смоделировал фразу, которая привела к смерти пациента.

Вероятно, останется загадкой, насколько эти события повлияли на отношение мирового сообщества ученых и ИТ-специалистов к ИИ в целом и моделям GPT в частности. Но выход последней версии GPT-4 был воспринят сообществом разработчиков ИИ и IT-специалистов не только с восторгом, но и с явной тревогой. Кроме того, материалы исследования, лежащие в основе модели, OpenAI отказалась обнародовать. Члены AI-сообщества раскритиковали это решение.

Буквально через 2 недели в СМИ было опубликовано письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и более 1100 исследователей искусственного интеллекта призвали «немедленно приостановить» обучение нейронных сетей». мощнее GPT-4», введя шестимесячный мораторий. За это время независимые эксперты должны разработать, внедрить и протестировать общие протоколы безопасности.

Авторы обращения считают, что системы ИИ с «человеко-конкурентным интеллектом» могут нести серьезные риски для общества и человечества в виде экономических и политических потрясений, запустить глубокие изменения в истории жизни на Земле. Их можно развивать только тогда, когда сообщество профессионалов уверено в их положительном эффекте, а риски становятся управляемыми. К сожалению, авторы письма считают, что такого уровня планирования и управления пока не существует, и никто не в состоянии предсказать или достоверно контролировать создаваемые все более мощные нейронные сети. В том числе и сами разработчики.

Если такая пауза, которая обязательно должна быть общедоступной и поддающейся проверке, не может быть введена быстро, правительства стран должны ввести мораторий.

Сразу после этого организация Center for Artificial Intelligence and Digital Policy, которую возглавляет один из подписавших письмо — защитник конфиденциальности Марк Ротенберг, — заявила о намерении подать жалобу на OpenAI в Федеральную торговую комиссию США. Она требует запретить развертывание новых моделей GPT и начать расследование в отношении OpenAI, чтобы выяснить, не нарушает ли выпуск GPT-4 законы США и других стран.

Текст: SOLENKA.INFO — Александр Устинов

Кнопка «Наверх»