Захват роботами. Вот как будет выглядеть конец света ИИ

Эксперты говорят, что последствия мощного ИИ будут не столько ядерной бомбой, сколько ползучей деградацией общества.

В последние месяцы тревога по поводу искусственного интеллекта достигла апогея. Только на этой неделе более 300 лидеров отрасли опубликовали письмо, предупреждающее, что искусственный интеллект может привести к вымиранию человечества, и его следует рассматривать со всей серьезностью «пандемий и ядерной войны».

Такие термины, как «судный день ИИ», вызывают в воображении научно-фантастические образы захвата власти роботами, но как на самом деле выглядит такой сценарий? Реальность, говорят эксперты, могла бы быть более затянутой и менее кинематографичной — не ядерная бомба, а ползучая деградация фундаментальных сфер общества.

«Я не думаю, что беспокойство вызывает то, что ИИ становится злым или что у ИИ есть какое-то злонамеренное желание», — сказала Джессика Ньюман, директор Инициативы безопасности искусственного интеллекта Калифорнийского университета в Беркли.

«Опасность заключается в чем-то гораздо более простом, а именно в том, что люди могут программировать ИИ на выполнение вредных действий, или мы в конечном итоге причиняем вред, интегрируя изначально неточные системы ИИ во все больше и больше сфер жизни общества».

Это не значит, что нам не следует беспокоиться. Даже если сценарии уничтожения человечества маловероятны, мощный ИИ способен дестабилизировать цивилизации в форме эскалации дезинформации, манипулирования пользователями-людьми и огромной трансформации рынка труда по мере того, как ИИ захватывает рабочие места.

Технологии искусственного интеллекта существуют уже несколько десятилетий, но скорость, с которой модели изучения языка, такие как ChatGPT, вошли в мейнстрим, усилила давние опасения. Между тем, технологические компании вступили в своего рода гонку вооружений, спеша внедрить искусственный интеллект в свои продукты, чтобы конкурировать друг с другом, создавая идеальный шторм, сказал Ньюман.

«Меня очень беспокоит путь, по которому мы идем», — сказала она. «Мы переживаем особенно опасное время для ИИ, потому что системы находятся в таком состоянии, когда они кажутся впечатляющими, но по-прежнему шокирующе неточными и имеют присущие им уязвимости».

Эксперты, опрошенные Guardian, говорят, что это те области, которые их больше всего беспокоят.

Дезинформация ускоряет эрозию правды

Во многих смыслах так называемая революция искусственного интеллекта происходит уже некоторое время. Машинное обучение лежит в основе алгоритмов, которые формируют наши новостные ленты в социальных сетях — технологии, которую обвиняют в сохранении гендерных предубеждений , разжигании разногласий и разжигании политических волнений .

Эксперты предупреждают, что эти нерешенные проблемы будут только усиливаться по мере появления моделей искусственного интеллекта. Наихудшие сценарии могут включать разрушение нашего общего понимания правды и достоверной информации, что приведет к новым восстаниям, основанным на лжи, как это произошло во время нападения на Капитолий США 6 января. Эксперты предупреждают, что распространение ложной и дезинформации может привести к дальнейшим беспорядкам и даже войнам.

«Можно утверждать, что развал социальных сетей — это наша первая встреча с действительно глупым ИИ, потому что рекомендательные системы на самом деле представляют собой просто простые модели машинного обучения», — сказал Питер Ван, генеральный директор и соучредитель платформы обработки данных Anaconda. «И мы действительно полностью провалили эту встречу».

Большие языковые модели, такие как ChatGPT, подвержены явлению, называемому «галлюцинациями», при котором повторяется сфабрикованная или ложная информация. Фотография: Грег Гай/Алами

Ван добавил, что эти ошибки могут быть постоянными, поскольку модели изучения языка обучаются на дезинформации, которая создает ошибочные наборы данных для будущих моделей. Это может привести к эффекту «каннибализма моделей», когда будущие модели усиливаются и навсегда искажаются результатами прошлых моделей.

Эксперты говорят, что дезинформация — простые неточности — и дезинформация — ложная информация, злонамеренно распространяемая с намерением ввести в заблуждение — были усилены искусственным интеллектом. Большие языковые модели, такие как ChatGPT, подвержены явлению, называемому «галлюцинациями», при котором повторяется сфабрикованная или ложная информация. Исследование, проведенное организацией NewsGuard, наблюдающей за доверием журналистов , выявило десятки «новостных» сайтов в Интернете, полностью написанных ИИ, многие из которых содержали такие неточности.

По словам Гордона Кровица и Стивена Брилла, соруководителей NewsGuard, такие системы могут быть использованы злоумышленниками для преднамеренного распространения дезинформации в больших масштабах. Это особенно касается новостных событий с высокими ставками, как мы уже видели в преднамеренном манипулировании информацией во время российско-украинской войны.

«У вас есть злонамеренные субъекты, которые могут генерировать ложные нарративы, а затем использовать систему в качестве множителя силы для распространения этого в больших масштабах», — сказал Кровиц. «Есть люди, которые говорят, что опасность ИИ преувеличена, но в мире новостной информации он оказывает ошеломляющее влияние».

Недавние примеры варьировались от более безобидных, таких как созданное искусственным интеллектом вирусное изображение Папы в «расстегнутой куртке», до фейков с потенциально более ужасными последствиями, таких как видео президента Украины Владимира Зеленского, созданное искусственным интеллектом. объявление о капитуляции в апреле 2022 года.

«Дезинформация — это индивидуальный вред [ИИ], который имеет наибольший потенциал и самый высокий риск с точки зрения более масштабного потенциального вреда», — сказала Ребекка Финли из Партнерства по ИИ. «Возникает вопрос: как нам создать экосистему, в которой мы сможем понять, что является правдой? Как нам подтвердить подлинность того, что мы видим в Интернете?»

«Как друг, а не инструмент»: злонамеренное использование и манипулирование пользователями

В то время как большинство экспертов говорят, что дезинформация была самой непосредственной и широко распространенной проблемой, ведутся споры о том, в какой степени технология может негативно повлиять на мысли или поведение ее пользователей.

Эти опасения уже приводят к трагическим последствиям после того, как мужчина в Бельгии покончил жизнь самоубийством после того, как чат-бот якобы подтолкнул его к самоубийству. Сообщалось и о других тревожных инцидентах, в том числе о том, что чат-бот посоветовал одному пользователю бросить своего партнера , а другой, как сообщается, посоветовал пользователям с расстройствами пищевого поведения похудеть.

По словам Ньюмана, чат-боты по своей природе вызывают больше доверия, потому что они общаются со своими пользователями в разговорной манере.

«Большие языковые модели особенно способны убеждать или манипулировать людьми, чтобы они слегка изменили свои убеждения или поведение», — сказала она. «Нам нужно посмотреть на когнитивное влияние, которое оказывает на мир, который уже настолько поляризован и изолирован, где одиночество и психическое здоровье являются серьезными проблемами».

Таким образом, опасение заключается не в том, что чат-боты с искусственным интеллектом обретут разум и превзойдут своих пользователей, а в том, что их запрограммированный язык может манипулировать людьми, заставляя их причинять вред, которого в противном случае они не могли бы причинить. По словам Ньюмана, это особенно касается языковых систем, которые работают на модели получения прибыли от рекламы, поскольку они стремятся манипулировать поведением пользователей и удерживать их на платформе как можно дольше.

«Есть много случаев, когда пользователь причинял вред не потому, что хотел, а потому, что это было непреднамеренным следствием несоблюдения системой протоколов безопасности», — сказала она.

Ньюман добавил, что человекоподобная природа чат-ботов делает пользователей особенно восприимчивыми к манипуляциям.

«Если вы разговариваете с чем-то, что использует местоимения от первого лица, и говорите о своих собственных чувствах и подоплеке, даже если это не реально, это все же с большей вероятностью вызовет своего рода человеческую реакцию, которая делает людей более восприимчивыми к желанию поверить в это, — сказала она. «Это заставляет людей доверять ему и относиться к нему больше как к другу, чем как к инструменту».

Надвигающийся трудовой кризис: «Нет основы для выживания»

Давняя озабоченность заключается в том, что цифровая автоматизация отнимет у людей огромное количество рабочих мест. Исследования разнятся: в некоторых исследованиях делается вывод , что к 2025 году ИИ может заменить 85 млн рабочих мест по всему миру, а в долгосрочной перспективе — более 300 млн .

Отрасли, затронутые ИИ, очень разнообразны: от сценаристов до специалистов по обработке и анализу данных . ИИ смог сдать экзамен на адвоката с такими же баллами, как и настоящие юристы, и ответить на вопросы о здоровье лучше, чем настоящие врачи.

Эксперты бьют тревогу по поводу массовой потери рабочих мест и сопутствующей политической нестабильности, которая может иметь место при неослабевающем росте искусственного интеллекта.

Ван предупреждает, что массовые увольнения ожидаются в самом ближайшем будущем, при этом «количество рабочих мест находится под угрозой» и мало планов, как справиться с последствиями.

«В Америке нет рамок того, как выжить, когда у тебя нет работы», — сказал он. «Это приведет к большим потрясениям и политическим волнениям. Для меня это самое конкретное и реалистичное непреднамеренное последствие, которое вытекает из этого».

Что дальше?

Несмотря на растущую озабоченность по поводу негативного влияния технологий и социальных сетей, в США очень мало делается для их регулирования. Эксперты опасаются, что искусственный интеллект не станет исключением.

«Одна из причин, по которой многие из нас действительно обеспокоены внедрением ИИ, заключается в том, что за последние 40 лет наше общество фактически отказалось от фактического регулирования технологий», — сказал Ван.

Тем не менее, в последние месяцы законодатели предприняли позитивные усилия: Конгресс позвонил генеральному директору Open AI Сэму Альтману, чтобы дать показания о мерах безопасности, которые следует реализовать. Финли сказала, что она «воодушевлена» такими шагами, но сказала, что необходимо сделать больше для создания общих протоколов по технологии ИИ и ее выпуска.

«Как ни трудно предсказать сценарии конца света, трудно предсказать способность законодательных и регулирующих органов реагировать», — сказала она. «Нам нужна настоящая проверка для такого уровня технологий».

Хотя вред ИИ волнует большинство людей в индустрии искусственного интеллекта, не все эксперты в этой области являются «судными днями». Многие в восторге от потенциальных применений этой технологии.

«Я действительно думаю, что это поколение технологий искусственного интеллекта, с которым мы только что столкнулись, действительно может раскрыть огромный потенциал человечества, чтобы процветать в гораздо лучшем масштабе, чем мы видели за последние 100 или 200 лет», — сказал Ван. . «На самом деле я очень, очень оптимистично смотрю на его положительное влияние. Но в то же время я смотрю на то, что социальные сети сделали с обществом и культурой, и прекрасно осознаю тот факт, что есть много потенциальных недостатков».

Понравилась статья? Поделиться с друзьями:
Интересно о полезном
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.