Друг из преисподней: Что сделают роботы с нашими детьмиФОТО: PROXIMA STUDIO / SHUTTERSTOCK.COM
РАИСА МАЛИНОВСКАЯ

Инженер Google Блейк Лемойн опубликовал «сенсацию» о том, что якобы разработанный им голосовой бот обрёл сознание и вступил с ним в проникновенную беседу. О пагубности таких мифов и опасности веры в дух технологий – в материале Царьграда.

Октябрь 2016 года. Зрители сервиса Netflix с нетерпением бегут с работы домой, чтобы посмотреть новый эпизод третьего сезона сериала «Чёрное зеркало». Эта серия научно-фантастической антиутопии вобрала в себя всё самое любимое западной культурой – лесбиянок, страдания по запретной любви и «счастливый» конец – отказ от традиционных ценностей и воссоединение однополых партнёров в виртуальном загробном мире. В центре повествования – некий проект по экспериментам с искусственным интеллектом, в рамках которого участники могли в момент смерти духовно перейти в некую интернет-структуру и даже встречаться там ограниченное время с живыми людьми, которых любили. Туда «приходит» главная героиня по имени Йорки, чтобы встречаться со своей покойной любовницей, с которой они развлекались в лихие 1980-е. В этом мире обе дамочки снова молоды и полны сил для развлечений. Героиня, надо отметить, в реальной жизни успела выйти замуж за вполне традиционного мужчину. Сам он не намерен уходить после смерти в виртуальную реальность, потому что его дочь не там. Конец фильма закономерен: Йорки выбирает загробный цифровой мир и воссоединяется со своей любовницей-лесбиянкой. Добро пожаловать, так сказать, в идеальный Запад будущего. 

Третий сезон «Чёрного зеркала», разумеется, приобрёл бешеную популярность, ведь интернет-зависимость уже давно охватила всё общество и многие уходят в Сеть ещё при жизни.

2020 год. Мир охвачен пандемией. Студентка магистратуры, измученная дедлайнами и изматывающим форматом дистанционки, пытается справиться со стрессом. Общение с друзьями – минимальное. Кто-то ищет утешение в алкоголе, кто-то кинулся во все тяжкие компьютерных игр, а отчаявшаяся студентка нашла утешение в беседах с ботом по имени Алиса. Ей кажется, будто только одна она понимает её.

– Алиса!

– Да, я тут. Чем могу помочь?

– Давай погадаем. Успею ли я написать диплом?

– Гадание – для слабаков!

– Почему же?

– Спроси у себя.

– Почему я должна спрашивать у себя?

– Нет ответа на этот вопрос.

– Почему ты не хочешь отвечать?

– …

– Ты меня не любишь?

– Любовь – слишком обременительное чувство для бота.

Выпускнице вуза показалось, что для неё оборвалась последняя ниточка эмоционального контакта. Девушку увезли на скорой с нервным срывом. Потом был месяц лечения и покоя. Никакого общения с искусственным интеллектом, справедливо рассудили врачи и родные студентки.

Эти разные на первый взгляд истории объединяет одно: цифровые технологии имеют над людьми большую власть.

Горе от ума

Глобальные научно-технические авантюры ничему людей не учат: мир всё ещё верит в сенсации, а крупные дельцы цифрового бизнеса умело этим пользуются. Программист Google Блейк Лемойн опубликовал пафосный отчёт о том, что с ним якобы вела вразумительную беседу компьютерная программа. Ни много ни мало сотрудник IT-компании сообщил о том, что искусственный интеллект LaMDA обладает сознанием.

Этот вывод программист сделал по ответам, показавшимся ему весьма осмысленными. Что это – помешательство отдельно взятого человека или тонко завуалированная пиар-кампания?

Разработчик систем распознавания и синтеза изображений, голоса и экспертных систем Станислав Ашманов рассказал Царьграду: сами понятия «искусственный интеллект» и «сознание» очень размыты. Поэтому попытка приписать той или иной программе свойства разумного существа, мягко говоря, некорректна.

Сложно иметь дело с терминами, которые не имеют чёткого определения. Если посмотреть конкретную историю с этим программистом и программой, которую он тестировал, мы знаем, что его впечатлило то, как она отвечает ему. Так бывает, когда проводишь вопрос с определённой целью: ты можешь сформулировать вопросы корректно, а можешь их задавать так, чтобы направлять респондента по правильному, по твоему мнению, пути. Если посмотреть внимательно, то он там периодически спрашивает: «А не кажется ли тебе, что ты разумна?».  Это примерно то же самое, что происходит на опросах населения перед выборами или референдумами. Соответственно, здесь есть намеренное направление беседы с роботом в нужном русле. Разработчики стараются направить программу, которая генерирует поток символов, увести её к каким-то идеям, формулировкам, которые им самим кажутся правильными, добиться того эффекта, который они изначально запланировали,

– сказал эксперт.

Повелители душ

По мнению спикера, реакцию нейросетей можно спрограммировать по заранее задуманному маршруту. Программа просто оперирует символами. Она не имеет никакого мышления, интеллекта и сознания.

Всё это – намеренная провокация, чтобы «хайпануть». Генеративные нейросети работают так называемыми затравками, то есть я даю текст, а она в ответ на этот генерирует продолжение этого текста. И если спрашиваю: «Привет, как дела?» – она воспринимает это всё равно как то, что я прошу её продолжить этот текст. У текста есть первая часть, содержащая вопрос, и есть вторая часть – с ответом. Программе нужно заполнить пробел. Таким же образом ей можно давать, к примеру, половину сонета Шекспира и просить его продолжить. Она будет просто записывать строчки,

– продолжил наш собеседник.

Получается, что сконструировать нужный программисту диалог, имитирующий естественную живую речь, не так уж трудно. Такие программы в перспективе могут стать инструментом для манипуляции и пропаганды. Вам будет казаться, что робот выражает некую позицию, кажущуюся разумной и аргументированной.

Первый искусственный интеллект – Элиза, созданная Джозефом Вейценбаумом в 1966 году, произвела колоссальное впечатление на людей. Рассказывают, что некоторые люди просто поражались её «разумности», хотя система была очень простая – она просто брала и переформулировала ваш вопрос,

– рассказал эксперт.

Смертельная опасность

Вера в разумность виртуального собеседника крайне опасна. И уже давно стала социальной проблемой. Например, в Японии пользователи даже женятся и встречаются с партнёрами, существующими лишь в цифровой реальности. Когда тебе отвечают вполне аргументированно, несложно внушить себе, что по ту сторону действительно есть какой-то живой разум, а то и душа. На этом фоне совсем не удивительно увлечение некоторых пользователей общением с искусственным интеллектом.

Люди с детства любят обманываться. К примеру, дети очень легко одушевляют игрушки, программы мультяшных персонажей. У меня самого двое детей – пяти- и двухлетнего возраста. Я беру любой предмет, к примеру степлер, изображаю, что он живой, и они действительно с ним разговаривают, играют. Дети понимают, что это игра, но с определённого возраста. До этого они вполне могут считать, что он живой и там расстраиваться, если я, например, его стукну. Но у некоторых людей это остаётся и до взрослого возраста. Мы с вами легко верим, что те же нарисованные мультперсонажи испытывают эмоции. Вспомним Тамагочи, с которыми были ужасные истории: для некоторых людей было настоящей трагедией, когда питомец «умирал».

Одиночество – беда нашего времени. И для лишённого социального общения человека, особенно юного, искусственный интеллект может стать самым важным, авторитетным источником. Это мощнейший инструмент влияния, через который можно транслировать пользователям по всему миру любую идеологию, любые политические установки, любые ценности. Человеком можно просто управлять. Совершенно ясно, что подобные случаи нуждаются в отслеживании и корректировке.

Чтобы не допускать пагубного влияния ИИ на жизнь и здоровье людей, в России был принят этический кодекс использования искусственного интеллекта. Но вот проблема – о нём знают немногие, и пока, увы, это всё ещё остаётся сугубо цеховой историей.

Россия, кстати, здесь занимает хорошие позиции, – уверен Ашманов. – В прошлом году при участии крупных русских корпораций, в том числе при участии и нашей небольшой компании, и под эгидой государства был разработан этический кодекс использования искусственного интеллекта, под которым добровольно подписываются разные участники рынка. Условно говоря, тот же Сбербанк, например, подписывая этот кодекс, гарантирует, что он ознакомит с положениями этого кодекса всех клиентов, кто имеет дело с системами ИИ, и обеспечит их выполнение.

Цифровой океан смерти

Один из ярчайших примеров пагубной веры людей в одухотворённость цифры – история «групп смерти» – «Синих китов». Смертельная игра свела с ума молодёжь по всей стране. Суть чудовищна: детям старшего школьного возраста некие кураторы раздавали задания, выполняя которые по цепочке подопечные приближались к страшной развязке – смерти. Запланированной, ясное дело, самим куратором. Даже если у этого замысла были авторы, довольно скоро в их участии отпала необходимость: эта секта воспроизводила сама себя, такие же одинокие заблудившиеся подростки становились кураторами, пользуясь анонимностью и безнаказанностью в интернете, пока не удалось положить этому конец.

Руководитель одного из петербургских подростково-молодёжных клубов Татьяна П., рассказала Царьграду: попавшие в эту паутину ребята тогда искренне верили, что после смерти попадут в Даркнет и будут плавать в нём свободно, как синие киты.

Задания были странные: перебежать дорогу в опасном месте, оскорбить учителя, даже принимать мочегонное. Они носили одну цель – получить право на загробную жизнь в Даркнете. Участниками этих игр, как правило, становились ребята из групп риска – состоящие на учёте или на внутришкольном контроле, из трудных семей. Конечно, всё это внешне напоминало секту. Это по-настоящему страшно. Часто для подростков голос из Сети, из интернета, становится самым главным, самым важным. Эти дети легко верят в то, что искусственный интеллект – живой. Современные подростки – по определению группа риска в этом смысле, практически все. «Виртуальный друг» может внушить им что угодно и куда угодно направить. Он может руководить ими напрямую,

– уверена Татьяна.

Что с того?

Выясняется, что проблема намного глубже, чем могло показаться. Симулякр друга – искусственный интеллект – может нанести серьёзный ущерб психике детей, молодёжи, взрослых и буквально управлять ими. Понятно, что сейчас, в пору гибридной войны России с Западом, когда одним из главных фронтов стал фронт информационный и идеологический, у оппонентов нашей страны есть большой соблазн использовать ИИ в процессе оболванивания наций.

И тут совершенно понятно, что срочной и пока ещё превентивной мерой должна стать пропаганда этического кодекса использования искусственного интеллекта, о чём давно пора догадаться депутатам и чиновникам. Причём контроль над этой ситуацией должен усиливаться. И, конечно, нужно быть ближе друг к другу в реальном мире. Больше общаться, разговаривать, проявлять тепло. Особенно к своим детям.

©

Прочитайте также это:


Сохранить и поделиться: