0

ИИ нас расчеловечивает

Постепенно отучая дружить, любить и кооперироваться

ближайшие десятилетия наиболее сильное воздействие на нас самих и нашу жизнь произведет не то, что мы безосновательно называем ИИ (настоящего интеллекта у машин нет), а ИИ-кентавры — гибридное взаимодействие настоящего интеллекта человека с ненастоящим интеллектом машин.

Среди наиболее серьезных и опасных перспектив, вовсе не робоапокалипсис или бунт машин, а постепенная деградация у людей способностей к альтруизму, любви, дружбе и кооперации в результате повсеместного распространения ИИ-кентавров.

Есть даже совсем катастрофическое последствие в чуть более отдаленном будущем — ИИ-кентавры могут изменить способность людей различать добро и зло. Но об этом потом. А сегодня про угрозы, уже всерьез нависшие над нашими способностями дружить, любить, дарить добро другим и кооперироваться.

И повод поговорить об этом превосходный — лаконично-мудрый и проникновенно-прорывной текст одного из мною самых ценимых авторов, ход мыслей которого мне очень нравится, и я пишу об его исследованиях уже не первое десятилетие. Новая статья Николаса Христакиса выйдет в апрельском выпуске журнала The Atlantic и называется «Как ИИ перекоммутирует нас».

Профессор Nicholas A. Christakis

Профессор Nicholas A. Christakis

Четвертый закон робототехники

B 1985 году, примерно через сорок лет после того, как Айзек Азимов придумал 3 закона робототехники, он решил добавить 4ый — уже не про коркретных людей, а всё человечество.

Робот не должен делать ничего такого, что могло бы навредить человечеству.

Но из этого ничего не получилось, т.к. Азимов не смог дать точное определение «вреда для человечества». С конкретным человеком тут нет проблем. А человечество, в контексте общей пользы и вреда — это абстракция. Ну разве что полное истребление человечества… Но это, согласитесь, будет уже не вредом, а глобальной катастрофой.

Так вот теперь, спустя 33 года после неудачной попытки Азимова, Христакис, по сути, нашел вариант такого определения.

Вредом для человечества является любое изменение ключевых человеческих качеств, позволивших выжить Homo Sapiens на протяжении всей его многотысячелетней истории.

Философ Просвещения Томас Гоббс утверждал, что людям необходим коллективный договор, чтобы не дать им ввергнуть себя в хаос жестокости, ведущий к полной дезорганизации. Нужен эдакий Левиафан государства и правительства, заставляющий нас уживаться в больших сообществах.

Но ведь задолго до того, как люди создали государство и правительство, эволюция сформировала в них социальный комплекс качеств, позволяющий им жить вместе мирно и эффективно.

Это генетически унаследованные способности к любви, дружбе, сотрудничеству и социальному обучению.

И если вдруг люди начнут терять эти ключевые социальные качества, позволявшие людям выживать уже миллионы лет, потенциальный вред для человечества может быть огромным.

ИИ — как социальный актор

Mы привыкли рассуждать об интеллектуальных системах (буду по-прежнему называть их для краткости ИИ, хотя никаким искусственным интеллектом они вовсе не являются), как об объектах, созданных человеком.

Однако, возможна и иная точка зрения:

ИИ — как новый класс социальных акторов.

Занимая такую точку зрения, я вовсе не собираюсь стращать читателей очередными техно-ужастиками, типа появления у ИИ собственных интересов, бунта машин, терминаторов и прочей чуши.

Меня интересует совсем другое.

Как новые ИИ-акторы способны влиять на основные аспекты социальной жизни человека: то, как он любит, дружит, проявляет альтруизм и социально обучается?

В основе такого интереса два следующих очевидных факта:

✔️ ИИ-акторы уже вовсю присутствуют в нашем социальном окружении и участвуют в наших социальных коммуникациях:

  • всякие социальные боты, далеко не всегда отличаемые нами от людей;
  • рекомендательные системы, на которые мы полагаемся при принятии решений, не менее, чем на мнения друзей и специалистов в ходе коммуникации с ними;
  • поисковики, формирующие наше понимание большинства тем, вокруг которых выстраиваются наши социальные коммуникации,
    … и много чего еще.

✔️ На развитие и усовершенствование «запаянных в нас» алгоритмов коммуникации с людьми эволюции потребовалось несколько миллионов лет. И к сожалению, у нас нет столько времени, чтобы развить в себе сопоставимые врожденные способности для коммуникации в среде, где, помимо людей, много ИИ-акторов.

Следовательно, мы должны принять меры к тому, чтобы наше общение с ИИ-акторами и их участие в нашем общении с другими людьми не разрушали заложенный в нас комплекс социальных качеств, сформированных эволюцией для нашего выживания: любовь, дружба, сотрудничество и социальное обучение.

Hо разве ИИ-акторы подрывают наши способности любить, дружить, безвозмездно помогать или учиться на чужом опыте? — спросите вы.

Еще как подрывают! — объясняет Христакис. И тут ему, как одному из лучших мировых профи в данной теме, и карты в руки.

Примеры кейсов

Hиколас Христакис приводит несколько примеров, когда добавление в нашу социальную среду ИИ-акторов может заставить нас вести себя менее продуктивно и менее этично.

Пример 1.

Эксперимент по изучению того, как ИИ может влиять на эгоцентричные действия отдельных людей, наносящих ущерб их общим интересам.

Сообществу людей поручалось решение неких задач, ключом к эффективному решению которых был приоритет коллективной пользы перед пользой для отдельного участника.

  • Сначала порядка двух третей участников вели себя вполне альтруистично, и коллективное достояние игроков неуклонно росло.
  • Потом в игру добавили несколько соцботов, изображающих людей, ведущих себя независимо и эгоистично.
  • Кооперация людей стала снижаться, постепенно сходя на нет. И в конце эксперимента все участники вели себя, как эгоистичные придурки — по принципу «пусть у меня корова сдохнет, лишь бы у соседа корова не отелилась».

Т.о. коммуникации с ИИ-акторами могут существенно снизить и даже свести к нулю способность людей работать вместе.

Пример 2.

Следующий пример Христакиса — как работали российские соцботы на президентских выборах в США 2016 года. В свете всяких новых законов, я это описывать не буду — прочтите сами.

Пример 3.

Третий пример — коммуникация детей и цифровых помощников: Alexa, Siri и т.п.

Исследования показывают, что дети общаются с этими ИИ-акторами несравнимо грубее и жестче, чем с людьми. Никакой тебе вежливости —

«Эй ты, Алекса, быстро найди мне эту музычку!». Или «Не тупи! Ищи лучше, бестолковая!».

По мнению эксперта MIT по технологии и обществу Sherry Turkle, дети, общающиеся с цифровыми помощниками больше чем с людьми, рискуют вырасти с недоразвитым качеством эмпатической связи.

CHELSEA BECK / ANKI
CHELSEA BECK / ANKI

Пример 4.

Не менее опасным может быть воздействие цифровых помощников на взрослых. Уже существует настораживающая статистика того, что некоторые из нас начинают относиться к цифровым помощникам, как к доверенным лицам или даже к друзьям, а то и как к психотерапевту. Люди признаются, что говорят своему цифровому помощнику то, что не никогда на сказали бы супругу.

  • Если нам станет комфортнее разговаривать с нашими устройствами, что произойдет с браком и дружбой?
  • Хотим ли мы, чтобы машины влияли на то, насколько добрыми растут наши дети?
  • Хотим ли, чтобы машины влияли на то, как взрослые занимаются сексом?

Последний из вопросов вполне актуален. Даже современные довольно примитивные ИИ-акторы (а это далеко не только секс-роботы обоих полов) не восприимчивы к венерическим болезням, не рискуют забеременеть или стать причиной беременности. И при этом они предоставляют массу интересных возможностей для беспроблемных экспериментов и практики, помогая людям обоих полов стать «любителями-виртуозами» в вопросах секса.

По этим и другим причинам эксперты считают, что секс с ИИ-акторами довольно скоро станет восприниматься как этический, а в некоторых случаях и предпочтительный для все большего числа людей.

Имитатор орального секса
Имитатор орального секса

Пример 5.

Последний их приводимых Христакисом примеров, поражает своей неожиданностью. Человек, сменивший своё традиционное авто на самоуправляемый автомобиль, лишится весьма важного и нужного для него повседневного опыта социального взаимодействия, требующего высокого уровня сотрудничества и социальной координации. Именно таким опытом для нас является вождение автомобиля.

Мало того, что ИИ-актор вашего самоуправляемого авто отберет у вас практику вынесения моральных суждений (например, сбить пешехода или дать в себя врезаться в аварийной ситуации). ИИ-актор также будет влиять и на других людей, с которыми он даже не имеет прямого контакта.

Например, водители, которые некоторое время ехали рядом с вашим самоуправляемым авто (движущимся с постоянной скоростью и в строгом соответствии с правилами), теряют внимательность и у них притупляется реакция. Тем самым увеличивается вероятность несчастных случаев, когда они переместятся на другое шоссе, где едут водители-люди.

В результате — авария. А кто виноват?

Скорее всего, ИИ-актор вашего самоуправляемого авто, усыпивший в других водителях комплекс социальных умений прогнозировать чужие и подстраивать свои действия в соответствии с прогнозируемыми рисками при совместной деятельности.

Резюме

Все приведенные примеры — это кейсы ИИ-кентавров —

гибридного взаимодействия настоящего интеллекта человека и ненастоящего интеллекта машины,

в результате которых люди теряют навыки эффективного взаимодействия с себе подобными, приобретенные за миллионы лет эволюции.

И как уже говорилось выше, времени приобрести эволюционные навыки выживания в среде ИИ-кентавров у человечества не будет. Здесь все слишком быстро для эволюции.

Поэтому эволюция не поможет, и люди могут полагаться только на себя.

Вот почему вопрос о том, как нам не расчеловечиться в среде ИИ-кентавров, куда более актуальный, чем пресловутые робоапокалипсис потери рабочих мест или бунт машин, вдохновленный непонятно откуда взявшимся у машин сверх-интеллектом (там пока и рядовым интеллектом не пахнет).

Источник: ЯДзен «ВеликиеВещают»

Ана

Добавить комментарий