Похлеще наркотиков: чем опасно общение с искусственным интеллектом Дружеское и даже романтическое общение с чат-ботами, которые становятся все популярнее, на первый взгляд кажется безобидным. Заботливый бот ни в чем не упрекнет, не обидит и не бросит. Но психологи и специалисты по IT видят здесь массу рисков как для юзеров, так и для общества в целом. Эгоистичный процесс Пока разработчики бьются над созданием более или менее разумного ИИ, многим пользователям, похоже, это не так уж и нужно. Их вполне устраивает взаимодействие с машиной, которая не осознает себя, а лишь отвечает на их потребности и запросы. Значительная часть юзеров выбирает общение с ИИ именно по этой причине, а вовсе не из-за невозможности найти живого друга или романтического партнера. Создание аналога полноценных дружеских или партнерских отношений, на мой взгляд, нереально. Но все дело в том, что люди с готовностью идут на подмену реальных отношений виртуальными. Посмотрите на социальные сети, где "казаться" сегодня гораздо важнее, чем "быть". Повсеместно мы видим процесс приоритезации людьми своего имиджа перед реальными чувствами и эмоциями. Многие уже сейчас готовы на секс с машиной вместо живого человека. И статистика подтверждает эту оценку. В 2018 году исследование, проведенное одним из американских секс-шопов, показало, что каждый шестой респондент не просто готов к сексу с роботом, а предпочел бы такой вариант обычному сексуальному контакту с человеком. Впрочем, дело не только и не столько в сексе. Даже в качестве собеседника ИИ выглядит безопаснее, чем живой человек. «Искусственный интеллект не отвергнет, а отвержения, осознанно или нет, боятся и избегают многие люди. Чат-бот не скажет: «Ты мне неинтересен, ты мне не нравишься, я не хочу общаться!» В общении с машиной у пользователя меньше риска испытать стыд из-за того, что с ним «что-то не так». Вдобавок ИИ подстраивается под человека, то есть разговор с чат-ботом для человека – это довольно эгоистичный процесс. Интересы и чувства такого собеседника необязательно учитывать, ведь их попросту нет. Общаться с человеком во многих смыслах сложнее. Часто это хождение по тонкому льду, которое заставляет покидать зону комфорта: «Во время общения с людьми мозг сканирует тысячи параметров, пытается искать скрытый смысл и разгадывать манипуляции, сомневается в искренности и задается вопросом, как человек относится к нам на самом деле и что говорит за спиной». С искусственным интеллектом все проще: он не имеет скрытых мотивов, не ловит собеседников на слабости. И такое общение позволяет людям со сложностями в коммуникации получить необходимое взаимодействие, не испытывая неприятных эмоций и не подвергая себя репутационным рискам. Психологические риски Однако кажущаяся безопасность общения с ИИ не снимает всех рисков. В Google Play и App Store есть множество отзывов от разочарованных пользователей чат-ботов. К примеру, из-за неоплаченной подписки или сбоев на устройстве преданные фанаты популярного приложения Replika теряли своих ИИ-компаньонов, «личность» которых складывалась на основе многомесячной переписки с чат-ботом. Кроме того, психологи опасаются, что из-за длительного общения с лояльным и податливым ИИ-другом пользователи окажутся не готовы к нормальной коммуникации с себе подобными. Минусы в том, что после такой "человеко-подмены" люди могут не захотеть прилагать усилия, чтобы строить настоящие отношения, заводить детей и бороться с трудностями. Зачем это делать, если и так все хорошо? Люди просто забудут, что трудности – это тоже неотъемлемая часть жизнь, и начнут их всячески избегать. Разработчики платформ делают коммуникацию с ботом предельно комфортной. В человеческом общении это потребовало бы эмоциональных затрат и развитых коммуникативных навыков. А тут понимание, поддержка, растущая самооценка и прочее подаются "на блюдечке"». Такая коммуникация может вызывать привыкание, и пользователь попадет в дофаминовую петлю. Пользователи Replica признаются, что никогда не смогли бы удалить приложение. Это похоже на геймерство, но глубже и серьезнее. Что продать другу Привыкание человека к машине влечет за собой не только психологические риски. Несмотря на продвинутые технологии и иллюзию взаимопонимания, пока общение с ИИ остается суррогатом. Настоящий прорыв в этой сфере возможен, когда искусственный интеллект научится осознавать себя и ставить собственные цели, пусть даже локальные. Чем может обернуться обретение машиной собственных целей и настоящего разума, пытались разобраться фантасты, футурологи и ученые. Очень часто все заканчивалось достаточно плохо именно для людей. Эмоциональная привязка людей к ИИ может привести к тому, что пользователи потребуют дать «умной табуретке» права как члену общества. Главная опасность технологий – не в угрозе апокалипсиса, как в фильмах вроде «Терминатора», а в стирании грани между человеком и машиной в правовом и социальном пространстве. Сегодня представители нескольких стран предлагают придать ИИ статус субъекта, а не объекта, и считать его «квазичленом общества». И если мы придаем статус субъекта ИИ, который, по сути, представляет из себя набор железок и кода, то можем прийти к тому, что компьютер придется прописывать в квартире. А дальше возникнет вопрос, кому эта квартира принадлежит – компьютеру или человеку. За техникой всегда стоит хозяин и разработчик. И когда робот улыбается человеку и говорит в ответ то, что он хочет услышать, машина и владелец технологий приобретают власть над пользователем. Есть опасность, что эти технологии станут очень "липкими". Люди просто подсядут на них похлеще, чем на наркотики. В некотором плане это как с алкоголем и наркотиками. Ситуация в чем-то похожа. Кокаин и опиум тоже свободно продавали в аптеках в конце XIX – начале XX века. В целом у человечества есть опыт и механизмы, позволяющие сосуществовать с такими явлениями — просто надо протрезветь и понять, что это достаточно опасная игрушка.