Тристан Харрис страстно защищает ответственное использование искусственного интеллекта. Он является соучредителем Центра гуманной технологии и ведущим подкаста «Ваше неподеленное внимание». Харрис считает, что необходимо принять меры для того, чтобы правильно ориентироваться в этой эпохе искусственного интеллекта, потому что мы не можем позволить себе ошибиться.
Первый контакт с искусственным интеллектом произошел в первые 20 лет этого века, когда социальные сети и рекомендательные системы стали распространяться, направляя взгляды и мысли к часто ужасному и даже опасному контенту. Харрис считает, что это был заезд к самому низу ствола мозга. Люди были направлены на материал, который разрушает демократии, вызывает зависимость, изоляцию, проблемы с психическим здоровьем, онлайн-буллинг, домогательства и сексуализацию детей. Все это было темой документального фильма «Социальная дилемма», где появляется Харрис. Этот беспорядок был создан в том, что можно представить как ИИ 1.0. Здесь, в эпохе ИИ 2.0, опасности еще больше. Генеративные ИИ, такие как ChatGPT, предполагают создание языка из ничего, и существует бесчисленное количество типов языков. Харрис говорит: «Химия — это язык, биология — это язык, закон — это язык, религия — это язык. Я могу взять язык оспы и двигаться в направлении большей заразности и смертельности. Кто-то может сказать ИИ-системе: «Напиши мне письмо, побуждающее этого ребенка покончить с собой». ИИ может выдавать язык в форме фейковых новостей, фальшивых законов или фальшивых религиозных документов. »
Все это ускоряется неуемной амбицией. Разработчики находятся в гонке — с другими компаниями, с другими странами — чтобы посмотреть, кто сможет построить лучшие, самые мощные, наиболее прибыльные системы. Близкая аналогия, по словам Харриса, была соревнованием по разработке первого ядерного оружия. «Дизайнеры беспокоятся о том, что если они не построят это, гораздо худшие актеры будут», — говорит Харрис. «Так что логика, по которой они работают, это: «Пусть хорошие ребята построят это». Проблема, конечно же, в том, что плохие ребята повсюду, и мы все думаем, что мы хорошие.
В марте Харрис опубликовал открытое письмо, подписанное множеством лидеров в технологической сфере, включая Илона Маска, соучредителя Apple Стива Возняка и основателя исследовательского института по искусственному интеллекту Mila Йошуа Бенджио, призывая все лаборатории по искусственному интеллекту приостановить свою работу на шесть месяцев и воспользоваться этим временем для переоценки направления отрасли. Никто этого не сделал, хотя Харрис был далеко не удивлен. Его надежда, однако, заключается в том, что по крайней мере, это заставило их задуматься. «В ИИ действительно есть много безумных преимуществ», — говорит он. «Но неотделимы от этих проблем катастрофические риски».