профессор
Yann LeCun

Yann LeCun

Chief AI Scientist, Meta

Янн ЛеКун долгое время шёл по своему пути. После того, как французский ученый в 1980-х годах выдвинул гипотезу о том, что искусственные нейронные сети могут быть созданы для имитации человеческого мозга, его идеи были широко насмехаемы как фантастические в течение десятилетий. Но благодаря техническим прорывам в этой области, идеи ЛеКуна стали основой для текущей революции в области генеративного искусственного интеллекта. В настоящее время ЛеКун, который теперь является главным ученым по искусственному интеллекту в Meta и профессором компьютерных наук в НЙУ, по-прежнему делает смелые, контрверсионные заявления и спорит со всеми, с кем не согласен. «Я мог бы молчать, но это не совсем мой стиль», — говорит ЛеКун в видеоинтервью с TIME. Например, ЛеКун отвергает существенные страхи вокруг искусственного интеллекта как «нелепые» и сравнивает их с «апокалиптической сектой», даже споря с другими пионерами глубокого обучения, Джеффри Хинтоном и Йошуа Бенджио, с которыми он в 2018 году получил престижную премию Тьюринга. Он считает, что текущий ажиотаж вокруг больших языковых моделей (LLM), включая ChatGPT, является направленной в сторону модой, которая вскоре достигнет тупика. И в нашем интервью он также горячо защищает эффективность ИИ в борьбе с ненавистной речью на Facebook, который был подвергнут интенсивной критике и изучению. (Это интервью было сокращено и отредактировано для ясности.) TIME: Вы видели всплески хайпа вокруг ИИ. Можете ли вы поставить это момент в соотношение с десятилетиями, которые прошли до него? Янн ЛеКун: Основное различие в этом цикле хайпа заключается в том, что люди имеют что-то, с чем можно поиграть. И я думаю, что это способствовало захвату воображения многих людей. Нет сомнений в том, что люди в этой области, включая меня, были удивлены тем, насколько хорошо работают LLM. Но это далеко не идеально. И не за счет увеличения размеров этих систем и обучения их на большем количестве данных мы достигнем человеческого интеллекта. Я пытаюсь немного снизить возбуждение, говоря: «Подождите минуту, это не конец игры здесь». Если мы представим, что мы находимся на шоссе в сторону по-настоящему интеллектуальных машин, это интересно, но на самом деле это отклонение. Ранее в этом году Meta решила отдать свою технологию ИИ как свободное программное обеспечение с открытым исходным кодом, что вызвало ожесточенную критику от многих субъектов, включая Google и OpenAI. Исследователь из Стенфордского Университета даже сравнил это с тем, как «граната станет доступна каждому в продуктовом магазине». Являются ли их опасения необоснованными? Открытые генеративные модели были доступны уже несколько лет, и мы не видели массового использования этих вещей для недобросовестных целей, о которых говорят люди — например, массового создания дезинформации, кибератак или создания смертоносных патогенов. Я считаю эти сценарии сценариями злодея Джеймса Бонда. Есть люди, которые занимаются этими паранойями и представляют их. В конце концов, можно ли доверять обществу в целом, чтобы использовать технологии таким образом, чтобы они были чрезвычайно полезными, даже если есть некоторые недобросовестные цели? Печатный станок позволил многим людям с злонамеренным намерением распространять дезинформацию, как и двусторонний интернет, и как системы искусственного интеллекта, потенциально. Но преимущества и выгоды для общества настолько ошеломляющи, что вы можете жить с этими рисками. Для людей, которые считают, что риски являются существенными, конечно, это не компромисс. Но это большой скачок. Существенных рисков с текущими системами ИИ точно нет. Вы называли ИИ гибельников «нелепыми». Почему вы так уверены, что эта технология не будет угрожать миру? Элиезер Юдковски такой мира говорят: «Если вы немного ошибетесь и просто включите эту сверхразумную систему, она немедленно захватит мир и выйдет из-под нашего контроля». Но это не так будет работать. Это как если бы вы сказали в 1960 году: «Мы построим первый трансатлантический реактивный самолет. Мы не будем его тестировать заранее. Мы просто построим его, посадим в него тысячу человек, перелетим через Атлантику и надеемся, что он не взорвётся». Конечно, это было бы безумием. Никто бы не сделал это. Вы бы проверили его. Вы бы полетели без людей. Вы бы приземлились. Вы бы полетели с манекенами. Затем вы бы полетели с людьми. Именно так это будет работать с системами ИИ. Мы будем их тестировать. Мы будем обучать их делать вещи, которые безопасны. Мы будем снова их проверять. У нас будет несколько систем, которые будут проверять друг друга. У нас будут аварийные действия. Эта идея, что вы не можете контролировать то, что вы создали, настолько пессимистична. Я думаю, что это также отсутствие воображения. Я думаю, что у людей, которые поддерживают эту идею, нет воображения. Они не могут представить, как вы можете контролировать что-то, если вы сами его построили. Они представляют себе, что вещь сама возьмет под свой контроль и будет находить способы делать вещи без вас. Но это не так работает. Вы создали бы ее таким образом, чтобы она делала то, что вы хотите, чтобы она делала. И кстати, есть много вещей, которые люди создали, которые вышли из-под контроля. Как, например, банковская система. Она вышла из-под контроля. Или ядерный арсенал. Он вышел из-под контроля. Так что у нас не так хорошие результаты с вещами типа этого. Но мы можем учиться на этих ошибках. И я думаю, мы можем сделать лучше с системами ИИ.

Другие специалисты
Arvind Narayanan & Sayash Kapoor
Arvind Narayanan & Sayash Kapoor
Professor & Doctoral Candidate, Princeton University
Ноам Шазир Noam Shazeer
Noam Shazeer
CEO and Co-Founder, Character.AI