Иэн Хогарт – бывший технологический предприниматель и инвестор, который сделал свое состояние на ставках на компании, занимающиеся машинным обучением. В процессе он получил возможность наблюдать за быстрыми достижениями, которые не всегда были заметны для общественности. «Это заставляло меня чувствовать себя довольно неудобно», – говорит Хогарт, который инвестировал в более чем 50 компаний по искусственному интеллекту и в течение последних шести лет является соавтором ежегодного доклада о «состоянии искусственного интеллекта». В апреле Хогарт написал вирусную статью для Financial Times, в которой он утверждал, что корпоративная гонка за «божественным» искусственным интеллектом представляет риск, который в худшем случае может «привести к устареванию или уничтожению человеческой расы». Два месяца спустя британское правительство объявило о назначении 41-летнего британца на должность руководителя новой инициативы по безопасности искусственного интеллекта в Великобритании, теперь известной как Front AI Taskforce. Вложение в размере 100 миллионов фунтов стерлингов (126 миллионов долларов) – самое большое среди всех государств в область безопасности искусственного интеллекта, по словам Хогарта – является частью более широкой кампании Великобритании по выступлению в качестве лидера в движении к глобальным нормам в области использования и регулирования систем искусственного интеллекта. В ноябре страна будет принимать первый в своем роде саммит по искусственному интеллекту, собравший международных политиков с высшими руководителями исследователей по безопасности. Под руководством Хогарта Front AI Taskforce стремится создать возможности в правительстве для проведения исследований по безопасности, которые в настоящее время возможны только в промышленности. «Это самая значимая работа в мире, в любом государстве, по решению проблем безопасности искусственного интеллекта», – говорит Хогарт TIME в интервью в штаб-квартире Taskforce, которая находится в том же здании Вестминстера, что и британское казначейство. «Мы ставим исследователей в Taskforce, работающих над безопасностью искусственного интеллекта, на тот же уровень, что и те, кто работает над безопасностью искусственного интеллекта в технологических компаниях». Несмотря на то, что его статья в FT предупреждала о долгосрочных рисках сверхинтеллектного искусственного интеллекта, Хогарт говорит, что его Taskforce будет приоритетом для исследования рисков в ближайшей перспективе. «Сейчас существует огромное количество капитала и энергии, вкладываемых в создание более способных инструментов для программирования», – приводит он в пример. «Те же инструменты будут усиливать потенциал для разработки различных видов кибератак. Это растущая проблема риска, которую мы изучаем». Биобезопасность – учитывая риски того, что искусственный интеллект сделает проще разработку и синтез опасных патогенов – еще одна область, на которую будет сосредоточен его взгляд, говорит он. В то время как 100 миллионов фунтов звучит как много денег, это бледнеет по сравнению с бюджетами ведущих компаний по искусственному интеллекту. OpenAI привлекла 300 миллионов долларов только на последнем раунде привлечения инвестиций в апреле, что положило ее общую оценку в 28,7 миллиарда долларов. Google потратила 39,5 миллиарда долларов на исследования и разработку в 2022 году. Зарплаты лучших в мире исследователей по машинному обучению могут составлять несколько миллионов долларов в год. Хогарт признает, что Великобритания не может конкурировать с технологическими гигантами в области тренировки «фундаментальных» моделей искусственного интеллекта на границе возможностей – «люди тратят 100 миллионов долларов только на один тренировочный запуск» – но он считает, что при правительственном бюджете это все же возможно внести значительный вклад в исследования по безопасности, которые «гораздо меньше капиталоемки». Другой причиной того, что исследования по безопасности в основном проводятся внутри компаний по искусственному интеллекту, является то, что лаборатории по искусственному интеллекту обычно охраняют конфиденциальные «веса» и наборы данных для тренировки своих самых мощных моделей – частично потому, что они являются торговыми секретами, которые легко воспроизводятся, но также из-за реальной опасности их распространения. Чтобы проводить значимую работу по безопасности на том же уровне, что и исследователи промышленности, Taskforce Хогарта нужно будет обеспечить доступ. Неясно, есть ли у них такой доступ. В июне премьер-министр Риши Сунарк объявил, что три ведущие лаборатории по искусственному интеллекту – OpenAI, Google DeepMind и Anthropic – обязались предоставить правительству Великобритании доступ к их системам искусственного интеллекта. Но Хогарт говорит, что этот доступ ограничен и «не настолько глубок, как мы бы хотели». Он добавляет, что британское правительство «исследует другие способы» получить доступ к необходимым наборам данных. «Я довольно уверен, что мы сможем получить доступ к данным, которые нам нужны для нашей работы», – говорит Хогарт. «Но пока я не могу сказать больше об этом». Taskforce также исследует возможность сотрудничества с международными коллегами, включая США и Китай. Хогарт признает, что большая часть ответственности за разработку глобальных норм в области безопасности искусственного интеллекта ляжет на США и Китай, но он видит Великобританию как хорошо расположенную для роли «консультанта» между двумя сверхдержавами. Один из основных целей саммита по искусственному интеллекту в ноябре – начать создавать это сотрудничество.
Другие специалисты
Нейросеть: