инвесторы
Jess Whittlestone

Jess Whittlestone

Head of AI Policy, Centre for Long-Term Resilience

Джесс Уиттлстоун не вписывается ни в один из двух лагерей, когда речь заходит о рисках от искусственного интеллекта: она не скептически относится к силе ИИ и намерениям компаний, разрабатывающих его, но и не верит, что ИИ будет самой важной технологией в истории человечества и что компании действуют добросовестно. Как руководитель политики ИИ в Центре долгосрочной устойчивости, дум-танке в Великобритании, основанном в 2020 году для повышения глобальной устойчивости к экстремальным рискам, Уиттлстон знает, что многие люди, работающие над безопасностью и управлением ИИ, работают в индустрии, что делает их уязвимыми для конфликтов интересов. Она надеется, что сможет занять позицию, которая серьезно относится к экстремальным рискам, но свободна от таких конфликтов. Уиттлстон, которая начала заниматься политикой ИИ в 2018 году, изучала математику и философию, прежде чем получить докторскую степень в области поведенческой науки. Она говорит, что всегда интересовалась тем, как мы принимаем лучшие решения на общественном уровне. Она также осознает, кто принимает эти решения. Она утверждает, например, что компании часто оправдывают продолжение разработки ИИ на основе предполагаемых преимуществ от ИИ, которые не подтверждены достаточно. Компании ИИ «продолжают говорить, что большие общественные выгоды находятся за углом, если вы позволите нам продвигаться вперед», — говорит она. «Я отношусь к этому скептически». После работы в академических должностях в Центре будущего интеллекта Леверхулма и Центре изучения экзистенциальных рисков при Кембриджском университете Уиттлстон присоединилась к Центру долгосрочной устойчивости. Она принимала участие в неофициальных дипломатических инициативах с китайскими исследователями ИИ и работала над политикой безопасности ИИ с известными компаниями ИИ. Она проводит много времени, консультируя официальных представителей правительства Великобритании по техническим деталям, которые должны информировать политику ИИ, особенно важно в свете саммита по ИИ, который правительство Великобритании будет проводить в этом году, и который может определить условия международного сотрудничества в вопросах политики ИИ на многие годы вперед. Добровольные обязательства следовать за разработкой ответственных практик, которые Белый дом получил от компаний ИИ в июле, являются хорошей отправной точкой, считает Уиттлстон. «Очень полезной вещью, которую саммит Великобритании мог бы сделать, является рассмотрение того, как мы можем получить какие-то обязательства от стран и компаний, которые выходят за пределы добровольных обязательств, и начать двигаться в направлении ответственности, контроля, не только полагаясь на обещания компаний». Уиттлстон пытается общаться как с теми, кто беспокоится о сегодняшних вредах от ИИ, так и с теми, кто обеспокоен будущими — возможно, даже экзистенциальными — рисками от мощных систем ИИ. Хотя она признает, что иногда возникают конфликты между этими двумя проблемами, есть и много общих решений, таких как необходимость «контроля, ответственности и более тщательного изучения технологических компаний». Она соавторствовала статью, в которой было сказано, что делать различие между рисками от ИИ в ближайшее время и в долгосрочной перспективе не является полезным, и она поощряла официальных представителей правительства Великобритании общаться с экспертами по этике ИИ в рамках саммита по ИИ. В конце концов, она считает, что нужно найти баланс. «Как человек, который в основном занимался более экстремальными рисками, я теперь вижу, что ими начали заниматься намного больше, и почти беспокоюсь, что это пошло слишком далеко. Одна из вещей, которая не получает столько внимания в политическом пространстве Великобритании в настоящее время, это более размытые общественные вреды — как неравенство, или дезинформация, или влияние на демократию, или концентрация власти. Много внимания уделяется рискам для безопасности… где решение заключается в том, что есть в добровольных обязательствах Белого дома».

Другие специалисты
Eliezer Yudkowsky
Eliezer Yudkowsky
Co-Founder, Machine Intelligence Research Institute
Elon Musk
Elon Musk
Founder, xAI