Человеческое измерение искусственного интеллекта. Взгляд со стороны бизнеса

Предлагаем вашему вниманию перевод статьи Орасио Розански (Horacio Rozanski), президента и исполнительного директора «Booz Allen Hamilton», крупной американской консалтинговой компании, специализирующейся на вопросах корпоративного управления и информационных технологиях.

Темпы развития искусственного интеллекта позволяют говорить о том, что в ближайшее время он станет важнейшей технологией информационной эпохи. В этой связи важно и актуально внести в него этическую составляющую, пока не стало слишком поздно. 

Экспоненциальные темпы технического прогресса требуют серьезного внимания к деятельности по выявлению и устранению непреднамеренных последствий развития этих технологий. Мы уже сталкивались с этическими проблемами при применении цифровых инноваций, особенно в сфере социальных сетей, и только начинаем связывать эти проблемы с феноменом искусственного интеллекта (ИИ), который на наших глазах становится качественно новой технологией информационной эпохи.

Уже сегодня мы можем наблюдать примеры непредвиденных последствий цифровых инноваций: прямая трансляция актов невероятного насилия и других преступлений; распространение различных версий теорий заговора в культуре; появление зависимостей, меняющих мышление и эмоциональное состояние у детей; групповое мышление, усугубляющее политические и общественные разногласия; стимулирование культурного трайбализма, нетерпимости и социального раскола; манипуляции в отношении социальных сетей, подрывающие принцип честности выборов. Эти явления заставляют с особым вниманием присматриваться к этическим аспектам развития цифровых технологий.

Представляется необходимым, чтобы не только технологические компании сотрудничали с государством, и с помощью политических мер и управленческих решений стремились к контролю последствий технологического развития, но и все общество обратило внимание на проблему, которую ставит перед нами создание искусственного интеллекта. Необходимо в кратчайшие сроки выработать и утвердить позиции относительно того, какие функции возможно передать ИИ, какие новые возможности для злоупотреблений возникают в связи с его созданием. 

В настоящее время США, Китай и другие мировые державы стремятся к победе в гонке по созданию ИИ и последующего применения искусственного интеллекта в экономической сфере и для обеспечения национальной безопасности. Похоже, что на данный момент США имеет определенное преимущество, но оно еще не является гарантией победы. Для успешного участия в этом соревновании в средне- и долгосрочной перспективе необходимо постоянно инвестировать в оборудование, программное обеспечение и человеческие ресурсы. По данным, предоставленным исследовательской компанией Tractica, которая специализируется на изучению технологий, глобальные инвестиции в развитие ИИ к 2025 году превысят 300 миллиардов долларов США, так как достигнутые успехи на первоначальном этапе вызывают безудержный оптимизм.

Однако, достижение технологического совершенства – лишь один из факторов, способствующих победе в гонке по созданию ИИ. Прежде чем США получат возможность полноценно использовать эту технологию, особенно в области экономической и национальной безопасности, государство и бизнес должны найти ответ на основной вопрос: какие именно задачи мы должны поставить перед ИИ? Ответ на данный вопрос сильно повлияет на то, какой будет государственная стратегия развития ИИ. В первую очередь, целью данной стратегии является повышение доверия к этой продвинутой технологии. Для достижения этой цели необходимо следующее.

Во-первых, мы сами должны поверить, что ИИ действительно работает, и что математические алгоритмы, лежащие в его основе, смогут давать корректные результаты. Для этого требуется огромное количество размеченных данных и достаточное время для обучения алгоритмов. Также необходимо, чтобы, по крайней мере, на первом этапе будущий пользователь алгоритма был вовлечен в процесс обучения. Например, аналитик-исследователь, который сначала изучает все данные, а затем оценивает их и далее принимает решение, должен хотя бы вначале вовлечен в процесс обучения алгоритма для контроля правильности ответов машины и для исправления ошибок в самом процессе. Только после того, как пользователь убедится, что ИИ действительно выдает правильные результаты, искусственному интеллекту можно поручать рабочие задания. 

В настоящее время Национальное агентство геопространственной разведки (NGA) активно изучает возможности использования алгоритмов для обнаружения изменений в изображениях в качестве одного из первых этапов аналитической деятельности по обеспечению стратегического предупреждения политического руководства. По словам С. Калвейт, руководителя Управления анализа в NGA, пилотные программы доказали эффективность алгоритмов при применении в подобной деятельности. NGA работает над масштабированием этих процессов в «промышленном масштабе». И поскольку технология машинного распознавания образов развивается, можно ожидать, что ее применение окажется эффективным для интеллектуального анализа: кроме обнаружения изменений, она сможет находить и идентифицировать объекты, и далее классифицировать их и увязывать с контекстом.  

По словам Калвейт, чаще всего ей задают вопрос, насколько аналитики NGA готовы признать, что ИИ может выполнять работу, которую десятилетиями выполняли специалисты. Она отметила: «Я могу убежденно утверждать, что любое техническое решение, которое сможет помочь поиску в изображении чего-либо, представляющего интерес для работы аналитиков – это желанная технология». 

Аналитики отметили, что использование ИИ в пилотном проекте позволило им быстрее выполнить сложные когнитивные задачи. Целью их деятельности является подготовка и предоставление экспертных выводов, а не только поиск информации, и данная технология позволяет аналитикам сосредоточиться на интерпретации результатов, выявленных алгоритмом, а не на том, чтобы в течение продолжительного времени изучать изображения с целью обнаружить изменения. 

Во-вторых, чтобы укрепить доверие к ИИ, необходимо сделать так, чтобы он соответствовал нашим ценностям, и его решения были такими же, как и у человека в аналогичных обстоятельствах. Американское государство и общество начинают задумываться об определении этических рамок для ИИ, в том числе, о способах наилучшей защиты, организации и использования данных, которые ИИ исследует. В первую очередь, исследователи ищут решения для выявления и контроля bias (т.н. смещений — осознанных и неосознанных предрассудков, пристрастий и предубеждений создателей, отражающихся в работе алгоритмов).

В то же время политическая система дает сигнал, что не будет игнорировать эти процессы. По инициативе сенаторов от Демократической Партии США К. Букер и Р.  Уайдена недавно был принят закон, согласно которому предприятиям будет вменяться проведение аудита систем ИИ на предмет предвзятости, и по его результатам они будут обязаны вносить исправления в систему для предотвращения каких-либо искажений. Согласно этому закону Федеральная торговая комиссия подготовит правила оценки «высокочувствительных» систем, а также защиты безопасности и конфиденциальности содержащихся в них данных. Очевидно, что в этой сфере необходимо провести большую работу, чтобы заставить общество доверять тому, что ИИ разделяет наши ценности.

В-третьих, как говорил президент Рейган, «доверяй, но проверяй». Это означает, что мы должны четко понимать, каким образом алгоритм приходит к тем или иным ответам. К сожалению, исследователи, как ученые, так и предприниматели, уже начали находить способы, с помощью которых искусственным интеллектом можно манипулировать для получения «нужных» результатов. Например, алгоритмы ИИ, применяемые для управления автономным транспортным средством, могут быть повреждены во время обучения, и далее во время поездки искусственный интеллект ошибочно воспримет определенный знак как сигнал ограничения скорости вместо требования остановиться, что может привести к катастрофическим результатам. Эти новые «виды атак» (описанные как новые зоны риска в кибербезопасности) должны быть осмыслены, необходимо найти инструменты их нейтрализации еще до начала внедрения технологий. Большая прозрачность относительно того, как ИИ обосновывает решения, позволит понять, в чем причина ошибки: следствие ли это неправильного алгоритма, злого умысла, или неудачное стечение обстоятельств. Особенно это важно при работе над ошибками по отношению к серьезным неудачам. Работа, которая уже ведется в отношении того, чтобы найти объяснение тому, как работает ИИ, должна быть ускорена, если мы стремимся к тому, чтобы эта технология в ближайшем будущем стала повсеместным инструментом повседневной жизни и национальной безопасности. Короче говоря, мы должны обеспечить прозрачность.

Сегодня у нас есть возможность добиться прогресса в этих областях. Правительство США прорабатывает вопросы внедрения искусственного интеллекта более активно, чем можно было ожидать всего лишь пару лет назад. В то же время политическое руководство стремится к объединению в связи с необходимостью создания национальной стратегии ИИ несмотря на то, что все убеждены, что эта проблема всегда будет находиться на повестке дня человечества. 

Однако, учитывая, насколько быстро развиваются технологии, нетрудно предвидеть тот день, возможно в ближайшем будущем, когда кибер-вторжение или атака на критические системы смогут быть осуществлены столь быстро, что реагирование на них должно быть осуществлено со скоростью быстродействия компьютера. В этой ситуации может не оказаться времени для принятия решения человеком: здесь доверие к технологии окажется императивом, и его достижение должно быть осуществлено на этапе проектирования. В настоящее время предприниматели, технические специалисты, ученые, юристы и представители государства должны выработать и согласовать национальную стратегию в отношении ИИ, которая будет способствовать укреплению доверия к безопасности, эффективности, этичности, подотчетности и прозрачности технологий искусственного интеллекта. 


Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *