Безопасность данных и этическое использование искусственного интеллекта являются важнейшими факторами для Thomson Reuters, когда мы разрабатываем такие решения, как CoCounsel, наш помощник по генеративному искусственному интеллекту (GenAI) для юристов, налогов и бухгалтеров.
Мы говорили с Картер Кузиновице-президент Thomson Reuters по управлению данными и моделями, чтобы обсудить, как ее компания гарантирует пользователям своей технологии искусственного интеллекта, что их данные защищены от киберпреступников. Работа Картера включает в себя разработку программ Thomson Reuters по обеспечению безопасности данных и этике на основе искусственного интеллекта.
Вопросы и ответы с Картером
Какие меры принимает Thomson Reuters для защиты пользовательских данных и соблюдения правил конфиденциальности данных?
Любой проект, который включает в себя создание и использование ИИ и вариантов использования данных, проходит то, что мы называем «оценкой воздействия данных». Этот термин звучит просто по сравнению с тем, что он на самом деле охватывает. Разработанная нами модель оценки воздействия данных включает в себя управление данными, управление моделью, вопросы конфиденциальности, вопросы, поднятые главным юрисконсультом Thomson Reuters, вопросы интеллектуальной собственности и управление рисками информационной безопасности. Мы начали процесс разработки оценки воздействия на данные, встроив нашу оценку воздействия на конфиденциальность в первую версию.
При оценке влияния данных мы используем термин «вариант использования» для проекта или инициативы компании Thomson Reuters. В процессе оценки мы зададим предприятию несколько вопросов, например:
- Каковы типы данных в этом варианте использования?
- Какие существуют типы алгоритмов?
- В какой юрисдикции вы пытаетесь применить этот вариант использования?
- В конечном итоге, каковы предполагаемые цели продукта?
С точки зрения выявления рисков, именно здесь вступают в силу многие проблемы конфиденциальности и управления.
Затем мы разрабатываем четкие планы и методы смягчения последствий, связанные с каждым из различных рисков. Этот процесс включает в себя обеспечение анонимности данных, где это необходимо, наличие надлежащего доступа и безопасности, а также заключение соглашений об обмене данными. С точки зрения конфиденциальности мы работаем над пониманием конфиденциальности данных, когда в сценарии использования используются, например, персональные данные. Затем мы применяем необходимые элементы управления.
Как часто вы проверяете и обновляете меры безопасности?
Когда появился генеративный искусственный интеллект, мы разработали специальное руководство для Thomson Reuters. Есть процедурные документы, которые мы постоянно обновляем в течение года, и эти документы также включают меры по смягчению последствий. Мы составили схему каждого из наших стандартных утверждений в соответствии с набором мер контроля, которые будут или могут быть применены в зависимости от сценария риска, и каждое из этих утверждений подвергается гораздо более частому анализу и оценке.
У нас также есть то, что мы называем Ответственный центр искусственного интеллектакоторый фиксирует все в централизованном представлении для укрепления доверия. Некоторые из наших аудитов и обновлений мы проводим ежегодно, тогда как многие другие проводятся очень часто. Мы отслеживаем меры по устранению последствий еженедельно, если не ежедневно, в зависимости от задачи и команды.
Какие меры защиты вы используете для предотвращения несанкционированного доступа или неправильного использования данных?
Наш стандарт безопасности и управления доступом к данным напрямую связан с нашей политикой управления данными. Проще говоря, мы следим за тем, чтобы владелец, предоставляющий доступ к своему набору данных, предоставлял наименьший объем информации, необходимой для использования тем, кто ее запрашивает. Мы встроили многие элементы управления безопасностью данных в среду нашей платформы данных, и у нас есть специальный инструмент, который обеспечивает безопасный доступ на основе ролей.
Какие достижения вы хотели бы отметить?
Я очень горжусь нашей командой, которая объединила эти этические концепции и риски ИИ. Риски данных в сфере этики особенно трудно четко определить. Их сложно определить на протяжении всего процесса комплексного управления рисками, и команда создала Ответственный центр искусственного интеллекта практически с нуля. Мы потратили много времени на обсуждение вопросов выявления и обсуждения широты и глубины рисков, связанных с ИИ. Мы потратили еще больше времени на то, чтобы эти риски воплотились в жизнь, чтобы понять, как мы можем принять меры по ним и как эти действия выглядят с точки зрения снижения рисков.
Я думаю, что работа, которую мы проделали за последние три года, позволила нам справиться с рисками, связанными с ИИ, немного быстрее, чем большинству компаний.
Вы можете узнать больше о том, как ИИ меняет будущее профессионалов и как они работают.