Привет, эксперты. Возвращаемся к зарубежным технологическим дорожным картам. На этот раз у нас в руках оказалась дорожная карта «По развитию ИИ-технологий», разработанная весной этого года двухпартийной рабочей группы Сената США. Документ полезен уже тем, что дает нам базовое представление о том, какие риски видят американские законодатели в развитии ИИ. Вы будете смеяться, но у наших с ними очень много общего.
Документ содержит не перечень конкретных мер, а, скорее, ряд разбитых на треки рекомендаций рабочей группы по поддержке и регулированию ИИ-технологий в США. Ниже мы в разбивке по трекам перечисляем самое интересное.
1. Поддержка инноваций США в области искусственного интеллекта
➖ Правительство должно искать возможность финансировать все потребности отрасли из бюджета. Речь идет о выделении на поддержку индустрии как минимум $32 млрд ежегодно. Деньги пойдут на разработки, а также исследования в области базовых принципов работы ИИ: прозрачность, конфиденциальность, совместимость и безопасность.
➖ Необходимо расширить применение пока еще пилотного проекта Национальный исследовательский ресурс по ИИ (NAIRR). Проект направлен на предоставление дорогостоящих вычислительных мощностей, наборов данных, моделей ИИ и других инструментов академическим исследователям ИИ, которые часто испытывают трудности с доступом к таким ресурсам.
➖ Часть инициатив касается использования ИИ в обороне. Так, рабочая группа считает целесообразным разработать платформу, которая позволит командирам обучаться, а затем и эффективно использовать ИИ в военных целях. Судя по документу, речь идет и о том, чтобы задействовать ИИ при принятии решений.
2. ИИ и трудовые ресурсы
➖ Нужно разработать законодательство, которое обеспечит граждан возможностями
обучения, переподготовки и повышения квалификации для успешного участия в экономике с использованием искусственного интеллекта.
➖ Еще одно предложение – расширить применение госпрограмм по привлечению талантов в области ИИ в США.
3. Эффективное и безопасное использование ИИ
➖ Американские законодатели осознают риски того, что ИИ-решения будут работать по принципу «черного ящика», когда не известны ни принципы работы решений, ни их цели. Поэтому группа призывает разработать меры регулирования, которые сделают механизмы ИИ-решений прозрачными
➖ Нужно разработать регулирование, которое защитит детей от угроз технологий, основанных на ИИ. Речь идет, в том числе о рекомендательных механизмах социальных сетей
➖ Необходимо запретить использование ИИ-технологий при работе социальных рейтингов и похожих решений
➖Требуется изучить подходы к защите граждан от использования ИИ в мошеннических целях
4. Выборы и демократия, авторские права
➖Необходимо ввести маркировку дипфейков для защиты от дезинформации на выборах
➖Требуется разработать механизмы, запрещающие ИИ распространять личные данные граждан
➖ Нужно разработать законодательство обязать поставщиков онлайн-платформы информировать аудиторию о происхождении контента. Проще говоря, зритель должен знать, что заставка в сериале на HBO сгенерирована ИИ. Как и сценарий, актер и т.д.
➖Требуется изучить возможность разработки законодательных актов, которые защитят граждан от несанкционированного использования ИИ их голосов, изображений, фотографий и т.д.
5. Защита от рисков ИИ и обеспечение национальной безопасности
➖ Группа рекомендует государству поддерживать инициативы, связанные с тестированием новых ИИ-решений. Речь идет, в том числе о работе красных команд и Bug Bounty.
➖ Требуется изучить плюсы и минусы внедрения ИИ с открытым исходным кодом и проприетарным кодом
➖ Нужно расширить для талантливых разработчиков ИИ возможности при поступлении на службу в армию
➖Целесообразно учитывать риски, при которых злоумышленники будут использовать ИИ для разработки химического и бактериологического оружия, а также не допускать доступа злоумышленников к ИИ мощностям.
➖ Необходимо ужесточить экспортный контроль за технологиями, способствующими развитию искусственного интеллекта.
Такие вот дела, товарищи.