Hуководитель юридической практики, НТЦ ГРЧЦ Станислав Махортов на конференции РАПК «Искусственный интеллект в социальной архитектуре и политическом консалтинге: практика, тенденции, прогнозы» в своем выступлении на тему «Цифровое государство и социальная архитектура» - о развитии технологий искусственного интеллекта в информационной среде.Регулирование
искусственного интеллекта во всем мире не успевает за скоростью развития технологий.
Гражданам нужен простой и понятный способ определения дипфейков.
По данным Сиднейского института, мозг человека распознает дипфейки в 54% случаев, но искусственный интеллект развивается. Буквально за год-два дипфейки развиваются в своей сложности, в своем соответствии, поэтому эта цифра, будет очевидно падать.
Искусственный интеллект не до конца понимает контекст. Он может с высокой вероятностью допустить ошибку при работе с неоднозначными ситуациями, например, политическими мемами.
Количество контента стремительно увеличивается все последние годы и будет увеличиваться в дальнейшем. Социальные сети вынуждены будут расширять штат модераторов для анализа контента потенциального опасного для пользователей.
Автоматизация сможет решить эту проблему, когда штат сотрудников будет минимален и необходим для контроля системы искусственных интеллектов.
Определение фейка содержится в 149 ФЗ: такой вид информации называется недостоверной общественной значимой информацией, распространяемой под видом достоверных сообщений.
Критерии фейков: заведомая недостоверность, общественная значимость и распространение под видом достоверных сообщений.
С юридической точки зрения определение фейка не равно определению фейка с обывательской точки зрения. Обывательски мы все с вами понимаем, что есть фейк. Это какая-то информация, которая не соответствует действительности.
Когда кто-то распространил недостоверную информацию об этом событии, это одна ситуация. Но что делать в ситуации, когда распространяется мнение о событии?
Делимся слайдами презентации Станислава Махортова, руководителя юридической практики, НТЦ ГРЧЦ о подходах к регулированию ИИ-технологий.
Чтобы технологии противодействовать, ее нужно понять.
Массовая истерия по искусственному интеллекту пройдет, но у разработчиков останутся данные, которыми мы ИИ наполнили. И вопрос в том, как эти данные они будут использовать/
Печать