Фото с сайта:
Телеграм-канал СПЧ
Сегодня
Валерий Фадеев провел
стратегическую сессию «ИИ в образовании: социально-правовые проблемы», организованную Институтом наследия и современного общества РГГУ.
В ходе выступления он показал изображения российского патриота, созданные по его запросу различными нейросетями. Например, ChatGPT изобразил молодого мужчину на фоне храма Василия Блаженного, на куполах которого нет крестов, но зато появилась красная звезда.
«Понятно, что потенциал искусственного интеллекта велик. Его непросто внедрять, есть разные сопутствующие негативные обстоятельства. Сегодня это нерабочий инструмент, если он выдает такую ерунду, - отметил глава СПЧ. - Нам надо понять, где его преимущества, и как использовать ИИ на благо системы образования».
Член СПЧ, глава компании «Крибрум» Игорь Ашманов в свою очередь предупредил о рисках использования нейросетей для написания текстов.
«Согласно опросам, 87% студентов используют ИИ для создания своих работ, а система «Антиплагиат» может определить применение нейросетей только в 25% случаев. Гладкость генерации возрастает, а качество детекторов падает.
За 4-6 месяцев студент или школьник получает когнитивную травму. Он перестает писать сам, не помнит не только то, что сгенерировал ИИ, но и какой промпт он задавал. Это уже медицинский факт. ИИ снижает качество всего, до чего он дотрагивается. Он все усредняет. И самое страшное - он еще и снимает ответственность», - подчеркнул Игорь Ашманов.
«Если часть работы написана искусственным интеллектом, надо ставить «двойку». Или ты сам работаешь, или это позор. Не умеешь писать - займись другой работой», - отреагировал Валерий Фадеев.
Эту тему Совет планирует продолжить обсуждать уже на Петербургском международном юридическом форуме.
Печать