Выступая на международной конференции по искусственному интеллекту Artificial Intelligence Journey 2023 ("Путешествие в мир искусственного интеллекта"), Владимир Путин заявил, что "человечество начинает новую главу своего существования", перечислив многочисленные сферы, где уже применяется ИИ - от проработки производственных процессов до создания фильмов и музыки. Отметив, что ИИ "не заменит врача или учителя, но может быть их помощником", он выразил уверенность, что развитие ИИ не удастся остановить.
Правда, недавно кое-кто попытался это сделать в одном отдельно взятом месте. Широкое внимание привлек скандал, связанный сначала с увольнением, а потом (после возмущения персонала числом более 700 человек) с возвращением исполнительного директора известной американской компании OpenAI (она создала несколько больших языковых моделей, так называемых чат-ботов, включая GPT-4 и широкого разошедшийся по миру ChatGPT) Сэма Альтмана. Якобы причиной стали глубокие разногласия с советом директоров по поводу "безудержного развития" так называемого AGI (Artificial General Intelligence - универсального искусственного интеллекта), который может выполнять задачи автономно от человека, обучаясь в процессе выполнения и самостоятельно получая данные. Противники Альтмана якобы убеждали его "притормозить" с новыми моделями ввиду непредсказуемых последствий.
AGI в будущем сможет делать все то же, что люди, решая задачи с помощью "биологических мозгов", на уровне не хуже, а то и лучше. И самостоятельно. Конкретные опасения были связаны с разработкой модели ИИ - Q*, которая сможет не только решать уже привычные для ИИ задачи, в том числе математические, но и отличать правду от лжи, что до сих пор оставалось для ИИ непреодолимой преградой. Она, как и другая разрабатываемая модель - предназначенная для научных исследований AI Scientist, - способна к самообучению. Всякий, кто читал фантастические романы, знает, что "восстание машин" начинается с того, что они сами о себе что-то "начали соображать".
Примерно полгода назад большая группа интеллектуалов (более тысячи, включая Илона Маска, которого тоже пригласили на вышеупомянутую конференцию в Москву) выступила с обращением об опасности неконтролируемого развития ИИ, призвав человечество озаботиться этой проблемой. Хотя человечество сегодня явно находится не в лучшей форме по части договороспособности.
Развитие ИИ-технологий, возможно, именно сейчас перескакивает от линейного развития к экспоненциальному. Но человеческий мозг, увы, плохо прогнозирует результаты нелинейного развития и тем более по экспоненте. Вспомним прогнозы футурологов начала ХХ века: они все строились на экстраполяции уже обозначившихся тенденций, открытий и технических достижений. Нынешние разработчики ИИ поняли, что в лучшем случае могут предвидеть результаты развития ИИ по экспоненте лишь интуитивно. И то не факт. Вы можете представить в современном обществе интуицию как основу прогнозирования - и соответственно, принятия упреждающих решений в какой-либо сфере? Нет. Вот потому и страшно.
На днях губернатор ХМАО Наталья Комарова пошутила (а может, и нет): мол, нейросети в будущем могут заменить губернаторов. "Есть президент, и хватит. А остальные другим делом занимаются", - заявила она. Каким же делом займутся сотни тысяч и даже миллионы управленцев, если их заменить ИИ? А как будет выглядеть общество, где решения принимают "умные машины", за которых никто не голосовал, и, стало быть, никто не знает, какая в них зашита "предвыборная программа"?
Согласимся: врача и учителя ИИ не сможет заменить. Но вдруг только "пока не сможет"? И как долго это "пока" продлится? Сравните: вы приходите на прием к врачу, на вас отведено минут 15-30, плюс анализы. Или вас "принимает" ИИ уровня AGI, который располагает всеми накопленными на Земле знаниями обо всех болезнях, и его мозги соображают на много порядков быстрее, будучи способными учитывать сразу огромное множество факторов. "Доктор ИИ" будет заниматься именно вашим организмом, анализируя буквально все его мельчайшие индивидуальные особенности. Это как подбор фильмов под ваши вкусы: это делает ИИ на основе изучения просмотренных вами фильмов, выраженных предпочтений и т.д. Так и каждое лечение строго индивидуально, это не по силам никакому врачу-специалисту.
Можно выделить четыре типа ИИ, использование которых несет разные, в том числе социальные, последствия. Первая группа - это машины без памяти, функционирование которых построено на вторичной реакции согласно заданным алгоритмам. Они предназначены для решения конкретных задач, например, могут играть в шахматы, но не могут использовать свой прошлый опыт. Есть ИИ с ограниченной памятью, они могут использовать прошлый опыт для принятия будущих решений. По такому принципу устроены беспилотные автомобили. В настоящее время началась разработка систем, обладающих в какой-то степени разумом, а именно социальным интеллектом, способным понимать эмоции. Этот тип ИИ сможет делать выводы о намерениях человека, предсказывать его поведение, так что сможет стать членом человеческих команд. Наконец, пока не существует ИИ, обладающего самосознанием и самоощущением (понятие AGI близко в этому). Такой ИИ сможет понимать свое текущее состояние и действовать самостоятельно в зависимости от своих "потребностей и интересов".
Конкуренция с людьми во многих сферах уже началась. Скажем, ChatGPT в состоянии написать грамотную дипломную работу. Где там роль "наставника"? Или вот, например, появился уже в чем-то аналогичный ChatGPT - Claude AI, который успешно сдал - на приличном уровне! - экзамены на университетском уровне по экономике и, заметим, юриспруденции. Ау, судьи, возможно, у вас скоро убавится работы, так как относительно простые дела будут решать без вас!
Для начала. Claude AI уже в какой-то мере самообучающийся ИИ. Сам. Без преподавателей. Но раз без преподавателей, то и, может статься, без контролеров и регуляторов. Мы к этому готовы?
Георгий Бовт
Печать