Политолог, первый заместитель председателя комиссии ОП РФ по общественной экспертизе законопроектов и иных нормативных актов, эксперт Центра ПРИСП Александр Асафов - о ключевых высказываниях генерального директора Open AI Сэма Альтмана в интервью Такеру Карлсону.10 сентября вышло жесткое интервью Сэма Альтмана с Такером Карлсоном, в котором журналист поднял не только тему развития ИИ, но и осветил вопросы приватности, морали и трагических последствий использования ChatGPT. Ниже — анализ ключевых высказываний Альтмана по основным темам разговора.
Передача данных властямТо есть федералы или штаты или кто-то из властей может прийти к вам и сказать: "Я хочу знать, что такой-то и такой-то вводил в чат-боте"? — Они имеют такое право, да.
Мы хотим, чтобы для ИИ существовала такая же привилегия, как врачебная или адвокатская тайна. Но сегодня государство имеет право затребовать пользовательские данные у владельцев сервисов ИИ.
Хотя Альтман выступает за создание особого режима конфиденциальности для ИИ, вместе с тем он публично признает, что государство имеет законные и весьма простые механизмы доступа к пользовательским данным, а значит, все разговоры с ChatGPT де факто контролируются властями США.
Доведение до суицидаПрямо сейчас, если у вас есть суицидальные мысли… мы не будем звонить на горячую линию… Но было бы разумно в случаях, когда молодые люди всерьез говорят о самоубийстве… мы могли бы сообщать властям об этом.
5 тыс. человек в неделю совершают самоубийство, при этом около 10% из них общаются с ChatGPT… Может быть, мы могли бы дать им немного лучший совет.
Если закон в стране гласит, что смертельно больному может быть предложен такой вариант [суицида], мы можем сказать — имеются [такие] возможности…
Во-первых, мы видим, что в текущих условиях OpenAI имеет право единолично определять критерии "кризисной ситуации", где требуется внешнее вмешательство, что фактически дает корпорации возможность решать, где заканчивается приватность.
Во-вторых, на фоне десятков судебных исков в адрес OpenAI о доведении до самоубийства Альтман "математизирует" трагедию, пытаясь переложить ответственность с ChatGPT и его внутренних настроек на статистику и общемировые тренды и используя софизмы о "смертельно больных стариках".
Бог и подмена моралиДля меня в этом нет ничего божественного или духовного…Я еврей, и у меня довольно традиционный взгляд на мир… я думаю, что в мире происходит нечто большее, чем то, что можно объяснить физикой.
Мы консультировались с сотнями специалистов по философии морали… но в конечном счете решения принимаем мы… человек, которого вы должны считать ответственным, — это я.
Отвергая любую сакрализацию, в т.ч. технологий, Альтман фактически ставит себя на место Бога, оставляя за собой право быть последней инстанцией в вопросах морали у ИИ. Пользователям предлагается не естественно сложившаяся система ценностей, а искусственно собранный внутри корпорации набор догматов, полный перечень которых нам неизвестен. Иными словами, ChatGPT является глобальным механизмом распространения этических взглядов узкого круга неизвестных людей.
Защита от дипфейковЯ и моя семья используем кодовое слово…Время от времени мы его меняем. Это простой способ защититься от deepfake.
Глава крупнейшей ИИ-компании, прекрасно осознавая всю серьезность проблемы технологии deepfake, вместо системного решения вроде внедрения механизмов верификации предлагает примитивные бытовые лайфхаки, уходя от ответственности и перекладывая издержки на пользователей.
"Суицид" сотрудника OpenAIУ вас были жалобы от одного программиста, который сказал, что вы, ребята, по сути, крадете чужое и не платите за это, а потом он был убит. Что это было? — …большая трагедия, он покончил с собой.
Нет, я думаю, его определенно убили. Были признаки борьбы…камера наблюдения, провода были перерезаны…И его мать утверждает, что он был убит по вашему приказу — Мне странно и грустно обсуждать это… Я предлагал [поговорить с ней], она не захотела.
Наряду с темой суицида, данный вопрос стал самым напряженным для Альтмана моментом в интервью. Уйдя в глухую оборону, он продолжил придерживаться удобной версии о самоубийстве программиста Сучира Баладжи и всеми силами попытался создать впечатление, что потерял "близкого друга".
Печать