В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняютоппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Хочу поделиться с вами историей, она произошла совсем недавно с моим другом. Просто в качестве поддержки для него.
Здравствуйте. Я не писатель. Я - читатель. Но сегодня решил написать свою первую статейку... Накипело...
Краткая предисторий. Я, как и любой нормальный человек, имею хобби. Моё хобби - это краеведение. Я собираю и публиковал на своём небольшом краеведческом сайте краткие статьи по различным аспектам истории своей малой родины - Псковского края.
Точнее, публиковал, т. к. сайта больше нет - его закрыл Роскомнадзор по решению Псковского городского суда (решение №2а-3379/2019 от 26.09.2019).
Что интересно, с момента решения суда прошло уже два месяца. И за этот срок со мной даже не пытались связаться и/или донести информацию о решении суда. Вечером (18:46) я получаю уведомление, а уже ночью рачительный хостинг отключает сайт.
Но даже не в этом суть. Что действительно поразило, так это причина отключения. Дальше будет цитата:
«Описание запрещенной информации: Размещена информация пропагандирующая противоправные действия по вылову хариуса, занесенного в Красную книгу, о способах и местах ловли, признанная запрещенной на территории РФ.»
И вот после этого у меня вскипела пролетарская ненависть... Я, в принципе, абсолютно равнодушен к рыбалке. И уж точно никого и никогда не призывал к геноциду хариуса. Я даже эту рыбу никогда в реальной жизни не видел. Только на картинках.
Но на моём сайте действительно было опубликована две статьи, посвященных этой редкой рыбе.
Первая статья цитировала «Псковскую энциклопедию». «Псковская энциклопедия» - это такая обобщающая работа, изданная при участии местных властей Псковской области. Вот текст статьи:
«Хариус европейский. Рыба семейства Хариусовых. Отличается огромным спинным плавником. Окраска яркая, нарядная, сильно меняется в зависимости от цвета грунта. В Псковской области хариус по некоторым признакам резко отличается от типичных форм вида и представляет собой особую географическую популяцию. Живёт в холодных и быстрых реках. Питается насекомыми, икрой и молодью рыб. Охотится преимущественно ночью. Нерестится в мае. Хариус обычен почти по всей Европе. В Псковской области встречается в реках Курея, Люта, Ситня (Стругокрасненский и Порховский районы), Толба, Лочкино, Чёрная (Псковский район), Пижма (Печорский район), Белка (Гдовский район), но редко. В настоящее время по причине загрязнения рек, ухудшения условий размножения и возросшего лова численность хариуса продолжает уменьшаться.»
Да, в статье указаны места обитания хариуса. Но не более.
Вторая статья более содержательная и информативная:
«Европейский хариус. Отряд: Лососеобразные. Семейство: Хариусовые. Уязвимый в реках Псковской области вид, спорадически распространённый. Включён в Красную книгу РФ (сокращающиеся в численности популяции широко распространённого вида). Занесён в Красные книги Беларуси, Эстонии, в Приложение III Бернской конвенции. Верхняя челюсть не заходит за передний край глаза. Жаберных тычинок 19 - 30. Зубы на челюстях слабые. Окраска серебристая, спина тёмная. На спинном плавнике несколько параллельных рядов тёмных пятен, на боках буроватые продольные полоски. В нерестовый период окраска более яркая. Ареал вида охватывает Европу от Франции и Англии на запад до рр. Кара и Урал на восток и от р. Дунай на юге, до Баренцева моря на севере. В России населяет бассейны рек, впадающих в Балтийское, Баренцево, Белое и Карское моря, бассейны верхней и средней Волги и бассейн р. Урал. На территории Псковской области встречается в притоках р. Плюсса (непосредственно в р. Плюсса не отмечен), реках Белка, Волостня, Черная, Лочкина, Ситня, Кудеб, Алоль (в т. ч. р. Великая в районе устья р. Алоль). Ранее единично встречался в р. Рущера (бассейн Западной Двины), но в после 1990 г. в уловах рыболовов-любителей не встречался. Обитает преимущественно на участках рек с песчано-каменистым грунтом и с течением не менее 0,2 м/сек. Достигает длины 50 см, массы 1,3 кг и возраста до 12 лет. Половое созревание происходит в 2 - 3 года. Нерест происходит в конце мая - июне при температурах воды 4 - 6 ºС. Нерестилища располагаются на галечниковых участках рек с быстрым течением. Средняя плодовитость 1 - 36 тыс. икринок, в среднем 10 тыс. икринок. Икра диаметром 3 - 4 мм, светло-жёлтого цвета. Выклев личинок происходит через 3 - 4 недели после нереста. Самки строят мелкие гнёзда, куда и откладывают икру, после выклева личинки практически сразу покидают нерестовые гнёзда. Необходимо лимитировать лов хариуса на отдельных наиболее посещаемых реках и установить минимальную промысловую меру.»
Да, в этой статье подробно описываются места обитания, особенности поведения и даже упоминается промысел. Всё так, но есть момент. Дело в том, что эта статья цитирует... барабанная дроб ... Красную книгу Псковской области. Да, эта статья взята из Красной книги и под статьёй указан источник.
Это что же получается? Получается, что Прокуратура, в целях защиты краснокнижного животного запрещает ... барабанная дробь ... саму Красную книгу?! Ну, это же логично !
Спросите, а к чему я упомянул Прокуратуру? А Прокуратура «спалилась» при попытке отчитаться в СМИ о «проделаной работе». Смортрите сами:
Как вам это? Закрытие небольшого краеведческого сайта, на котором была размещена статья Красной книги о хариусе на полном серьёзе выдаётся за большой успех в борьбе с браконьерством! Испанский стыд! Прокуратура, что ты делаешь? Когда это Красная книга попала в список запрещенной литературы
Нет, я, конечно, далеко не наивен. Я отлично понимаю, что просто стал легкой добычей в борьбе за красивую отчётность. Ну, действительно, не с настоящими же браконьерами бороться: долго, сыро, холодно и, порой, опасно. А тут всё быстро провернули и красиво отчитались в СМИ о больших достижениях в своей работе. Это всё понятно, но только от этого легче не становится...
- Идите отсюда, гражданин, здесь нельзя. - Чего нельзя? - Сказано вам, здесь нельзя, а чего вам здесь нельзя, вам нельзя здесь узнать. Ходят тут умные всякие, эх, был бы человек, а статья найдётся
Поклонскую не пустили в Госдуму из-за отказа сдавать тест Роршаха
Депутатов Госдумы от «Единой России» Наталью Поклонскую и Виталия Милонова не пустили в зал пленарных заседаний, так как они отказались пройти тест Роршаха.
Как сообщает телеграм-канал «Крымский хвост». Об инциденте стало известно во время заседания.«Мне не интересно смотреть на эти картинки, тем более, что они почти одинаковые и часто повторяются. В России можно найти художников, которые могут нарисовать и Путина, и Крымский мост, и меня — гораздо лучше, правдоподобнее, и без использования этих невнятных клякс», — сказала Наталья Поклонская.
Примечательно, что Виталия Милонова просьба пройти тест Роршаха смутила из-за наличия в известных картинках скрытой ЛГБТ-пропаганды.
«Да там сплошные радужные бабочки, черт знает что. Да там же одни извращенцы, где вы между ними Путина увидели?» — вступил депутат в полемику с Поклонской.
О том, что вход в зал заседаний был закрыт для двух парламентариев заявил спикер нижней палаты парламента Вячеслав Володин. По его словам, это «единственная возможность» снизить риск дальнейшей деградации российского парламента.
Прошел ли тест Роршаха сам Володин, и с каким результатом, не уточняется.
США располагают информацией, указывающей на то, что Россия подготовила группу специально обученных диверсантов для совершения провокаций в Донбассе с целью оправдания последующего вторжения в Украину, сообщила в пятницу, 14 января, американская медиакомпания CNN со ссылкой на источник в Белом доме.
По словам источника, эти оперативники обучены боевым действиям в городских условиях и применению взрывчатых веществ для осуществления актов саботажа против пророссийских сил в Донбассе. CNN отмечает, что это утверждение перекликается с распространенным 14 января заявлением министерства обороны Украины о том, что российские спецслужбы готовят провокации против пророссийских сепаратистов с целью очернить Украину.
Советник президента США по национальной безопасности Джейк Салливан упомянул о соответствующих данных разведки в ходе брифинга 13 января. "У нашей разведки есть информация о том, что Россия готовит почву, чтобы иметь возможность сфабриковать повод для вторжения. Мы наблюдали этот сценарий в 2014 году. Они вновь готовят тот же сценарий, и у нашей администрации будут дополнительные подробности, которыми мы поделимся со СМИ в ближайшие 24 часа", - сказал Салливан.
CNN, ссылаясь на источник в Белом доме, также сообщил, что администрация США фиксирует попытки влиятельных игроков в Москве сформировать в российском общественном мнении настроения в поддержку вторжения в Украину. Собеседник CNN, в частности, указал на распространяемые в России сообщения об ухудшении ситуации с правами человека в Украине и растущей воинственности Киева.
На этой неделе высокие представители России, США и НАТО обсуждали вопросы безопасности в Европе, в том числе требования Москвы о гарантиях дальнейшего нерасширения НАТО на восток. Сторонам не удалось добиться сколько-нибудь заметного прогресса. США и их союзники по Североатлантическому альянсу заявили, что двери НАТО и впредь останутся открытыми для новых членов, а Россия не может иметь права вето в этом вопросе.
Запад и Украина уже многие месяцы обвиняют Россию в стягивании десятков тысяч военнослужащих к украинской границе. Они подозревают Москву в подготовке к новому вторжению в Украину. Россия утверждает, что не имеет подобных намерений, и в свою очередь обвиняет НАТО в вооружении Украины и проведении маневров возле российских границ.
Россияне, а вы в курсе, что у вас там цены на все снижаются?
Москва. 5 декабря. INTERFAX.RU - Правительство РФ снизило прожиточный минимум в III квартале на 67 рублей. Его величина в целом по стране составила почти 10 тысяч рублей на душу населения, сообщает пресс-служба Минтруда РФ.
"Величина прожиточного минимума за III квартал 2016 года составила на душу населения 9889 рублей, что на 0,7% меньше по сравнению со II кварталом этого года. Величина прожиточного минимума для трудоспособного населения равна 10678 рублям, для пенсионеров - 8136 рублям, для детей - 9668 рублям", - сказано в сообщении.
В I квартале величина прожиточного минимума на душу населения составляла 9776 руб., во II - 9956 рублей.
Снижение величины прожиточного минимума вызвано уменьшением стоимости продуктов питания в составе величины прожиточного минимума на 1,9%, отметили в ведомстве.
Отличный комментарий!