«Малайзийский прецедент»: что происходит, когда авторитарные лидеры теряют свою власть
В эти дни в столице Малайзии Куала-Лумпуре проходят массовые выступления, участие в которых принимают до нескольких десятков тысяч человек. Недовольство протестующих вызвали появившиеся сообщения о причастности премьер-министра страны Наджиба Разака к многомилиардным хищениям из фонда национального здравоохранения.
Одним из лидеров протестного движения является бывший глава правительства Малайзии — 91-летний Махатхир Мохамад. Вместе со своими соратниками он стоит под огнём водомётов, дышит слезоточивым газом и противостоит полиции, назвавшей происходящие в Куала-Лумпуре протесты незаконными. Однако ещё несколько лет назад он не был таким демократом и сторонником народным масс, отмечает Quartz.
За двадцать два года правления Мохамада, пришедшегося между 1981 и 2003 годами, Мохамад успел не только обрести имидж «сильного человека», но и без какого-либо суда спрятать за решётку 11 известных диссидентов и безнаказанно уволить нескольких высокопоставленных судей. Он также посадил в тюрьму своего вице-премьера, получившего обвинения в коррупции и содомии.
В 2003 году Махатхир Мохамад добровольно ушёл в отставку, предварительно назначив себе преемника в виде собственного министра финансов Абдаллы Абдави. Спустя ещё пять лет ему пришлось выйти из партии «Объединённая малайская национальная организация», членом которой он являлся с самого момента её основания.
Причиной выхода Махатхира Мохамада из партии называется его стремление надавить на Абдави с целью назначить нового главу правительства — 53-летнего Наджира Разака, сына его старого товарища по партии и второго премьер-министра Малайзии Абдула Разака.
16 ноября 2016 года Мохамад выпустил видео, в котором призвал граждан своей страны присоединиться к протестам, организованным «Коалицией за чистые и честные выборы». В своём заявлении он объявил о том, что страна находится «в состоянии паники» и что государство не справляется с собственными долгами.
Я надеюсь, что все Малазийцы присоединятся к этим акциям Берсих [народное название коалиции, означающее «Чистый»] и найдут способ вылечить нашу страну через смену правительства таким образом, чтобы оно не возглавлялось человеком, укравшим такое количество денег.
Махатхир Мохамад, бывший премьер-министр Малайзии
Как отмечают читатели одного из немногих независимых новостных ресурсов Малайзии Malaysiakini, даже люди с самых богатым и диким воображением никогда не могли бы представить себе подобной ситуации: бывший авторитарный премьер, прославшийся партийными чистками и давлением на свободную прессу, в числе протестующих за честные и прозрачные выборы и против одного из своих фактических преемников.
Бориса Надеждина не допустили до участия в президентских выборах
Об этом сообщил сам политик по итогам заседания комиссии по регистрации кандидатов.
"Я не согласен с решением Центризбиркома. Я собрал более 200 тысяч подписей по всей России. Мы проводили сбор открыто и честно — за очередями в наши штабы и пункты сбора следил весь мир.
Участвовать в президентских выборах в 2024 году — самое важное политическое решение в моей жизни. От своих намерений я не отступаю. Я обжалую решение ЦИК в Верховном Суде РФ." https://t.me/BorisNadezhdin/871
Двухпалатный парламент Австрии в среду, 15 мая, при поддержке консервативной Австрийской народной партии и праворадикальной Австрийской партии свободы одобрил запрет на ношение мусульманского головного платка в начальных школах. Запрещено "ношение одежды, продиктованной идеологическими или религиозными соображениями и предполагающей покрытие головы", отмечается в постановлении законодательного органа. Действие нововведения, однако, не распространяется на кипу - еврейский головной убор. Это связано с тем, что он не закрывает волосы полностью или большую их часть, цитирует агентство dpa выдержку из документа. Штраф в сотни евро За нарушение предполагается штраф в 440 евро. Власти Австрии исходят из того, что обжаловать закон можно будет в Конституционном суде. Правительство во главе с премьером с Себастьяном Курцем трижды выносило постановление на парламентское рассмотрение. В октябре 2017 года в Австрии был введен запрет на ношение одежды, скрывающей лицо.
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняютоппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
"Вы уничтожали украинский язык в Украине! Вы не уважали язык народа, на земле которого жили! Вы приехали в Калмыкию уничтожать калмыцкий язык?" "Выкинем мы этого днровца отсюда или нет? Да!"
Демонстрация в Элисте в Калмыкии против новоназначенного главы администрации города Трапезникова (экс-главы ДНР)
Курская область: возбуждено уголовное дело против депутата Ольги Ли
В Курской области возбуждено уголовное дело в отношении депутата Курской областной думы Ольги Ли, недавно обвинившей президента России Владимира Путина в "преступном заговоре против собственного народа" и "пропаганде насилия", заполнившей государственные телеканалы. Факт возбуждения уголовного дела подтвердила сама Ольга Ли в разговоре с корреспондентом Радио Свобода. Она сообщила, что об уголовном деле против нее узнала в четверг на заседании депутатов Курской облдумы от первого заместителя прокурора Курской области Николая Студеникина. По словам Ли, в конце слушания депутаты "Единой России", "КПРФ" и "ЛДПР" открыто выразили ей своё недовольство".
Депутат Курской облдумы Ольга Ли больше двух недель назад выложила в YouTube ролик, в котором подвергла резкой критике главу государства. Ли заявила, что проводимая Путиным внешняя и внутренняя политика привела к краху финансовой системы России и подавлению правового государства. По оценке депутата, рейтинг Путина в Курской области не превышает 25 процентов.
Вот что рассказала Ольга Ли:
- Официальное постановление о возбуждении уголовного дела я пока не получила, но председатель облдумы и зампрокурора сообщили мне, что из-за моих обращений к президенту России на меня завели уголовное дело. Обвиняют в клевете и экстремизме. Скоро, видимо, я получу постановление об этом. Больше всего меня критиковали за то, что я не поддерживаю присоединение Крыма к России и оскорбляю Путина. — сказала Ли. — Меня осудили депутаты всех партий. Депутат КПРФ говорил, что мои слова о незаконном присоединении Крыма разъединяет страну, а надо в это сложное время консолидироваться вокруг Крыма. Депутат предложил мне публично покаяться и отказаться от своих слов. Я сказала, что действия сегодняшней власти приведут страну к войне. Я не хочу этого и от своих убеждения не буду отступаться. Я высказала свои оценочные суждения, на которые имею право. Я была готова к проблемам и буду их решать по мере поступления.
Информация о возбуждении уголовного дела появилась в четверг на сайте Следственного комитета Курской области. На сайте ведомства, в частности, сообщается, что "подозреваемая в номере за сентябрь-октябрь 2015 года газеты «Народный журналист» опубликовала статью под названием «Заявление о привлечении прокурора области Филимонова к уголовной ответственности». В данной статье автор распространила заведомо ложные сведения, порочащие честь, достоинство и подрывающие профессиональную репутацию судьи Ленинского районного суда города Курска, обвинив его в вынесении заведомо неправосудного решения по делу об административном правонарушении.
Речь идёт о случае, о котором сама Ольга Ли рассказала корреспонденту Радио Свобода:
- Корреспондент издания “Народный журналист”, которое я возглавляю, в мае 2015 года пришла с заявлением на действия областного прокурора в прокуратуру. Она стояла около здания прокуратуры вместе с коровой. Мы корову не приводили, но знали, что она там будет. Нашего сотрудника обвинили в проведении несанкционированного митинга. Судья Шурова вела себя во время заседания некорректно, например, она еще до его окончания говорила, что наша сотрудница виновна. О статье, где мы описали действия судьи, вспомнили только сейчас, полгода спустя, после моих роликов с критикой президента, рассказала депутат Ольга Ли.
В Следственном управлении Следственного комитета по Курской области от комментариев в связи с информацией об открытии уголовного дела отказались.
Китайские специалисты помогут России заблокировать YouTube к концу 2023 года
В Москву прибыла группа китайских специалистов по киберугрозам в составе 41 человека, которая поможет заблокировать YouTube в России. Об этом пишет прокремлёвское издание «Октагон», не уточняя источник информации.
По данным «Октагона», российская сторона реализует с китайцами проект по полной блокировке платформы — они совместно проведут анализ, а также подготовят его дорожную карту.
Часть технологий для блокировки предоставит Народно-освободительная армия КНР, остальная часть будет базироваться на разработках России и Беларуси, отмечает издание.
Как утверждает «Октагон», блокировка YouTube в России будет возможна в четвёртом квартале с октября по декабрь 2023 года, после чего станет «доступна работа по блокировке всех типов VPN».
Пилотный проект, предположительно, будет осуществлять «Ростелеком», а в случае успеха им займутся все российские полугосударственные и частные провайдеры, пишет издание. Других подробностей «Октагон» не приводит.
Технический директор «Роскомсвободы» Станислав Шакиров, комментируя публикацию «Октагона», отметил, что «российские и китайские госорганы общаются и обмениваются опытом по поводу блокировки и выстраивания цензуры в целом».
В Китае YouTube был заблокирован в 2008 году. При этом в стране функционирует свой аналог платформы — видеопортал Youku, который, как и многие другие ресурсы, контролируется Коммунистической партией Китая.
Наверное по всему ДНР так, в Донецке еще с октября Гугл поиском стало нереально пользоваться. он как бы работает, но ощущаешь себя с интернетом из нулевых, когда картинка грузилась по кадрам)
Итак, "Газпром". Парочка новостей о крупнейшей бюджетообразующей монополии России
Экспортные доходы «Газпрома» снизились до минимума за 18 лет
Чистый финансовый результат "Газпрома" из-за девальвации рубля уйдёт в 2020-м в отрицательную зону
Турция сократила закупки российского газа на 70% по сравнению с 2019 годом и почти в 14 раз, если сравнивать с показателями 2-летней давности, что вынудило «Газпром» остановить один из двух ведущих в страну трубопроводов - «Голубой поток»
В Амурской области строители (в т.ч. турецкие гастарбайтеры) газоперерабатывающего завода «Газпрома» разгромили офис подрядчика из-за трёхмесячных невыплат зарплат. Протестующие били стёкла, двери и переворачивали машины, а на место происходящего прибыл ОМОН, который разогнал протестующих
Почему то на видео я вижу как протестующие разгоняют омон. Как драпают болезные, любо дорого посмотреть. Оно и понятно, это тебе не студентов на митингах дубинками пиздить, тут в обратку не только пластиковый стаканчик прилететь может.
Страшную цену мы платим за то, что не сделали всего возможного и невозможного, чтобы вступить в НАТО в девяностых. Теперь через кровь и слезы будем избавляться от братских объятий ебучей россии
Отличный комментарий!