«Первый канал» занял всю эфирную сетку пропагандистским фильмом «Как устроен мир» о «Евросоюзе Гитлера» и русофобе Жюле Верне
«Первый канал» в воскресенье занял всю сетку вещания пропагандистским «документальным фильмом» о «русофобии» и врагах России из нескольких частей, следует из программы передач на 24 июля на сайте канала. Практически весь день россиянам показывали фильм «Краткое пособие по тому, как устроен мир», части которого назывались «Русофобия», «Пропаганда», «Враг» и «Война» («война», впрочем, не имеет отношения к полномасштабному вторжению в Украину, так как фильм был снят еще в 2021 году).
Авторы фильма утверждают, что Россия и Восточная Европа — это «Срединные Земли». Это отсылка не к Срередиземью Толкина, а неловкий перевод термина «Хартленд», который придумал английский географ Маккиндер в начале XX века и который до сих пор любят использовать российские пропагандисты. Иногда, впрочем, в фильме «Срединные Земли» скромно заменяется словами «Сердце Земли». По мнению авторов фильма, кто управляет Срединными Землями — тот правит всем миром, поэтому все претенденты на мировое господство «всегда приходили на Русь».
В серии о «русофобии» авторы фильма укоряют россиян в низкопоклонстве перед Западом и утверждают, что после «Великой войны, столкнувшей Евросоюз Гитлера с Советским Союзом, процесс интеграции с Западом шел в Сердце Земли непрерывно». По мнению авторов, возникло потому, что в Советском Союзе миллионными тиражами публиковали таких «русофобов» как Редьярд Киплинг, Даниэль Дефо, Виктор Гюго и Жюль Верн.
После того как в первой части зрителям полтора часа под самое неожиданную музыку рассказывают о русофобии и западной пропаганде в современном мире, во второй части авторы переживают некоторую шизофреничную метаморфозу и заявляют ровно обратное: «Новый коммуникационный уклад сделал пропаганду, равно как и всякую ложь, невозможной. Вместе с пропагандой канула в лету и порожденная ей русофобия. В истории человечества пропаганда сохранилась лишь как ментальный артефакт».
Все эти экзотические утверждения в фильме призваны подкрепить своим авторитетным мнением «эксперты», большая часть которых для убедительности иностранцы - иногда настоящие, а иногда с российским паспортом, как, например, швейцарец Ги Меттан - по мотивам его книги и был снят этот фильм. The Insider уже писал о том, что Меттан еще в 1990-х годах получил российское гражданство, а в 2017 году был награжден российским орденом Дружбы. В том же году «Репортеры без границ» после организованной им конференции по поводу деятельности «Белых касок» в Сирии объявили Меттана ретранслятором российской пропаганды. В этом фильме Ги Меттан играет роль иностранца и винит в «агрессии Запада» католиков, которые «изменили символ веры и спровоцировали раскол». Он же заявляет, что при Иване Грозном Россия снова стала крупным игроком и именно он вернул России былое влияние. Легенду об убийстве царем собственного сына придумали «западные партнеры», продолжают мысль Меттана авторы фильма.
Экспертами в фильме выступают очень странные люди в странном антураже, некоторые из них, например, почему-то дают комментарий, сидя в кустах посреди поля:
В фильме появился и актер Жерар Депардье, получивший российское гражданство в 2013 году, а вместе с ним и две квартиры - в Чечне и в Мордовии (правда, жить почему-то остался во Франции). Он заявил, что отношения России и Запада испортились сравнительно недавно и все дело «в отсутствии культуры» — так звучат его слова в переводе авторов фильма. У кого именно отсутствует культура, он не уточнил. Также актер посетовал на то, что в Европе забыли как ее от нацизма спаси Иосиф Сталин. Депардье рассказал, как французские журналисты спрашивали его, почему он восхищается президентом России.
«Я дал им возможность перечислить все претензии (к Путину): преследования журналистов, убитого у стен Кремля политика (Бориса Немцова), но когда они иссякли, ответил спокойно: «Да, Путин, по мне, замечательный человек, лично я себе не представляю, чтобы он отдавал приказ кого-либо убить».
Еще одним экспертом выступает некий почетный консул Бельгии в Дамаске по имени Eliyah Atiye, однако в открытых источниках нет никаких данных о человеке с таким именем. Помимо этого, непонятно, почему консул в Дамаске стал экспертом по России в фильме Первого канала. Консул утверждает, что Европа не любит Россию, потому что «стране присуще чувство собственного достоинства», а в «Европе такие вещи «не приветствуются».
От лица российских экспертов в фильме представлен московский ресторатор Андрей Деллос, основатель ресторана «Пушкинъ», которое любят посещать российские чиновники. Говоря о русофобии, заявил, что сталкивается с ней лбом каждый день и «никакими Пушкиными это не исправить».
Другим экспертом в фильме фильма выступает не много ни мало сам Д’Артаньян, а точнее Амери Д’Артаньян, председатель ассоциации мушкетеров, он герцог де Монтескью. Он заявил, что плохой имидж России создали США, которые выставили Россию как продолжение СССР, хотя, на самом деле, мол, это совсем разные вещи. Сразу после этого «герцог», несколько противореча себе, заявляет, что «связывают эти вещи только само население и культура». Напомним, ранее мушкетер приезжал в Россию наблюдать за выборами и пришел к выводу, что Россия с о своей системой голосования «впереди многих государств». Авторы фильма явно не определились с единым мнением о русофобии: если Андрей Деллос (основатель кафе «Пушкинъ») рассказывал, что на русских в Европе бросаются прямо на улице, то Д'Артаньян утверждает, что русских, наоборот, в Европе любят, просто у страны нет хороших пиарщиков.
Еще один эксперт, бывший французский сенатор Ив Поццо ди Борго, известный тем, что после аннексии Крыма позировал на полуострове в футболке с надписью «Обама — чмо», заявляет в фильме, что когда был сенатором, «вызвал к себе министра иностранных дел и главу МВД, чтобы те дали ему отчет по вопросам иммиграции из России». Он утверждает, что предложил им отменить визы с Россией, и оба сразу согласились. Комичность этой ситуации в том, что французский сенатор не может вызывать себе для отчета министров.
Другой эксперт, финансист Серж де Пален, которого в фильме почему-то называют графом (видимо, потому что в одном фильме с герцогом простолюдину не место), объясняет зрителю, что настоящая коррупция — это не когда чиновники воруют, а когда банки поднимают процентную ставку. Поэтому, по его словам, настоящая коррупция не в России, а на Западе. Он также отметил, что Путина на Западе не любят за его христианские ценности: «Запад в своем стремлении развивать мир в сторону постмодернизма развивает веками существовавшие устои и рождает протест в собственном населении. Путин зачаровывает огромное число людей Запада благодаря тому, что он воплощает старые христианские ценности, такие, как семья, родина. Об этом западная пресса не говорит совсем». Почему разведенный Путин, дарящий яхты своим любовницам, олицетворяет семейные ценности «граф» не пояснил.
Заканчивается фильм загадочными словами, судя по всему сгенерированными нейросетью: «Настоящая война - это война идей. В новой коммуникационной среде (?) человечество осознало масштаб конфликта между этикой и прагматикой, и реальность тоже предстала такой, какая она есть, вот тогда и наступила новая эра».
Это полнейший ужас. Катастрофа заключается в том что это не просто вранье - это намеренное создание секты в рамках целого государства. Мне страшно что в таких условиях если даже путин уйдет то у людей будет настолько извращенное видение мира что жить нормально все равно не смогут.
В Подмосковье совершено покушение на экс-зампреда правительства Ингушетии, которого Кадыров называл преступником
10 октября в Подмосковной деревне Лапино было совершено покушение на Шерипа Алихаджиева, бывшего зампреда правительства Ингушетии. Неизвестный открыл огонь, когда Алихаджиев был на веранде своего дома. Алихаджиева госпитализировали, он находится в реанимации, сообщает «Коммерсант». Информацию подтвердил Следственный комитет по Московской области.
По данным следствия, нападавший выстрелил в Алихаджиева как минимум четыре раза. Экс-зампред правительства Ингушетии получил два огнестрельных ранения. Источник ТАСС в правоохранительных органах заявил, что покушение было спланировано и заранее подготовлено. Силовики возбудили уголовное дело по факту покушения на убийство (ч. 3 ст. 30 ч. 1 ст. 105 УК РФ).
Известно, что в 2007 году глава Чеченской республики Рамзан Кадыров назвал Алихаджиева преступником.
Троих сотрудников центра «Э» застрелили в Ингушетии
В Ингушетии на съезде с федеральной трассы к городу Магас из автоматов была расстреляна машина, в которой находился замруководителя регионального центра «Э» Адам Хамхоев. В результате стрельбы погибли трое полицейских, охранявших господина Хамхоева, он сам не пострадал, сообщил «Ъ» источник в Следственном комитете России.
По предварительным данным, нападавших было двое. После нападения они сожгли машину и «пересели на другую, либо ушли пешком» в сторону Северной Осетии, сообщил источник.
По факту случившегося возбуждено дело по ст. 317 УК (посягательство на жизнь сотрудника правоохранительных органов), ст. 105 УК (убийство) и ст. 222 УК (незаконные приобретение, передача, сбыт, хранение, перевозка, пересылка или ношение оружия).
На заправке в Грозном, вероятно, взорвалась цистерна с топливом
Об этом сообщили близкие к силовикам телеграм-каналы Baza и «112». По данным Baza, после взрыва первой цистерны загорелась вторая: ее «проливают», чтобы избежать еще одного сильного взрыва. «112» пишет, что от взрыва первую цистерну отбросило на несколько метров. По данным Shot, она прилетела во двор жилого дома.
Источник «Интерфакса» в экстренных службах заявил, что, «по предварительным данным, причиной пожара могла стать детонация бензовоза или цистерны с топливом».
Четыре человека погибли в результате взрыва в Грозном — Baza, Shot, «112» и Mash
По данным близких к силовикам телеграм-каналов, погибшие — двое детей и двое взрослых. По предварительным данным, погибшим детям было пять и шесть лет, пишет Baza.
Официально о погибших или пострадавших не сообщалось.
Развернуть
Отличный комментарий!
Будет забавно, если окажется, что измена жены Бакальчука в итоге приведет к развалу россии
Британские школы намеренно терпят неудачу мальчиков из за страха перед феминистками
Британские школы игнорируют проблему отставания в успеваемости мальчиков из-за опасений, что они будут подвергнуты критике феминистских и гендерных групп - предупредила бывший директор UCAS Мэри Кернок Кук (Комиссия приема в университеты и колледжи).
В своем интервью бывший глава комиссии выказала свое недовольство тем, что мальчики отстающие в школе становится нормальным явлением. Она добавила, что эта тема становится табуированной из за феминистких групп. Мальчики, отстающие от девочек в обучении, являются широко распространенной проблемой, но никто, кажется, ничего не делает, чтобы решить ее, сказала Миссис Кук. "Если так продолжится и дальше, то через десять лет разрыв в образованности мальчиков и девочек станет больше, чем между бедными и богатыми"
В последние десять лет отставание мальчиков по успеваемости значительно возросло, в результате чего уже сейчас университеты состоят на 57% из девушек, и эта цифра постоянно растет.
Она сказала: "Довольно часто решения поддержать мужчин преследуются феминистками". Она добавила, что усилия по решению проблем, связанных с неравенством для мальчиков, часто встречаются гневом феминистских групп. Миссис Кук также похвалила нового регулятора высшего образования за обращение к данной проблеме.
Согласно последним данным Департамента образования, мальчики более чем в три раза подвергаются исключению из школы.
За последние пять лет вдвое большее количество мужчин покончило с самоубийством по сравнению с девочками, хотя мужчин состоящих на обучении меньше.
YouTube начал блокировать в России видео об уклонении от военной службы
Под блокировку по требованию Роскомнадзора попали видео каналов «Дозор в Волгограде», «Школа призывника» и независимого регионального СМИ.
На канале «Дозор в Волгограде» (29 тысяч подписчиков) YouTube заблокировал ролики «Как скрываться от военкомата» и «Уклоняйтесь правильно», рассказал создатель проекта Евгений Кочегин. Первое уведомление о блокировке канал получил в декабре 2023 года. В конце февраля YouTube переслал само требование РКН. В нем блокировка объяснялась размещением «информации о способах и методах уклонения от прохождения военной службы по призыву»
На канале «Школа призывника» (21 тысяча подписчиков) YouTube заблокировал видео «Уголовка поможет не служить». В удаленном видео независимого регионального СМИ эксперт отвечал на вопросы о том, как избежать призыва на военную службы.
Кроме того, пишет «Агентство», в начале мая уведомление от видеохоистинга получил правозащитный проект «ОВД-Инфо». В письме сообщалось, что YouTube получил от РКН уведомление о блокировке канала «Как теперь?» (почти 100 тысяч подписчиков). Перед этим РКН сообщил, что заблокировал в России пять ресурсов «ОВД-Инфо», в том числе два канала проекта в YouTube. Помимо «Как теперь?», это еще и канал «ОВД-Инфо». Несмотря на сообщение регулятора, каналы по-прежнему доступны.
Развернуть
Отличный комментарий!
А гугл там уже все штрафы выплатил чтоб законодательство РФ соблюдать?
Под предлогом войны воскрешают один из диктаторских законов 16 января. Абонентов мобильной связи лишат анонимности
Операторы мобильной связи и провайдеры обязаны будут предоставлять абонентам свои услуги только при заключении договора или же регистрации данных о владельце. Об этом идет речь в проекте постановления Кабинета министра Украины «О внесении изменений в правила предоставления и получения телекоммуникационных услуг». Постановление вступает в силу через 6 месяцев со дня его принятия. За это время операторы, провайдеры и потребители телеком-услуг должны привести свои правоотношения в соответствие с изменениями. "Проект постановления Кабмина разработан Госспецсвязи во исполнение поручения вице-премьер-министра Украины - министра культуры Вячеслава Кириленко от 23 декабря 2014 года", - говорится в пояснительной записке к проекту.
Напомню, что продажа SIM-карт по паспортам была в одном из диктаторских законов, которые были приняты 16 января 2014 года, которые спровоцировали активную фазу Евромайдана.
Владимир Путин поручил Минздраву РФ создать в Центре психиатрии и наркологии имени Сербского институт по исследованию «общественного поведения» гомосексуальных людей. Об этом стало известно из реплики министра здравоохранения Михаила Мурашко, который отвечал на вопрос депутата Анатолия Вассермана во время первого чтения в Госдуме законопроекта о запрете на трансгендерный переход. На это обратили внимание «Важные истории».
Говоря о представителях ЛГБТК+ Вассерман обратился к Мурашко с вопросом — проводит ли Минздрав исследование «психиатрических методов приведения этих представлений [о гендерных ролях и сексуальности людей] в соответствие с реальностью».
«Cейчас есть поручение президента по созданию на базе нашего федерального Центра психиатрии дополнительного института по исследованию не только этих, но и ряда [других] поведенческих направлений, в том числе общественного поведения. Поэтому это направление также будет дальше взято в обязательную научную проработку, помимо того, что сегодня делаем», — сказал Мурашко.
14 июня Госдума в первом чтении приняла законопроект, запрещающий проводить хирургические операции, «направленные на смену пола человека», и менять гендерный маркер в документах. Во время рассмотрения законопроекта свои сомнения высказывали в том числе представители Минздрава, возглавляемого Мурашко. На заседании Госдумы последний заявил, что полный запрет трансперехода может увеличить количество суицидов. Мурашко поддержал недопустимость смены пола лишь по желанию пациента и высказался за ужесточение требований к проведению операций и гормональной терапии, но не высказался за полный запрет трансперехода. В ответ на это спикер Госдумы Вячеслав Володин попросил его не предлагать поправок к этому закону.
Напомним, в России также принят закон о запрете «пропаганды ЛГБТ». В этом законе нет никаких точных определений, и фактически он касается человека с любой ориентацией. Например, по нему могут привлекать людей, которые открыто говорят о нежелании заводить детей.
Развернуть
Отличный комментарий!
Такую страну насерают назад, ммм... С пломбиром и пионерами. Уроды.
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняютоппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Отличный комментарий!