На прошлой неделе многие крупные паблишеры, такие как Activision Blizzard, Tencent и Sony, получили письма от семи сенаторов-демократов, в которых те интересуются, в курсе ли они, что в их онлайн-сообществах формируются экстремистские круги.
«Миллионы людей получают заряд положительных эмоций в ваших играх, но есть в них и места, где цветут ненависть, дискриминация и экстремизм. Мы обеспокоены растущим объемом жалоб на подобный негативный опыт. Учитывая, что в мире все популярней становятся взгляды о белом превосходстве, разработчики должны сделать все от них зависящее, чтобы остановить распространение этой идеологии на своих платформах», – призывают народные избранники.
Исследование Антидиффамационной лиги США (ADL) показывает, что жалобы на харассмент поступали от 77% взрослых геймеров и 66% подрастающих. За год оба значения выросли на шесть процентных пунктов.
По оценкам экспертов, в играх и в метавселенных с экстремистской белой идеологией столкнулось около 2,3 млн подростков.
«Белые супремасисты (не путать с супрематистами) используют голосовые чаты игр для вербовки новых сторонников, выбирая своей целью уязвимую молодежь», – говорится в письме.
Некоторые значимые представители индустрии получили были удостоены персонализированного подхода. Так, в письме к Гейбу Ньюэллу утверждается, что его платформа стала рассадником неонацистов, экстремистов, женоненавистников и просто козлов, которые используют сочетание цифр «1488» и букв «WP» в своих никах и нацистские эмблемы на своих аватарах.
По мнению Мэгги Хассен (Maggie Hassan), сенатора от штата Нью-Гэмпшир, свободное распространение идеологий ненависти онлайн может стать причиной физического насилия в реальном мире, и поэтому компании должны особенно тщательно следить за настроением своего сообщества и его перепиской, должно быть, приняв мировой опыт на вооружение.
Я тебе как пидор пидору скажу. Когда на майдане кричали "Москаляку на гіляку" было очень не приятно. Но у меня сосед родом из Украины. Что мне теперь, ему в окно кирпичом кинуть за это? Это же не он кричал. Он не разделяет это мнение. Да, это не ракетные удары, согласен. Но не надо всех под одну гребёнку чесать. То, что делают правительства далеко не всегда воля всего народа. Мне очень грустно, что такое происходит между нашими странами и народами.
17.12.2021 года сотрудники Госбюро расследований пытались вручить повестку о вызове бывшему Президенту Украину, а ныне нардепу Петру Порошенко для проведения его допроса в качестве свидетеля касательно "угольного" дела, в котором фигурирует кум Путина Виктор Медведчук.
В тот же день в 20:40 Петр Порошенко вылетел из Украины в Турцию. При этом издание "Страна" сообщает со ссылкой на источник в следственных органах, что Порошенко приобрел билет на самолет в Стамбул в 19:13 - через 15 минут после появления в СМИ информации о якобы планах вручить ему подозрение в понедельник.
В "Евросолидарности" тогда утверждали, что Порошенко отбыл в "заранее запланированное дипломатическое турне в Турцию и Польшу". В Стамбуле Порошенко якобы должен был встретиться со Вселенским патриархом Варфоломеем, а в Польше - принять участие в международной конференции на тему "Россия – Украина – НАТО: эскалация напряженности на восточном фланге".
Справедливости ради, означенная выше встреча с патриархом Варфоломеем действительно состоялась.
Вчера, уже находясь в Польше, Петр Порошенко записал видеоролик, в котором резко высказался касательно обвинений в свой адрес:
Из-за чего же весь сыр-бор?
08.10.2021 года нардепу от "ОПЗЖ" Виктору Медведчуку объявили о подозрении в государственной измене и содействии терроризму. Речь идет о его участии в 2014-2015 годах в незаконных схемах по закупке угля на оккупированной территории Донбасса.
По данным следствия, после захвата Россией части украинского Донбасса возникла необходимость в закупке угля на мировом рынке, в частности в ЮАР. Российские власти имели планы сорвать реализацию этих контрактов и не позволить Украине усилить собственную энергонезависимость.
Поэтому при посредничестве Медведчука состоялся сговор с высшими должностными лицами Украины, которые, используя полномочия Нацбанка и правоохранительных органов, создали искусственные препятствия для поставки угля из ЮАР. В конце концов те контракты были сорваны, что спровоцировало волну "веерных" отключений электроэнергии в стране.
Впоследствии при содействии Медведчука и с целью возвращения Украины к орбите влияния РФ были организованы незаконные схемы для поставки угля с временно оккупированных территорий на государственные предприятия Украины.
12 ноября в этом деле следователи СБУ и ГБР вручили подозрение бывшему министру энергетики и угольной промышленности Украины Владимиру Демчишину (ст. 258-3 Уголовного кодекса Украины ‒ содействие террористической группе или террористической организации).
Следствием установлено, что министр, превышая свои служебные полномочия, заставил руководителей государственной энергогенерирующей компании заключить несколько соглашений с представителями "Л/ДНР". В частности, по поставкам угля на общую сумму более 3 млрд грн. В результате противоправных действий министра террористы получили более 200 млн грн.
В ходе дальнейшего расследования данного дела встал вопрос о причастности тогда Президента Укрины Петра Порошенка в вопросе о согласовании объёмов и поставщиков угля. Для выяснения этих обстоятельств его и планировалось вызвать на допрос.
В прошлом августе Роскомнадзор сообщил, что только за первые полгода войны россияне написали около 145 тысяч доносов на «фейки» о российской армии. В эту статистику совершенно точно попала бывшая преподавательница, с начала вторжения в Украину отправившая больше 900 доносов на соотечественников — ученых, писателей, правозащитников и даже на российских военнослужащих, оказавшихся в плену. «Медиазона» поговорила с ней и несколькими другими доносчиками, из-за которых люди оказались под следствием или в тюрьме.
«Я живу в городе-миллионнике, работаю на непостоянной основе, то есть у меня неполная рабочая неделя, — рассказывает о себе в переписке с "Медиазоной" серийная доносчица Имя изменено. Собеседница согласилась ответить на вопросы «Медиазоны» только на условиях анонимности.
Ксения Кротова, которая утверждает, что за год войны отправила около тысячи доносов на россиян. — Так как у меня собственная квартира и есть сбережения, то у меня остается свободное время на доносы. По сути я мелкий рантье — человек, живущий на сбережения и на проценты с них. Ранее несколько лет работала в сфере образования (преподавала в вузе и в колледже). Мне под 40 лет, образование высшее. В силовых структурах никогда не работала, и у меня нет родственников, которые там работают».
Осенью минувшего года антрополог Александра Архипова, создательница телеграм-канала «(Не)занимательная антропология», на одном из своих мест работы получила донос на саму себя — его с указанием собственного электронного адреса отправила Кротова. Архипова написала ей с предложением поговорить — и получила вежливый и подробный Полный текст письма есть в распоряжении «Медиазоны».
В нем Кротова кокетливо отмечает, что ее «еще рано изучать, так как СВО не завершилась», но все-таки довольно подробно о себе рассказывает, не приводя данных, которые могли бы ее деанонимизировать. Отдельно она попросила Архипову не публиковать имя, которым она подписывает доносы. «Попросила, чтобы моя фамилия слишком часто не выскакивала в результатах поисковиков», — объясняет «Медиазоне» свое желание Кротова.
Доносчица охотно вступает в переписку с незнакомыми людьми, отвечает поздно вечером и обещает прислать «список ответов» на вопросы. «Сразу скажу — если на какой-то вопрос не сочту нужным ответить, то прямо укажу: на такой-то вопрос ответ не даю», — заранее уточняет она.
Письма Кротовой большие и очень подробные. Так, Архиповой доносчица сообщает, что «автомобиля и дачи у нее нет и не было», «в браке состоит, детей не имеет», «за границей не приходилось бывать ни разу». Также женщина подчеркивает, что «не принадлежит к национальностям, которые имеют право на репатриацию из России», но «относится к той части среднего класса, которая приобрела благосостояние при Путине».
В разговоре с Александрой Архиповой Кротова не без гордости себя называет «профессиональным неоплачиваемым доносчиком» и указывает, что за год войны отправила 764 доноса, так как строчит их «два через два дня». Позднее для «Медиазоны» Кротова уточнила, что всего с 24 февраля прошлого года по 13 апреля нынешнего написала 922 доноса.
Жалуется Ксения на россиян, которые дают комментарии СМИ — «иностранным агентам», а также на российских военнопленных.
«Сразу скажу: канал с интервью с пленными смотрю с целью выявления тех, кто сдался в плен добровольно и (или) в плену распространяет ложь о специальной военной операции, — докладывает она в письме. — Информацию на них я передаю российским властям для возбуждения уголовных дел — за сдачу в плен и за фейки о спецоперации».
Свою деятельность Кротова метафорически сравнивает «с использованием подводных лодок для уничтожения судов противника», а целью считает создание «атмосферы страха, при которой любой выступающий в СМИ-иноагенте начинает думать, не донесут ли на него его работодателю или властям».
Женщина говорит, что для учета доносов составила список, который называет «файл-реестром», по нему же ведет учет эффективности жалоб. Иногда на доносы не отвечают с первого раза, тогда Ксения их дублирует или отправляет в другие инстанции.
«За два дня я просматриваю более 20 часов видеозаписей с ютуб-каналов СМИ-иноагентов, — рассказывает она. — Я отмечаю на видео тех граждан России, кто там выступает и проживает в России, например преподаватель вуза, который дал комментарий, школьный учитель и т. п. На покинувших Россию я пишу доносы крайне редко, так как их все равно власти привлечь не смогут (кроме того, бежавшие фактически утрачивают из-за забот на новом месте способность как-то участвовать в российском протестном движении). А вот те, кто остался в России — это потенциальные цели для доносов, так как их можно наказать: оштрафовать, уволить».
Александра Архипова говорит, что методы Кротовой и подобных ей «заставляют замолчать пул экспертов», а значит, действуют.
«Человек выступил, может быть, по совершенно не связанной с войной теме — например, на "Дожде" выступал врач по поводу случаев гангрены, — и дальше она отправляет донос в место работы этого человека и копию в полицию, — рассуждает антрополог. — Человека вызывают и говорят: "Пожалуйста, больше этого не делай". И он больше этого действительно не делает, эта спираль молчания срабатывает».
Такой донос Кротова, например, отправила в издательство «Индивидуум». В письме она пожаловалась на писателя Николая Кононова, который выступил на «Радио Свобода» с интервью о романе «Ночь, когда мы исчезли». Требование «прекратить рабочие отношения» с ним пришли в издательство в январе 2023 года.
Российские власти начали призывать писать доносы на «фейки» о российской армии с начала войны в Украине. Так, 9 марта правительство Калининградской области распространило через местные издания сообщение о запуске в телеграме специального бота для доносов. В посте говорилось, что его создали из-за «участившихся случаев распространения недостоверной информации провокационного и мошеннического характера, связанной с проведением на территории Украины специальной военной операции».
Аналогичные боты также были созданы в Москве, на Алтае, в Белгородской, Пензенской, Саратовской и Самарской областях. 21 марта партия «Справедливая Россия — За правду» запустила сайт для сбора информации «о недоработках властей», которые в том числе «могли быть спланированными для нанесения вреда государству».
«Девочка сфотографировала в автобусе "пожилую женщину 50-60 лет" <…> и под чутким руководством мамы донесла до органов о поимке пацифистки», — писала депутатка заксобрания Карелии Эмилия Слабунова. Доводы Савинкиной и ее защиты о том, что она ничего не писала на остановке, суд во внимание не принял. Всего Савинкину трижды оштрафовали по протоколам о «дискредитации» военных (часть 1 статьи 20.3.3 КоАП) на общую сумму 60 тысяч рублей, а после завели на нее уголовное дело (часть 1 статьи 280.3 УК).
После доноса восьмиклассников в Пензе к пяти годам условно приговорили 55-летнюю учительницу английского, а ее коллеге из Нижегородской области пришлось уехать из России после того, как осенью 2022 года она посоветовала не идти воевать учащимся Института транспорта, сервиса и туризма.
Уехала и сбежавшая из-под домашнего ареста архангельская студентка Олеся Кривцова, на которую донесли однокурсники. Директор новосибирского частного колледжа «Новоколледж» Сергей Чернышов считает, что «в системе российского образования все жалуются на всех», поэтому он не удивился, когда кто-то написал на него донос после публикации в фейсбуке и школьной инсценировки сказки «Гадкий утенок».
«Думаю, можно насчитать около ста публичных историй про доносы на учителей и учеников, допустим, что мы знаем о каждой десятой жалобе — пусть будет тысяча жалоб, и это, конечно, гнусно и неправильно, но в России два миллиона учителей только в средних школах. Хотя это все трагедии, людей увольняют, но нельзя говорить о том, что это как в 37-м году», — говорит он в интервью «ОВД-инфо».
..............................................
Развернуть
Отличный комментарий!
Я не знаю, как согласовать мое пожелание с гуманизмом, общечеловеческой этикой и здравым смыслом. Но мое пожелание таково: пусть эта мразь сдохнет. А еще лучше, пусть она станет известной до нарицательности, как Павлик Морозов. Чтоб о ней сняли уничижающий документальный фильм с разбором ее поступков и последствий для ее жертв. Чтоб антропологи и психологи изучали ее случай и активно обсуждали в медийном пространстве. И пусть ее до конца дней травят. Казалось бы есть люди пострашнее - Пригожин там какой-нибудь, но раскаленную до бела ненависть вызывает именно такой тип людей. У меня у одного так пригорает?
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняютоппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
CNN опубликовал кадры убийства двух безоружных украинцев российскими солдатами
Телеканал CNN опубликовал видео убийства двух безоружных украинцев российскими солдатами. Это записи с камер видеонаблюдения автосалона в Киевской области. Как утверждает CNN, они были сделаны еще 16 марта, в период, когда российская армия пыталась захватить Киевскую область.
На видео пятеро российских солдат пытаются ограбить автосалон, стреляют по замкам и разбивают стекла. К солдатам вышли двое гражданских с поднятыми вверх руками. Военные, по всей видимости, обыскали их на предмет оружия. После того как гражданские развернулись, двое российских солдат подошли к ним сзади и выстрелили в спины.
CNN удалось установить личности погибших: это 68-летний Леонид Пляц, охранник автосалона, и владелец предприятия, семья которого попросила не называть имени. Пляц погиб не сразу: на кадрах видно, как он пытается подняться и дойти до своей охранной будки, но падает возле нее.
Развернуть
Отличный комментарий!
Ублюдки ебучие. А больше всего угнетает то что другие ублюдки будут говорить что это всё фейки, а не требовать расследования и трибунала. Посмотрел сейчас чистое зло и ппц злой щас...
Россия, XXI век. Численность рабов варьируется между полумиллионом и миллионом человек. Работорговля процветает. И нет - слово "рабство" мы сейчас применяем не в переносном, а в самом прямом значении. Об этой проблеме не трубят на каждом углу, её часто не замечают рядовые жители страны... до тех пор, пока не оказываются в уютном подвальчике. Как работает вся эта индустрия, как попасть в рабство в 2021-м году, сколько стоят разные категории рабов и как решать данную проблему - обо всём этом смотрите в новом видео Андрея Рудого.
Отличный комментарий!