Лимонные девочки хентай
»Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост политота
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
шампанское на изготовку лукашенко песочница политоты политика
Слухи про состояние Лукашенко
Валерий Цепкало: Лукашенко после встречи с Путиным за закрытыми дверями в срочном порядке был доставлен в Центральную клиническую больницу Москвы.
Он находится там до сих пор, так как было проведено промывание крови и состояние Лукашенко было признано не транспортабельным
+ На сайте хоккейного клуба Динамо Минск главная страница выглядела вот так.
Беларусь выборы 2020 ИВС менты Жыве Беларусь здоровья в хату песочница много букав политика
Посетил синеокую и отсидел 15 суток
Предисловие
Для понимания контекста - на выборах 2020 я был независимым наблюдателем (и наблюдал некоторое дерьмо), в том числе писал жалобы на нарушения на избирательном участке. Вероятно, из-за этого я попал в неформальные списки МВД, что гарантировало мне полный таможенный досмотр при въезде в РБ (впервые столкнулся с этим в июле 2021 по возвращении из отпуска в Грузии).
Неожиданные гости и обыск
Суд
- в чем выражалось мое неповиновение?
- вы препятствовали обыску
- какими действиями я препятствовал обыску?
- препятствующими
- что конкретно я делал?
- препятствовали
Для информации - адвокат на подобном суде нужен не столько как защитник, сколько как человек с которым ты имеешь право переговорить наедине в течении пары минут и передать весточку близким.
Любопытный факт - с момента первого удара в дверь, обыска, мероприятий в РУВД и даже суда, никто не спросил меня документы. При входе уточнили что я есть я, и на этом все. Даже судья немного тормознул с этого, при том что факт непроверки документов подтвердил и ряженный свидетель.
Да | |
|
755 (80.6%) |
Нет | |
|
182 (19.4%) |
Отличный комментарий!
А то чет дико усложнил.
Ситуация конечно кошмарная. Но есть вопрос, один
Ты вообще на что рассчитывал когда ехал? На хлебсоль?
Вторжение в Украину 2022 оппозиция политика
День 2
Сегодня ещё раз сходил в центр своего города. Видимо, в этот раз терпения было меньше у полисменов, поэтому подошли проверять документы где-то через 15 минут. Подошли 6 полицаев, записали в блокнотик. Затем самое интересное — подошел капитан ППСов и начал затирать: "Почему стоите? Протестуете?". Начали грузить нас троих. На законные требования об основаниях сказали, для установления личности. Даже с паспортами. Капитан буквально сказал, что насрать ему на незаконность задержания. Сидим уже где-то час. Надеюсь, что отпустят.Это я к чему. Не бойтесь. Хуже будет, но хотя бы стыдно не будет перед будущими поколениями.
Мы с вами
Слава Украине
Отличный комментарий!
Вторжение в Украину 2022 Киев Украина Военные преступления политика
В центре Киева прогремело несколько взрывов.
В Киеве после обстрела есть раненые и погибшие, сообщила «Суспильному» пресс-секретарь ГосЧС Светлана Водолага.
СМИ сообщают о взрывах в Хмельницком и Житомире. Также появилась неофициальная информации о взрывах в Тернопольской и Львовской областях и о прилётах ракет в Ирпень, Запорожье, Днепр и Винницу.
Медуза.
Владимир Зеленский отреагировал на массированный ракетный обстрел Украины 10 октября. Президент просит оставаться в укрытиях.
Как отметил президент, "229-й день нас пытаются уничтожить и стереть с лица земли. Вообще. Уничтожить наших людей, которые спят дома в Запорожье. Убить людей, которые едут на работу в Днепре и Киеве".
Зеленский заявил, что воздушная тревога не утихает по всей Украине. "Есть попадание ракет. К сожалению, есть погибшие и раненые. Очень прошу: не оставляйте укрытий. Берегите себя и своих родных. Держимся и будем сильными", - добавил он.
Вторжение в Украину 2022 торговый центр политота
Я могла быть там
Знаете, с начала войны я видела сама и слышала многое. От друзей, коллег, родственников. От тех, кто на оккупированных территориях. Кто на свободных. Кто в районе боёв или сидит в подвалах.
Но никогда ещё я не задыхалась так сильно, видя фотографии разрушений. И сейчас расскажу почему.
Буквально перед войной, за пару месяцев, я приехала на НГ в Херсонскую облатсь к родственникам МЧ. Мы уехали из Запорожья, где жили 4 года вместе, сначала в общежитии, потом снимали квартиру.
Квартира была шикарной, прелестные хозяева и пять минут ходьбы до нашего ТЦ Аврора, где я работала в кинотеатре. Жарила попкорн, наливала напитки, убирала залы, проверяла билеты и желала приятного просмотра. В том ТЦ я регулярно ходила кушать в шикарную бургерную, в азиатский фастфуд и ресторанчик "Крыша Мира" в который сегодня утром прилетела ракета.
На этом фото видно бар. Дальше вход в залы, билетная касса. Теперь это выглядит так.
А вот по этой улице я регулярно ходила забирать свои посылки из "Розетки", а ещё в свой универ.
Тут мы хотели пообедать и всё никак. А в это МРТ ходила моя подруга.
Для кого-то - это просто фотографии. Читая их в новостях, мы осознаём, что "вот это пиздец, конечно". Но для кого-то это удар, который выбивает воздух из лёгких. И мысль "Сегодня я могла быть там..."
Ведь в моих планах было выехать в Запорожье. А в более ранних - мы собирались там жить дальше, искали работу и... хорошо, что не нашли...
На данный момент подтвердили 1 погибшего человека и 4 раненных. Этот список может пополнится. Боюсь увидеть в этом списке знакомое имя (прилёт был очень рано, потому моих коллег не было там, но могли быть знакомые охранники и тд)...
Отличный комментарий!
https://meduza.io/feature/2022/04/08/po-vokzalu-kramatorska-udarili-raketoy-s-nadpisyu-za-detey-pogibli-39-chelovek-v-tom-chisle-chetyre-rebenka
Ведь всего за месяц до этого я рассматривал вариант ехать с того вокзала.
Там мог стоять я с котом в корзинке.
Сука. Опять слезы.
Я после той новости целый месяц ничего делать не мог.
И если для кого-то война это что-то где-то далеко, то для каждого из нас к несчастью это личное и касается каждого :(
Ирпень армия россии мародерство Россия Украина Вторжение в Украину 2022 запрещено в РФ политика
Российский оккупант ограбил квартиру жительницы Ирпеня и сфотографировался на Polaroid. Однако военный преступник РФ забыл у женщины дома фотографию.
Вернувшаяся домой из эвакуации жительница Ирпени нашла свою квартиру разграбленной денацифицированной российскими военными. Те украли у женщины оставшиеся дома золотые украшения.
Один из "денафикаторов" нашёл Полароид женщины и сделал на него фото, однако, видимо незнакомый с технологией устройства, он увидел лишь чёрную картинку, поэтому выкинул аппарат и фотографию. Российский вояка не знал, что картинка проявляется через какое-то время, поэтому забытое им, в следствии бегства российских войск с Киевщины, фото попало в руки украинских властей.
В Министерстве Цифровой Трансформации Украины через нейросеть установили личность "денацификатора" — им оказался 26-летний Никита Третьяков из Ростова-на-Дону.
рашизм Россия Украина Вторжение в Украину 2022 Боевые пидоры политика
Я вот недавно узнал, что оказывается в путинской России создали своё импортозамещение "Миротворца"
Запустили эту конторку ещё два года назад, первоначально закидывая туда признанных в России "иностранными агентами" и тех, кого эта организация хотела бы увидеть в числе "иностранных агентов", но с недавнего времени их деятельность несколько изменилась и охват лиц, которых они считают врагами сильно увеличился, а с марта 2022-го они вылезли из соц. сетей и создали свой сайт, который, правда, по крайней мере у меня не работает (https://inagenty.ru/)
Всё это дело носит гордое название "Комитет Защиты Национальных Интересов", а с недавнего времени и второе не менее громогласное название:
И кто же по мнению этого "Комитета" у нас "предатели" и "враги национальных интересов"?
А вот буквально ВСЕ, кто хоть чем-то и как-то высказался против политики российской власти или российского вторжения в Украину. Они прям гребут всех в свои списки "Врагов" и "Предателей" России: от блогеров и политиков до врачей и программистов; при чём даже просто за цитату или пост в интернете, и вся информация об этих людях выкручивается так, чтобы создать к ним максимальную ненависть ради ненависти, и очерненяют ради очернения. Ну и да, они там буквально клеймят фото людей "врагами" и "предателями" Сами поглядите на этот трындец:
В-общем, да. Они там самые натуральные фашисты во всей своей красе.
А вот как отреагировал попавший в эти списки украинский телеведущий Дмитро Комаров:
Были у этих Орков и аккаунты в Twitter и Facebook, но Twitter их заблочил, а Facebook в России уже всё. Но ещё у них есть Телеграм:
https://telegram.me/komitetnacinter
Предлагаю его дружненько завалить репортами, ибо нехрен Рашизму плодиться.
Для тех, кто этим ещё не занимался, но желает, вот инструкция:
1. Зайти в группу, не присоединяясь к ней.
2. Нажать в правом верхнем углу на кнопку с тремя точками (либо нажать на название канала в том же поле сверху (над сообщениями))
3. Выбрать ПОЖАЛОВАТЬСЯ, а затем выбрать ДРУГОЕ.
В комментарии пишем нечто вроде: Канал несет угрозу государственному суверенитету Украины и разжигает ненависть и распространяет пропаганду при содействии правительства РФ
Отличный комментарий!
.
.
.
Может быть после велодорожек.