Соратник Навального Вадим Кобзев не смог доказать политическое преследование для визы. Вадим проходит по делу ФБК, на него повесили долг на 225 млн, 4 раза арестовывали, обыскивали и угрожали убить. Германия посчитала, что этого мало для визы.
Сегодня родная мать в телефонном разговоре назвала меня "Иудой" и пригрозила сдать меня ФСБ. Я никогда не скрывал, что поддерживаю Украину в этой подлой войне. На все посты с "признаниями" я говорил: "Не обижайте мам, они простые женщины, выросли при тоталитаризме и многое могут не понимать, так сформировано их мировосприятие.", а теперь я просто разбит. Я знаю, она не будет "стучать", но "слово не воробей". Я очень опустошен. Мне очень больно. Я никому об этом не говорил, да и не знаю что сказать...
"Россия, одумайся, ты одурела!" - Юрий Карякин, 1993 г.
Развернуть
Отличный комментарий!
> Я знаю, она не будет "стучать" Ничего ты не знаешь, беги из страны.
Рамзан Кадыров доставлен с Москву с подозрением на коронавирус, уже диагностировано поражение легких
У главы Чеченской Республики подозревают коронавирус, сообщает телеграм-канал Baza. Накануне Кадырова доставили на самолете в одну из лучших клиник в Москве.
«На первые симптомы недомогания Кадыров стал жаловаться еще несколько дней назад, однако сначала списывал это на ОРВИ. Но позже его состояние начало быстро ухудшаться и врачи рекомендовали ему обратиться в московские больницы. Судя по медицинским данным, у Рамзана Ахматовича уже диагностировано поражение легких. Правда, пока диагноз COVID-2019 поставлен ему под подозрением», — пишет источник.
По состоянию на 21 мая в Чеченской Республике было официально выявлено 1026 заболевших коронавирусом. 11 человек уже умерли, 635 — выздоровели.
Посетители железнодорожного вокзала в Екатеринбурге жалуются на то, что их перестали пускать с туристическими ножами. Сложившуюся ситуацию туристы называют абсурдом. Как быть без ножа в походе или на рыбалке — загадка, а охранники, по их словам, не приемлют даже маленькие складные ножи в чехлах.
— Нож в чехле, лежит в рюкзаке. Лезвие ножа тоньше 2,5 миллиметра, его нельзя считать оружием. Не пускают ни со стороны поездов (из тоннелей), ни из города. На возражения охрана просто отвечает: «У нас приказ, жалуйтесь руководству», — рассказал E1.RU читатель.Об аналогичных случаях пишут и в сообществе «Ураловед». Там собралось немало туристов, которых на вокзале развернули даже с перочинными ножиками.
— Полный абсурд! Люди недоумевают, как теперь ходить в походы (а в многодневных походах без ножа точно никак). Не говоря уже о грибниках, если такие правила к лету не отменят, — объяснил екатеринбуржец.
Вероятно,скоро ожидается запрет провозить вилки, ремни, бритвенные и иные лезвия а так же шнурки на обуви. Под запрет может так же попасть садово-огородный инвентарь, хозяйственные и специализированные инструменты. С новым пробитым дном!!!
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняютоппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Короткая выжимка для тех кому лень смотреть: Кац: Мой план, надо объединиться и свергнуть Путина. Наки: Это не план, это общие слова, в чём план. Кац: Ну как, план в том, что надо вместе придумать уже более конкретно. Наки: Мы не может придумать конкретно, мы не знаем как будет проходить выборы. Кац: Ну значит придумает более конкретно позже, но начать налаживать отношения надо уже сейчас. Наки: Так с тобой никто не хочет налаживать отношения, ты со всеми посрался. Кац: Да я ни с кем не срался, я наоборот предлагаю дружить. Наки: А твоя аудитория пишет гадости, это ты их надоумил. Кац: Это интернет, всем пишут гадости, я к такому не призывал. Наки: Но они пишут и это из за тебя. Кац: Ну я ещё раз скажу чтобы не писали, но я не могу отвечать за каждого. Наки: Ты вообще зачем говоришь писать что-то своей аудитории, напиши напрямую. Кац: Я пишу, они не хотят со мной встречаться. Наки: Ну так потому что у тебя плана нету. Кац: Да есть у меня план, план в том чтобы создать штаб, где мы уже вместе договоримся о том как лучше действовать. Наки: Сколько ты штабов создавал? Кац: Ну так сразу и не скажешь, ну пару раз было. Наки: И как успехи? Кац: Ну Путина ещё не свергли, но были результаты на местах и как раз лучшие результаты когда работали вместе. Наки: Мне вот люди ещё тогда писали гадости и это из за тебя. Кац: Опять из за меня. ну я же не писал тебе гадости, это другие люди, я тут при чём. Наки: А ты вот в твитере тоже пишешь гадости и быстро меняешь мнение. Кац: Я не меняю мнения, я двигаюсь в одну сторону, против власти. Наки: Нет, ты пишешь, что мы все может повлиять на выборах, а потом пишешь что понятно было нарисуют. Кац: Ну так это разные вещи, понятно что нарисуют всегда, но повлиять мы можем, не на циферку голосов, а на мнение людей в их головах, через процедуру выборов. Наки: Вот опять ты выворачиваешься, поэтому никто и не хочет с тобой работать, ты просто хочешь откусить кусок аудитории у ФБК. Кац: Я не хочу откусывать ничего. Давайте это будет называться план Навального и он сам его придумает и везде будет главным ФБК, а я буду поддерживать и гнать туда аудиторию, но план должен быть как голосовать и расширить аудиторию против Путина, а не как тактически не ходить голосовать, потому что там всё равно нарисуют. --- итоги голосования в телеге 62% Кац, 38% Наки --- Кац: Очень приятно, вот вам единрожка розовый, как неплохой символ чего-то хорошего и невозможного, может стать символом этой компании, как когда то была жёлтая уточка. Наки: Я не представитель ФБК, мне ваще насрать будете вы объединяться или нет, я пришёл чтобы сказать тебе что ты мудак, которого никто не любит и меньше пизди в твитере. Кац: Хорошо, постараюсь меньше писать хуйни, чтобы со мной проще было дружить. Финита ля комедия. От себя отмечу что смотрю все ролики обоих и Каца и Наки. У наки хорошие сводки с фронтов и сиайти разборы, а Каца хорошие общие планы того что происходит в мире политики. Аудитории явно не пересекаются на все 100% у ФБК своя аудитория, у Ходорковского люди постарше, у кого-то помладше и так далее. Так что план Каца в том, чтобы объединить их звучит как вполне здравая идея. Доёбывать Каца в том, что у него здесь и сейчас нету чёткого плана в 3 шага как свергнуть Путина, это хуета. Кац должен что сказать? Ребят, кароч бля, 20 лет нихуя не можем, но я понял. в общем 1. Бегит. 2. Голосоват. 3. Свергат. Теперь точно сработает, так? ну ясно же что нужна компания, но под общим флагом. Придумать символ. тот же единорог начал форситься. Поедлить зоны ответственности, типо ФБК на вас вот эти ютуб каналы и вот эти сми зарубежные у вас там есть связи. Кац на тебе вот такие ролики и помирись вот с этими вот, а то они не хотят с нами работать, если ты в команде. Ходорковский ты должен то и это. Вот тут бабки попросим, тут завербуем этих. Вот про это говорим, про это не говорим, но делаем. параллельно открываем айти отдел хацкеров, которые взломают электронное голосование и поднасрут с подсчётами. Вот этот канал не смущает говорить хуйню и айдитория у него конспирологическая, да, Кац не одобряет, но мы ж объединились. так что большинством голосов даём задачу этому каналу вбросить что на предвыборных участках в захваченных территориях будут заложены бомбы, чтобы туда побоялись идти бюджетники и прочие кто будет голосовать под автоматом. Я хз, это я уже лично от себя хуйни накидываю, но суть вы поняли. Если Кац лично будет предлагать любой вариант. то можно просто доёбывать его и критиковать на каждый из пунктов. И так до бесконечности. И выборы уже пройдут, а весь интернет всё ещё будет рассказывать что вот твой пункт 2 хуйня, а пункт 3 точно не сработает. Потому что не будет идеальных пунктов и до всего можно будет доебаться. И не всё стоит выкладывать на весь интернет, потому что и враг тоже слушает. Поэтому и нужно собраться и договариваться лично в своём штабе, а не публично в интернетах после того как Кац предложит гениальные планы. А когда команда навального созреет до плана, за день до голосования, тогда уже не будет времени объединяться, спросить или поддерживать. Просто поставят перед фактом, наш плане такой, кто из оппозиции не согласен, те предатели. И если Кац скажет: я не согласен. Снова накинутся на него, что вот опять ты со всеми посрался. Кароче, радует что 62% понимает что надо топить против Хуйла уже сейчас. не радует что даже среди оппозиции 38% считает, что нахуй оппозицию как единую структуру, будем просто слюнями обтекать на конкретного плогера который нам нравится и если он скажет что если проголосовать за Путина, то вот будет ржака, то в рамках борьбы против Путина мы радостно побежим голосовать за Путина, потому что Кац всё равно мудак. В общем не будет никакой консолидации как минимум в эти выборы. Хуйло пойдёт на второй срок. Вся надежда на ВСУ и на западное вооружение. Война продолжается, домой я не возвращаюсь. Спасибо товарищи россияне за ваш выбор, обращаюсь к тем 38% и спасибо тем Zэтникам, которых процент от общего числа не знаю. Вы все пиздец как помогаете закончить войну и привести мир в прорядок и вселяете мне надежду на это общество и этот мир.
Не знаю, я устал от этих смехуёчков, по правде говоря. Сколько насмехались над "курятниками" в начале...
Наки каждый день уже больше года рассказывает о том, как Россия несёт чудовищные, катастрофические потери, как офицеры-долбоёбы уничтожают состав в бессмысленных атаках без прикрытия, как используется техника 50-х годов и о том, как у России нет ни ма-лей-ше-го шанса перед совместной мощью Украины и запада.
Да только что-то не происходит катастрофы, и тон разговоров всё больше перетекает от вопроса "удастся ли разгромить Россию в этом году" к "может ли она победить".
Отличный комментарий!