Результаты поиска по запросу «

фейковый аккаунт

»
Запрос:
Создатель поста:
Теги (через запятую):



Украина ЛНР ДНР Россия песочница политоты песочница ...политика 

На войне погиб 20-летний Антон Туманов, житель Козьмодемьянска Республики Марий Эл.

http://www.novayagazeta.ru/society/65075.html
Начальнику военного комиссариата Республики Мапий-Эл. по г. Кдаьмодемьянск, ■2--Гог-/г; ♦V микшсгг-Ч“*« ''.ятя* ЮСС>" 71 I 1 ’Ш (МУ .■.гШпы ,.. лЩ аойокоедя члдаР* 27777 С якв*-Щ 1094е^>л ■Ж . /0*& Ж- ' Прошу известить гр. Туманову Елену Петровну, проживающую по адресу: *«*-•,* Л АН «,
Развернуть

Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост ...политота 

В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира

Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.

ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас

«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах. 

Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями. 

Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду». 

Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов. 

Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.

«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ». 

По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад». 

Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов 

В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей. 

По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».

политота,Приколы про политику и политиков,Индия,страны,Искусственный Интеллект,Deepfake,двойные стандарты,длиннопост

По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого». 

Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей. 

Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах. 

Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует. 

По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью». 

По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг». 

«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут. 

Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается

Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять». 

Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников. 

По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц. 

Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед». 

Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса. 

Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию. 

Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США. 

В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.

https://meduza.io/feature/2024/04/28/v-indii-dipfeyki-i-drugie-ii-tehnologii-ispolzuyut-v-predvybornoy-agitatsii

Развернуть

Украина Кадыров песочница песочница политоты Я Ватник разная политота ...политика 

Херасе, не стесняется, видимо миротворческой операции быть.
Рамзан Кадыров 4 ч. - Ф Укропатриоты, вы для начала заберите с московских панелей и саун всех ваших девок, и долги за газ верните, а после уже и петушитесь. Нравится Комментарий Поделиться 1ь,Украина,Кадыров,Рамзан Кадыров, рамзанка дыров,песочница,песочница политоты,политика,политические
Развернуть

Навальный песочница стадион Зенит Арена ...политика 

Развернуть

ТЦ "Зимняя вишня" ...политика 

Ольгинцы начали работу по пожару в Кемерово.

Пользователи соцсетей обнаружили аномально высокое количество дизлайков у роликов, связанных с пожаром в торговом центре «Зимняя вишня» в Кемерово. На ютьюбе такое обычно происходит с видео, содержащими критику власти, — в первую очередь с роликами политика Алексея Навального. В комментариях к видео из Кемерово пользователи также обнаружили массу «кремлеботов».

https://meduza.io/feature/2018/03/26/u-rolikov-o-pozhare-v-kemerovo-ochen-mnogo-dizlaykov-i-podozritelnyh-kommentariev-tak-byvaet-s-oppozitsionnymi-video


Вот несколько комментариев предполагаемых «кремлеботов» к одному ролику «Москвы 24»:

* жуть какая-то! администрация ТРЦ должна понести ответственность за это вместе с застройщиками.

* Администрация здания показала верх халатности. Не было сделано объявление о пожаре. Да что там! Администрация ТЦ даже не проконтролировала, чтобы все эвакуационные выходы были открыты! Вот свиньи!

* Что же,ждем результаты экспертиз,чего гадать,мне правда кажется что это халатность администрации тц потому что не звучала пожарная сигнализация

* А куда смотрела администрация тц?вот к чему приводит такое халатное отношение

* Кошмар… Люди своими руками выбивают металлическую дверь. Там архитектор или администратор себя нормально чувствовали, когда строили этот ящик Пандоры?



Будьте предельно осторожны, не поддавайтесь на провокации и под баномёт.
Развернуть

Отличный комментарий!

butterbean butterbean 26.03.201816:18 ссылка
-28.6
Кремлеботского в нём аккаунты, уличённые в кремлеботстве.

Похоже основная канва, которую они продавливают - во всём виновато руководство ТРЦ.
koka koka 26.03.201816:21 ссылка
+31.5
Я не кремлебот, но вина руководства ТРЦ прямая, как и инстанций на всех уровнях которые этому попустительствовали. Просто вот слабо верится, что это прям такая система быстро реагируемых кремлеботов. Другое дело, если владельцы ТРЦ на прямую связаны с кем-то из властей. Но опять же просто слабо верится в такую слаженную и оперативную работу кремлеботов. ИМХО.
Gilbert13 Gilbert13 26.03.201816:28 ссылка
+20.4
Трагедия в Кемерово это очередное доказательство, что армия проверяющих существует только затем, чтобы обирать малый бизнес, и к обеспечению безопасности не имеет никакого отношения. И всё равно находятся вредители, которые пишут, что нужно вводить ещё более строгие стандарты и ужесточать проверки.

Усиление надзорных органов и ужесточение государственных стандартов безопасности приводит к тому, что бизнес начинает экономить на реальной безопасности. Потому что взятку придётся давать всё равно, и проще откупиться от всего сразу. Тем более, что в результате таких проверок, у бизнеса на руках появляется государственный документ, который страхует их от ответственности в случае если что-то идёт не так.

Государственные стандарты безопасности существуют чтобы выполнять ровно три функции, ни одна из которых не имеет отношения к обеспечению безопасности.

Во-первых, это коррупционный налог, с которого кормятся полицейские и чиновники. Во-вторых, это позволяет закрывать неугодный бизнес у не связанных с властью предпринимателей. И, наконец, третья и последняя их функция, это создание инструментов избежания ответственности в случае трагедий.

Работает это очень просто. К бизнесу приходит госпожнадзор или ещё какой-нибудь дармоед, получает деньги и выдаёт заключение, что у него всё в порядке с пожарной безопасностью. Именно в выдаче таких оберегов заключается работа всех государственных надзорных служб.

Благодаря этому оберегу, когда происходит трагедия, наказать виновных становится невозможно. Ведь если у бизнеса есть бумага от государства, в которой говорится, что у них с пожарной безопасностью всё порядке. Значит, доказать ответственность такого бизнеса возможно только через доказательство вины государственного органа, который выдал заключение о безопасности. А это делает государство соучастником убийства сорока детей в Кемерово. Попробуйте доказать это в суде.

Так было с пожаром в “Хромой Лошади”, где погибло 156 человек. Так было с крушением теплохода “Булгария”, где погибло 122. Так будет в Кемерово, где козлом отпущения тоже объявят обстоятельства. Семьям пострадавших выпишут нищенскую компенсацию за счёт налогоплательщиков, а все допустившие эту трагедию, как всегда избегут наказания.

Государство никогда не отвечает за свои преступления. А государственные стандарты это метод, с помощью которого преступники страхуют себя от ответственности и избегают наказания.

Единственное, что может заставить владельца бизнеса заботиться о безопасности своих посетителей, это личная ответственность. Именно от неё его освобождают стандарты и заключения государственных служб.
©
LifeHou5e LifeHou5e 26.03.201816:45 ссылка
+35.1

Татарстан Россия терроризм кукмор ...политика 

Победа терроризма на дальних рубежах не удалась...

В МВД РТ подтвердили: 16-летнего подростка, напавшего на отдел полиции в Кукморе, застрелили 09:10,30 октября 2020 Новости В Кукморском районе Татарстана 16-летний подросток забросал бутылками с зажигательной смесью отделение полиции, после чего напал на сотрудников. При задержании молодой
Развернуть

Отличный комментарий!

uegene uegene30.10.202010:33ссылка
-61.7
Мужики, вяжем вот этого!
Giin Giin30.10.202010:35ссылка
+38.8

песочница политоты война ...политика 

бляди

Не могу прийти в себя от истории Оксаны Кичаткиной, прямо колотит меня.

Леонид Кичаткин находится под номером 15 в журнале вечерней проверки псковской роты десантников, который обнаружили украинские военные в захваченном БМД-2. Он старший лейтенант сержант, и согласно его профилю ВКонтакте ему было 30 лет. Этот профиль не появлялся поначалу в списках профилей ВК псковских десантников, которые начали циркулировать после обнародования документов. 

Но потом в субботу поздно вечером кто-то заметил, что на странице Леонида появилось объявление от имени его жены, и скриншот пошел гулять по сети:

29 записей Леонид Кичаткин дорогие друзья!!!!!!!!!! Лёня погиб похроны в понедельник в 10 часов утра отпивание в Выбутах.Кто хочет с ним попрощатся приезжайте всех рады будем видеть.Если что мой номер 89532540366 Жена Оксана________________________________ вчера в 16:14 | Ответить Мне


(скриншот побольше, архив)

В то же время на странице ВК жены Леонида Оксаны были слова о горе и похоронах. Она также сменила свою профильную картинку на фотографию мужа:

310 posts ■ Oxana Kichatkina в понидельник в 11 утра в выбутах похраны.... Today at 11:21 am | Reply Like V ■ Oxana Kichatkina updated her profile picture: I ivC0 ▼ Today at 5:12 am | Reply Share ^3 Like V 14 Oxana Kichatkina Друзья гроб Лёни привезут в течении пяти дней я всем сообщу когда


(архив)

А на странице Светланы Викторовой, которая находится в списке "best friends" у Леонида и Оксаны (вероятно, она мать Оксаны, но я не уверен), тоже появилась траурная фотография с стихотворением о том, какой он был хороший человек. Я не буду здесь цитировать эти бесхитростные стихи, посмотритев архиве, если вам интересно. 

На следующий день, в воскресенье, трагедия стала на глазах превращаться во что-то вроде фарса. 

Днем страницу ВК Леонида Кичаткина удалили, и его профиль в "Одноклассниках" тоже. Примерно в это же время Оксана Кичаткина (или кто-то другой, у кого был контроль над ее аккаунтом) удалила все скорбные статусы со своей страницы и написала следующее: "мой муж жив и здоров и сейчас отмечаем крестины дочери". Эта запись висит там и сейчас (вечер понедельника 25-го августа) и Оксана не заходила в свой ВК с тех пор, как запись была сделана в 4 дня в воскресенье.

В тот же день два разных человека объявили, что дозвонились до Оксаны по телефону, указанному в похоронном статусе на странице Леонида (скриншот выше), и поговорили с Оксаной и живым Леонидом. Об этом написал в твиттере @vasyunin. Сначала он написал "поговорил только что с "погибшим псковским десантником" ", потом добавил:

Иуа (31+) а уаБуипт • Аид 24 про "погибшего десантника из Пскова": Леонид и Оксана из данного объявления утверждают, что живы, просят не звонить X Леонид Кичаткин в т.ук.сотЛс156322087 .Ъ X Леонид Кичаткин в rn.vk.com/id56322087 [3 Леонид ВОЙТИ |7Д Леонид войти Леонид Кичаткин заходил вчера


Примерно в это же время журналист Максим Середа записал (через скайп) и выложил в ВК свой разговор с Оксаной и Леонидом (по его утверждению, по их утверждению). Запись длится 4 минуты 11 секунд, на ней сначала отвечает маленькая девочка, потом берет трубку Оксана, предлагает поговорить с мужем, потом говорит Леонид, не показывает своим ответом знакомства с слухами о своей смерти, но и не удивляется особо, говорит, что это недоразумение, он жив-здоров. Середа далее писал в ВК, что в следующем разговоре (который он не выложил) Оксана и Леонид утверждали, что их ВК взломали.

Все это время на странице Светланы Викторовой остается скорбный пост с стихотворением и фотографией Леонида. Намного позже, к 11 вечера примерно, исчезает и он.

Вот так. То есть версия, которая напрашивается после этих новостей - это что кто-то взломал ВК Леонида и Оксаны, написал запись на странице Леонида от имени Оксаны (телефон ее узнал из ее взломанного ВК, например), написал скорбные статусы от имени Оксаны, пустил все это гулять в сеть, и все, чтобы доказать, что Кичаткин умер, а на самом деле он жив, здоров, и не был вообще на Украине, видимо, а празднует крестины дочери с женой. Но остаются сомнения. Зачем все это делать, если Кичаткин на самом деле жив и сможет легко это доказать и эффектно разоблачить фейк? Почему висел скорбный статус на странице Светланы Викторовой? Зачем хакеру давать в объявлении реальный номер телефона Оксаны, ведь это абсолютно никак не работает на фейк, а может работать только против? Итд., еще всякие мелочи.

Но все же я склонялся к этой точке зрения, потому что альтернатива выглядела совсем какой-то чудовищной. Подумайте: ведь кто-то (мы понимаем, кто) должен был надавить на Оксану Кичаткину, убедить ее стереть записи и написать ложь о том, что муж жив, и потом еще как-то организовать (переадресацией номера или просто взяв у нее телефон), чтобы какие-то посторонние специально инструктированные люди отвечали на телефон от имени Оксаны и Леонида... и зачем все это? Новых фотографий/видео все равно не будет, как долго можно скрывать смерть человека? Какая-то совсем уже конспирологически-гебешная версия выходит, мне просто не верилось во все это.

... И вот сегодня появилось известие о том, что в Пскове, в Выбутах, как и было заявлено, прошли похороны десантников, и конкретно названы могилы Кичаткина и Осипова (имя Осипова нигде до сих пор не всплывало). В Пскове прошли закрытые похороны местных десантников.

Что могло побудить семью согласиться скрывать смерть Кичаткина? Говорили мне вчера, когда я спорил в этом в ВК, а я не хотел верить - все это банально, делается просто, говорится, что пенсию будут платить, только если семья будет молчать и скрывать, или еще дополнительную компенсацию обещают. Ну вот так, видимо. Или если хотите дополнительную небанальную версию, могу предложить. У Оксаны Кичаткиной есть сын (не от брака с Леонидом), который уже вырос и сейчас как раз проходит срочную службу. Небанальную версию можете закончить сами. Что на самом деле было, я не знаю, и вряд ли когда-то узнаю.


Развернуть

popopoka artist Роскомнадзор ...политика 

Роскомнадзор уже и к popopok'е постучался.
Вопрос на миллион: Что же такого в этой картинке, что её потребовалось удалить?
Ricky @Ricky019022 ■ 48m Why did you delete this comission? Q 1 U 1 popopoka© @popopoka_ O 35 £ Replying to @Ricky019022 i got a mail from the russian governement because it was against their rules:( so just in case anything bad happens, i deleted it 12:55 PM ■ Apr 10, 2021 ■ Twitter Web
Развернуть

Я Ватник песочница политоты боинг Военные преступления Германия разная политота ...политика 

Мнение немецкого канала о сбитом боинге



Кстати по прежнему нет сведений от ссаных наглосаксонских экспертов кроме предварительного заключения с общим посылом "мол что-то попало в самолёт и он упал".
Развернуть

ГРУ Скрипаль Петров и Боширов Мишкин и Чепига ...политика 

Сотрудник ГРУ Мишкин во время учебы работал официантом. Его узнали бывшие коллеги

Один из фигурантов дела об отравлении Скрипалей в Солсбери Александр Мишкин (по версии Bellingcat и The Insider, это настоящее имя Александра Петрова) во время учебы в Военно-медицинской академии имени Кирова в Петербурге работал официантом в бистро «Гарсон». Об этом Дождю рассказал арт-консультант Николай Евдокимов, который в 2000 году работал с Мишкиным и узнал его в интервью Маргарите Симоньян.

По его словам, «Гарсон» тогда было одним из самых «достойных мест» Санкт-Петербурга, и официант в нем получал хорошие деньги. Мишкина Евдокимов называл «общительным, в меру открытым, в меру циничным, нормальным» молодым человеком. «Давал какие-то рекомендации по здоровью. <...> Он точно учился на врача. По-моему, это была военно-медицинская академия», — вспоминает он.

политика,политические новости, шутки и мемы,ГРУ,Главное управление Генерального штаба, Главное разведывательное управление,Скрипаль,Петров и Боширов,Мишкин и Чепига
Александр Мишкин. Фото: 2000-2001 гг. 

По словам Евдокимова, он узнал «Петрова» еще после интервью Маргарите Симоньян. После этого он написал в фейсбуке пост и обратился к коллегам по «Гарсону», которые согласились, что «Петров» похож на бывшего официанта Александра Мишкина.

Уже после того, как Bellingcat и Insider выяснили, что настоящая фамилия Петрова Мишкин, Евдокимов обнаружил фото с ним из бистро «Гарсон».

Администратор кафе, которое сейчас находится на месте «Гарсона», также вспомнила Мишкина и сказала, что знакома с ним. По ее словам, она «давно» случайно встретилась с ним на Финляндском вокзале, где они поговорили.

политика,политические новости, шутки и мемы,ГРУ,Главное управление Генерального штаба, Главное разведывательное управление,Скрипаль,Петров и Боширов,Мишкин и Чепига

 L ^. ,4,политика,политические новости, шутки и мемы,ГРУ,Главное управление Генерального штаба, Главное разведывательное управление,Скрипаль,Петров и Боширов,Мишкин и Чепига

Фотографии Александра Мишкина из паспорта, водительских прав и британской визы

Александр Мишкин переехал в Петербург в 1995 году, где через два года поступил в Военно-медицинскую академию имени Кирова (ВМедА) и окончил факультет, подготавливающий врачей для военно-морского флота, по специальности гипобарическая медицина. По подсчетам одного из этих выпускников, на которые ссылается Insider, Мишкин окончил ВМедА в 2003 году.

«Не ранее 2007 года и не позднее 2010 года» Мишкин переехал в Москву, где получил подставную личность, в том числе второй внутренний и заграничный паспорт на имя Александра Петрова, писал Bellingcat.



Источник: https://tvrain.ru/news/agent_gru_mishkin_vo_vremja_ucheby_rabotal_ofitsiantom_ego_uznali_byvshie_kollegi-473326
Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме фейковый аккаунт (+1000 картинок)