Результаты поиска по запросу «

данное сообщение

»

Запрос:
Создатель поста:
Теги (через запятую):



песочница политоты Война в Украине ...политика 

Пидоры, имею вопрос

Обьясните, хоть эти сведения особо и не расскрываются, но все таки может кто то имеет представление.

Вот сейчас мы наблюдаем боевые действия в братской Украине. Сколько процентов армии\техники\военной мощи РФ участвует в ней? Ну плюс минус? А то забуксовал

Спасибо
Развернуть

песочница политоты telegram Буквы на белом фоне песочница ...политика 

Что за ключи требуют у телеграмма

Думаю почти каждый уже слышал, что ФСБ требует ключи шифрования у телеграма. В коментариях я очень часто натыкался на вариант "дайте линк на авто генерацию, пусть веселятся", что малость меня забавляет. Ну, во-первых, в отличии от депутатов, в ФСБ явно найдется адекватный человек, который доходчиво обьяснит, что атаку перебором ФСБ и само в состоянии организовать. Во-вторых -- "универсальный ключ" на самом деле есть, но не настолько волшебный.

Для начала разберемся, а что такое асиметричное шифрование? По сути это два пароля: один шифрует, но с его помощью нельзя расшифровать. Второй -- расшифровует. Плюс ко всему (что тоже очень важно) имея на руках пароль шифрования, нельзя определить пароль расшифрования. Допустим я создал пароль для шифрования (открытый ключ) 1234 и знаю что для расшифрования нужно применить фразу "abcd" (закрытый ключ). Открытый ключ помещается в свободный доступ, каждый кто хочет мне написать просто использует его и передает меседж мне, и уже только я его могу прочитать. Обменявшись двумя открытыми ключами, можно настроить защищеную переписку. Именно это в свое время и легло в основу PGP (система шифрования email), против которого уже службы США вели дела вплоть до 1996 года (что, кстати, обнадеживает).

Теперь про уязвимость даного алгоритма. Перебор безполезен в виду малой скорости шифрования и генерации ключей. Сгенерить всевозможные варианты тоже не реально ни по времени, ни по обьему данных. Остается только "Человек по середине". Принцип такой атаки -- контроль всех пакетов обмениваемых между двумя пользователями, вплоть до их подмены. Т.е., когда я выкладываю в публичный доступ свой открытый ключ, ФСБ меняет его на "0000" и знает что расшифровка с помощью "aaaa". Далее, когда человек отправляет письмо мне, даный пакет перехватывается, вскрывается, читается содержимое, шифруется уже моим ключем и отправляется уже мне.

Дабы избежать такой атаки, можно:
- анализировать время отправки/приема сообщения. Если задержка слишком большая -- значит кто-то есть посередине.
- использовать надежного посредника.
В случае телеграмма -- это открытый ключ их серверов, вшитый непосредственно в клиент. Он используется для шифрования канала обмена открытыми ключами в секретных чатах. Исходя из этого, несложно догадатся что за ключик запрашивает доблестное ФСБ...

Но все это касается секретных чатов, которые не то что на серверах не хранятся, а и между клиентами не синхронизируются. Что же касаемо обычных чатов: тут все завязано на мобильный телефон. И как по мне, нахер пресовать забугорный меседжер, если достаточно "договорится" с нужной тройкой и получить нужные пины для входа. Тут есть проблема -- нотификация о новом входе. Но это так -- лирика...

P.S. Вполне возможно, что данные морды запрашивают не просто ключ, а прям требуют удобный интерфейс с различными плюшками. Причем затраты на разработку даной "фичи" перекладывают на сам меседжер. Либо еще более упоротое решение: в создании секретных чатах чтобы сам телеграм выполнял подмену публичных ключей, хранил их и предоставлял ФСБ.

Типа материал:
https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%B8%D0%BF%D1%82%D0%BE%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0_%D1%81_%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D1%8B%D0%BC_%D0%BA%D0%BB%D1%8E%D1%87%D0%BE%D0%BC
https://ru.wikipedia.org/wiki/PGP
https://tlgrm.ru/techfaq#%D0%B0%D1%82%D0%B0%D0%BA%D0%B0-%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA-%D0%BF%D0%BE%D1%81%D0%B5%D1%80%D0%B5%D0%B4%D0%B8%D0%BD%D0%B5
Развернуть

хирург вата в головном мозге песочница ...политика 

«ВАЛИ ОТСЮДА»! НЕАДЕКВАТНЫЙ ПУТИНСКИЙ «КОРИШ» — БАЙКЕР «ХИРУРГ» ВЗБЕСИЛСЯ НА ВОПРОС БЕЛОРУССКОГО ЖУРНАЛИСТА О СОЮЗЕ СССР С ГИТЛЕРОМ


Российские байкеры отправились в европейский тур «Дорогами Победы — на Берлин». Но задержались в Беларуси — на этот раз им отказали в пересечении литовской границы.

Возмущенный отказом литовских пограничников лидер «Ночных волков» Хирург не сдерживал эмоций и в ответ на вопрос иностранного журналиста грубо оттолкнул его со словами «вали отсюда», передает Агримпаса ссылаясь на РБК.

Мотоциклистов с красными флагами СССР и российскими триколорами не пропустили в Литву, которая лежала на пути «Ночных волков» к Берлину. Несмотря на то, что главному «волку» – Хирургу, въезд в ЕС запрещен, он убежден, что таки «возьмет» Берлин, говорится в сообщении. Общаясь с журналистами на эту тему, друг российского президента Александр «Хирург» Залдостанов нахамил журналисту, заявив, что у того «бардак в голове», после чего толкнул его со словами «вали отсюда».

Отметим, что в прошлом году «Ночные волки» также пытались проехать колонной в Берлин, но своими заявлениями и действиями спровоцировали аннуляцию виз и запрет на пересечение границы. В этом году история повторяется – Польша и Литва уже запретили байкерам въезд.

Специально для путинских тормозков уточним, что Вторая Мировая началась в 1939 году, когда СРСР вместе с Германией Гитлера совместно захватила и разделила Польшу. Советуем почитать также и о пакте Молотова-Рибентропа.

Что тут можно добавить, как говорил классик: «Волынская резня!»
Развернуть

Вторжение в Украину 2022 Горящая вата ебанутые записи ватников с социальных сетей ...политика 

э Приграк Новороссии По информации с мест, сейчас укропы в преддверии наступления выпиливают наше ПВО высокоточным оружием. Хаймарсов не жалеют. Свои БПЛА самолетного типа часто используют как наживку и провокацию. Могут себе это позволить. По сути, это борьба за небо, за разведку и за
Развернуть

Отличный комментарий!

Шел 407 день исчезновения Украины из истории. Войска РФ все так же пытаются взять Бахмут.
BeeMeR BeeMeR07.04.202314:48ссылка
+124.4

Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост ...политота 

В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира

Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.

ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас

«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах. 

Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями. 

Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду». 

Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов. 

Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.

«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ». 

По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад». 

Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов 

В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей. 

По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».

политота,Приколы про политику и политиков,Индия,страны,Искусственный Интеллект,Deepfake,двойные стандарты,длиннопост

По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого». 

Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей. 

Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах. 

Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует. 

По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью». 

По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг». 

«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут. 

Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается

Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять». 

Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников. 

По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц. 

Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед». 

Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса. 

Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию. 

Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США. 

В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.

https://meduza.io/feature/2024/04/28/v-indii-dipfeyki-i-drugie-ii-tehnologii-ispolzuyut-v-predvybornoy-agitatsii

Развернуть

ихтамнет ОРДЛО панорама сосать Война в Украине Россия Украина армия россии ...политика 

Суд РФ официально признал наличие российских войск на Донбассе

В деле о взяточничестве райсуд Ростова приговорил к 5 годам человека, который чуть не сорвал поставки провианта россиянам в оккупированных районах Донецкой и Луганской областей.

Кировский райсуд Ростова-на-Дону признал наличие российских войск в ОРДЛО в деле о взяточничестве одного из россиян.
Согласно материалам суда, обвиняемый поставлял продовольствие российским военным, которые находились на оккупированной части Донецкой и Луганской области. Забалуев поставил под угрозу поставку продовольствия российским военным в мае-ноябре 2019 года, которые "находились на боевом дежурстве" в ОРДЛО.

"В период его трудовой деятельности в его обязанности входили организация и выполнение обязательств по закупке и продаже продовольствия и создание необходимого запаса на складе в (адрес). Данное продовольствие предназначалось для отправки в воинские части Вооруженных сил РФ, дислоцирующихся на территории "ДНР" и "ЛНР", — указано в решении суда.

https://focus.ua/voennye-novosti/500757-sud-rf-oficialno-priznal-nalichie-rossiyskih-voysk-na-donbasse-foto
Решение суда: http://судебныерешения.рф/64073623
хэнивххи#,политика,политические новости, шутки и мемы,ихтамнет,ОРДЛО,панорама сосать,Война в Украине,Россия,страны,Украина,армия россии
Развернуть

Отличный комментарий!

Niissoks Niissoks16.12.202100:40ссылка
+82.6

Украина Львов киберполиция ...политика 

Во Львове разоблачили 27-летнюю женщину, которая продавала в Сети собственные интимные фото и видео. Теперь ей грозит до 7 лет лишения свободы. Об этом сообщили в Нацполиции Львовской области.

По данным полиции, женщина с марта 2020 до февраля 2021 в одном из телеграмм-каналов продавала собственные интимные фото и видео. Поэтому полиция провела обыски в квартире подозреваемой. Правоохранители обнаружили и изъяли компьютерную технику, банковские карточки и другие вещественные доказательства. Согласно выводам экспертов, фото и видео, которые содержались на этих носителях, относятся к продукции порнографического характера. 27-летней львовянке уже объявили подозрение по ч.1 и ч.3 ст.301 Уголовного кодекса Украины

Украина,страны,Львов,киберполиция,политика,политические новости, шутки и мемы

А теперь объясните мне, как это работает? В том же Львове живет некая порнозвезда Джозефина Джексон. Она не то что не прячется, а охотно раздает интервью, рассказывает о своих заработках, мечтает стать самой популярной порноактрисой и даже не планирует завязывать. Почему ей можно, а вот этой нельзя? Чтозанахуй происходит?

Развернуть

Отличный комментарий!

*К1БЕРПОЛ1Ц1Я* Розшукувати телефонних шахраТв та opraHbaTopiB електронних nipaMifl *юберполщ1я* Заарештувати fliBHHHy, що продавава cboï ню фото та вщео
4apik 4apik03.03.202120:50ссылка
+51.8

песочница Steam Игры ...политика 

ЙО-ХО-ХО и бутылка рома:(

СПОСОБ ОПЛАТЫ Выберите способ оплаты Visa ▼ • Средства за покупки с помощью этого способа оплаты можно вернуть только на кошелёк Steam. Узнать больше. • В данный момент покупка с помощью выбранною способа oiuiaibi невозможны. Приносим извинения за доставленные
Развернуть

Отличный комментарий!

могилизация Война в Украине Россия призыв песочница политоты ...политика 

Уважаемые пидоры, прилетел тут ко мне посредством телеграма через знакомых знакомых файлик, в котором якобы список подлежащих мобилизации в первую волну, слитый из минобороны. Честно скажу, подтвердить его подлинность я не смогу и никак не гарантирую, что это именно правдивая информация. По словам, которые мне попали с файлом - как минимум установлена личность некоторых людей, которые там есть, что они реальны. Далее, увы, ничего больше нет. Если кто-то как-то сможет подтвердить подлинность - благодарствую. 

Скачать можно тут (довольно большой txt, который медленно открывается, но антивирус на него не ругался)

Я искренне надеюсь, что вы не найдете себя там. 

МЫ ЗАБИРАЕМ ВАС В ЗАТОЧЕНИЕ И ЛЕГАЛИЗОВАННОЕ РАБСТВО. ГДЕ БЕСКОНТРОЛЬНО БУДЕМ ИСПОЛЬЗОВАТЬ ВАШИ ЖИЗНЕННЫЕ РЕСУРСЫ. ПОКА ПОД УГРОЗОЙ НАСИЛИЯ ВЫ ЛИБО НЕ ПРЕВРАТИТЕСЬ В БЕЗВОЛЬНУЮ ПОСЛУШНУЮ МАРИОНЕТКУ. ЛИБО ОТ БЕЗЫСХОДНОСТИ НЕ ПОПЫТАЕТЕСЬ УБИТЬ СЕБЯ (ИЛИ ОКРУЖАЮЩИХ),могилизация,Война в

Развернуть

twitter новости нигерия ...политика 

В Нигерии заблокировали Twitter: соцсеть удалила твит президента

twitter,интернет,новости,нигерия,страны,политика,политические новости, шутки и мемы

В Нигерии заблокировали Twitter. Такое решение приняли в правительстве после того, как соцсеть заблокировала твит президента.

Об этом сообщает CNN.

В правительстве заявили, что деятельность Twitter в стране приостановлена на неопределенный срок.

"Федеральное правительство приостановило на неопределенный срок деятельность службы микроблогов и социальных сетей Twitter в Нигерии", - говорится в сообщении правительства.

Twitter обвиняют в том, что компания "позволяет использовать свою платформу для деятельности, которая может подорвать корпоративное существование Нигерии".

При этом, такой запрет последовал сразу после того, как два дня назад Twitter удалил твит президента Мухаммаду Бухари. Лидер Нигерии написал в нем о том, что расправится с людьми на юго-востоке страны, которых он обвиняет в атаках на общественную инфраструктуру в регионе.

"Многие из тех, кто сегодня плохо себя ведет, слишком молоды, чтобы осознавать разрушения и гибель людей, которые произошли во время гражданской войны в Нигерии. Те из нас, кто провел 30 месяцев в полях и пережили войну, будут говорить с ними на том языке, который они понимают ", - написал Бухари на своей странице.

Этот твит нигерийцы посчитали оскорбительным и принялись его ретвитить с гневными комментариями. После этого Twitter удалил твит Бухари.

Источник: РБК

Развернуть
В этом разделе мы собираем самые смешные приколы (комиксы и картинки) по теме данное сообщение (+1000 картинок)