Еще день назад 28-летний иркутянин Игорь Тимошевский был обычным супервайзером и организатором свадеб, а сегодня благодаря украинской пропаганде стал «убийцей» и «насильником». На одном из якобы новостных сайтов его личные данные и фото опубликовали с примечанием: «Рядовой Игорь Тимошевский. Был в Буче». О том, что его обвиняют в расстреле мирных жителей, он узнал от корреспондента «Комсомолки». А уже через несколько минут начали поступать первые угрозы, но не только в адрес сибиряка, но и членов его семьи.
"- В 2016-м году меня призвали на срочную службу, после чего я заключил контракт и уехал в Хабаровск, - поделился с корреспондентом «КП» - Иркутск» Игорь Тимошевский. - Был младшим сержантом в артиллерийских войсках, но в 2019 году уволился и вернулся в Иркутск. В военной спецоперации на Украине участия никогда не принимал."
З.Ы. Это никак не отменяет всех тех преступлений, которые совершила и продолжает совершать российская армия в пригородах Киева и на всей остальной территории Украины. Но всё же нужно быть аккуратнее в публикации таких вот списков. Пропаганда обожает цепляться за такие вот частные случаи (как правило либо создавая их самостоятельно, либо выдумывая), чтобы потом кричать про то, что и всё остальное - фейк. Так было со сбором подписей кандидатов в мосгордуму (когда к сборщикам подписей внедрили крысу, которая внесла подписи нескольких умерших людей, на основании чего кандидатам отказывали в регистрации, типа что собрано не 6000, а всего 5993, после чего говномёты кричали про "мёртвых душ за Соболь"). Так было с первым видео из Бучи, где на кадрах разглядели движущуюся руку (оказавшуюся грязью на стекле) и встающий труп (оказавшийся искажением зеркала).
Так происходит и сейчас. Этого Игоря Тимошевского уже, за сутки, подняли на знамя наши НТВ и РИА и белорусский tvr.by. К вечеру по всем федеральным каналам пойдёт интервью давать. Допускаю, что, как и в случае с подписями за Соболь, наши намеренно слили украинцам базу, в которой были такие вот заведомо непричастные, чтобы этих непричастных использовать как доказательство того, что и все остальные непричастны.
Не похуй, потому что вот именно благодаря подобной хуйне мы имеем минимум 50% населения РФ которые считают, что там такие же вруны и пидарасы как здесь. Как вы блядь этого не понимаете.
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняютоппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Памфилова заявила, что ЦИК каждый день фиксирует попытки дискредитации выборов в РФ
Председатель Центризбиркома России Элла Памфилова сообщила, что комиссия каждый день фиксирует попытки дискредитировать выборы в России."Как никогда есть желание дискредитировать выборы, снести выборы. И на это работают очень активно. Мы каждый день видим эти информационные потоки, которые направлены именно на это: что в России выборов нет, что обязательно будут фальсификации, что обязательно нарисуют какой-то результат", - сказала Памфилова в эфире радиостанции "Комсомольская правда".По ее словам, сейчас сочинять такие вещи стали "более тонко". "Не такая грубая, откровенная ложь, а такая полуправда. В основном это делают сторонники и любители Запада, но они закрывают глаза на то, что там происходит", - отметила глава ЦИК.
Она добавила, что заранее к ЦИК идет "целый ряд каких-то претензий, что обязательно мы все сделаем плохо, это каждый день навязывают людям". "Поэтому в такой атмосфере приходится объяснять, что это не так, что это неправда", - добавила Памфилова.
Привет реакторчане-жители РФ. По причине того, что в вашей стране банятся все источники умного голосования, а не все люди достаточно компетентны и мотивированы, что бы выискивать ссылки самостоятельно выкладываю их сюда в текстовом формате. Благо я вне железного занавеса и на хую вертел преступный режим, а как оказалось в комментах под постом http://polit.reactor.cc/post/4927747 - жители рф боятся выкладывать сами, т.к. это может стать причиной уголовного преследования. Возможно бросание ссылки на ноунейм для широких масс развлекательный сайт будет более безопасно, тем более в посте отсутствуют ссылки, которые могут распознаваться ботами, а так же текст, а списки я залью картинками, что конечно усложнит поиск, но возможно поможет с безопасностью. Все взято с гуглодоков предоставленных реакторчанами в лс.Сразу же просьба к тем у кого сохранился доступ/скрины - проверьте правильные ли это списки, я читал, что создается много фейков.И наконец ответ на вопрос "зачем я это делаю?" - чем меньше у хуйла и его партии власти, тем меньше пуль будет выпущено по моим согражданам.
Дорогие реакторчане, у которых есть дети, а что государство приготовило для ваших корзиночек с 1 сентября? А Родина решила вплотную заняться воспитанием ваших отпрысков – вы же не справляетесь – и вас самих тоже. С начала нового учебного года вводится цикл внеурочных занятий «Разговор о важном».
В предыдущих сериях здесь, на Джое, я рассказывал, как постепенно верха вместе с министерством просвещения медленно и аккуратно объясняли учителям и ученикам, как правильно воспринимать специальную операцию в Украине. И если до этого власть маленькими глоточками поила школу своей идеологией, то теперь ей надоели полумеры, и она решила просто окунуть нас в бочку пропаганды, как Бари Креститель должника Гарри Топора.
Апрельские методички для учителей истории и Всероссийское родительское собрание, очевидно, не принесли особых результатов: слишком уж неуверенно тезисы Института изучения детства, семьи и воспитания Российской академии образования звучали на фоне материалов из интернета о действительном положении дел.
Праздник 9 Мая в маленьких городах прошел не так, как раньше. Чувствовалось напряжение: одни были напуганы слухами, что в этот день Бог-Император объявит всеобщую мобилизацию на Кадию; другие боялись провокаций на праздники; а третьи молчаливо не надели георгиевские ленточки и даже свои кители с медалями в скромном жесте несогласия. Картина помпезности на экране телевизоров сильно отличалась от картины истинного праздника на улице.
Первым заработал молодежный сектор социальной политики. Активизировались волонтерские и ветеранские организации: «Волонтеры Победы», которые ни рожна не знаю в истории Великой Отечественной», «Юнармейцы» и ветераны Афгана — напомню, что они постепенно вытесняют реликтовых дедов-участников ВОВ. Они стали частью Международной акции «Сад памяти». «Вместе мы вновь высадим 27 миллионов деревьев в память о каждом из 27 миллионов погибших в годы Великой Отечественной войны!» Мероприятие состоялось почти во всех более-менее крупных городах страны. В некоторых населенных пунктах это легло на плечи школы. Детишки сажали деревца, купленные за счет родителей, бабки и дедки из министерств помогали, размахивая руками. Их замы сфоткали и отчитались.
К «Саду» добавилась инициатива каждое утро поднимать флаг России под гимн. Правда потом Кравцов уточнил, что делать это нужно только каждый понедельник. А после добавил, что только при хороших погодных условиях. Аргумент за инициативу был, несомненно, весомый: «А че! Пиндосы же в школе каждое утро поднимают и гимн поют. А мы что — не патриоты?» и «В постсоветское время нам привили [Запад], что поднимать флаг и петь гимн — это стыдно». Итак, первое нововведение: с 1 сентября каждую неделю поднимаем флаг, и все должны петь гимн. Учителя должны разучить сокращенный текст с детьми.
Сразу встает ряд вопросов. Как власти себе это представляют? Уроки начинаются в 8.30. Флаг целесообразно поднимать в 8.00, потому что нужен запас времени, чтобы вернуться в школу, снять верхнюю одежду, прийти в класс и подготовиться к уроку. До этого нужно, разумеется, собраться на построение. Во сколько тогда детям просыпаться и выходить в школу? А во сколько просыпаться тем, кто живет в деревнях и на хуторах, которых школьный автобус привозит как раз к началу урока? А, ну да, «В блокаду люди в четыре утра вставали и ниче!»
Ну, а пока все готовились к экзаменам, Академия Минпросвещения выкатила проект цикла внеурочных занятий «Разговор о важном». Теперь каждый понедельник, сразу после поднятия флага, мы будем «разговаривать о важном» на первом уроке.
В год будет 34 «разговора» - как раз по часу в неделю. Тогда у меня вопрос, а что будет с моим классным часом? «Разговор» полностью поглотит мой классный час или у меня будет формально два классных часа? Тогда это увеличивает нагрузку на учителя и детей, что может не соответствовать норме по загруженности детей.
Если «разговоры» будут каждый понедельник первым или вторым уроком, то чей это будет урок? Если классного руководителя, то тогда и без того плотное расписание станет раком. Если это будет на уроке учителя-предметника, то он стабильно теряет один час в неделю. Представьте, если это один час биологии в неделю.
Теперь расскажу о тематическом наполнении. Уже готов список всех 34 тем. На самом деле авторы цикла просто взяли типчный план воспитательной работы любой отечественной школы и размазали по нему необходимые патриотические темы — перед Золотым Троном отчитались, что тщательно разработали новую программу классных часов.
Что же интересного ждет наших детей:
«Россия — наша страна», «Мы разные, Мы вместе», «День народного единства» и прочее — тут все понятно, прививаем чувство коллективной ответственности и любви к Родине.
Хорошо — когда все дома - очень интересная тема. Судя повсему она будет для того, чтобы ни у кого не возникло желание свалить за кордон.
«День Отца» и «День матери», «Традиции семьи» - вот тут интересно. Сейчас учитель будет потихоньку воспитывать и семью. Проект расчитывает, что и родители будут включены в работу. Причем проскользнула информация, что упор будет делаться на «День Отца». А это значит, что мы начнем развивать традиционные патриархальные ценности домостроя: Отец глава, защитник (герой спецоперации), хранитель скреп и духовности.
Годовщина блокады и прочая ВОВ - этой теме уделено очень много внимания. Как было озвучено министром, сейчас идет активное переписывание истории (и мы знаем кем), поэтому её — историю — надо защитить. Кравцов даже ляпнул ерунду, мол, мы делаем новые учебники, потому что в старых была ложная информация. Сразу возник вопрос, а как это дети всю дорогу учились по ложным учебникам, сертифицированных вашим же министерством?
Несмотря на то, что из 70 часов истории 25 посвящены ВОВ, рассказывается о ней не в полном объеме. Не заостряется внимание на предпосылках. Про Молотова и Рибентропа с разделом Польши можно забыть. Упоминаются только мемные сражения, а многие не менее важные остаются в стороне. И, конечно же, союзники перестали быть союзниками: французы сразу сдались, англичане — лохи и вообще не помогали, американцы — вообще в крысу ждали, на чьей стороне будет выгодно воевать. Сопротивления в Европе не было — одна Россия была против всех. Кстати, отойду от темы, теперь в учебниках истории практически ни слова не будет о Киевской Руси. Не то чтобы не было такого государства, просто... закроем эту тему, окей, дети?
Интересно, что из списка тем пропала годовщина аварии на Чернобыльской АЭС. Интересно, почему?)
Во время презентации нового проекта прозвучало несколько занимательных тезисов. В патриотическом блоке внезапно прописалась идея: «Готовность отдать жизнь за Отечество». Это что получается? Я должен говорить детям, что умирать — не страшно? Потерять ноги и пальцы — это благородно? Несколько раз упоминалось, что нужно повышать доверие к выборам.
«Возмездие настигнет каждого» - очень странная тема появилась в презентации. Речь шла о геноциде советского народа нацистами. Только вопрос, как их настигнет возмездие, если все гитлеровцы мертвы? Или не о них идет речь? Неужели, частью духовно-нравственного воспитания станет мотив мести?
Финальные по поводу всего этого. С одной стороны видно, что государство вплотную взялось за воспитательный процесс правильно настроенных граждан. Но есть предположение, что проработет все максимум две четверти. Вся эта патриотическая деятельность просто не сможет конкурировать с учебной нагрузкой и подготовкой к экзаменам. Мероприятия быстро станут только на бумаге для отчетов. Главное, чтобы Трон был спокоен. Минуй нас пуще всех печалей и барский гнев, и барская любовь.
Отличный комментарий!
Как вы блядь этого не понимаете.