низкие расходы на науку
»госдума школа гаджеты политика
В Госдуме предложили запретить ученикам приносить в школу смартфоны дороже 5000 рублей, чтобы снизить "расслоение в обществе".
Зампред комитета Госдумы по образованию и науке Борис Чернышов предложил министру просвещения Ольге Васильевой запретить детям использовать в школах гаджеты, которые стоят более пяти тысяч рублей."Эту инициативу нужно внести в регламент школы — равенство учащихся в этой сфере пойдет им только на пользу", — пишет депутат в письме к Васильевой, которое есть в распоряжении РИА Новости.
Парламентарий пояснил, что, по его мнению, дорогая техника подчеркивает социальное расслоение в обществе, заставляя детей из необеспеченных семей чувствовать себя ущемленными, поскольку не каждый родитель может позволить себе купить ребенку гаджет за 10-20 тысяч рублей.
"Я предполагаю, что эта ограничительная мера вызовет двойственную реакцию в обществе и понравится далеко не всем. Но я уверен в ее необходимости. Так дети смогут соревноваться не в том, чей смартфон или планшет дороже, а соперничать в человеческих качествах — уме, сообразительности, чувстве юмора и так далее. А чтобы все время быть на связи с родителями, детям достаточно простого кнопочного телефона", — заключил он.
Ранее Васильева поддержала идею полного запрета гаджетов в школах.
https://ria.ru/amp/society/20180904/1527771245.html
Китай кнр социальный рейтинг социальный кредит магазин продукты Цифровой ГУЛАГ политика
В Китае открылся первый магазин с "бесплатными" продуктами
Китайские власти запустили сеть продуктовых магазинов, в которых граждане с высоким рейтингом "социального кредита" могут "бесплатно" получать продукты. Деньги на это берутся с налогов граждан с низким социальным рейтингом.
Это первый в мире подобный эксперимент. Он станет ещё бóльшим стимулом для граждан КНР заслужить себе высокий социальный рейтинг.
Как работает система социального рейтинга в Китае? По своей сути "социальный кредит" – это система, которая в автоматизированном режиме и в реальном времени стимулирует определённое поведение граждан и осуществляет самоцензуру. Она состоит из нескольких блоков: слежки и мониторинга поведения, оценки действий каждого конкретного человека и механизма поощрений и наказаний.
Вот как это работает на практике. Житель одного из городов, где работает система (это, например, город Сучжоу) получает изначальную сумму баллов на своём социальном счёте – это 1000 единиц. Таким образом, на старте все поставлены в равные условия.
В дальнейшем эта сумма может расти или уменьшаться в зависимости от поведения человека. Кстати, аналогичные правила действуют и в отношении юридических лиц – компании оценивают на соответствие экологическим, юридическим и социальным нормам.
Единый информационный центр анализирует в режиме онлайн поведение по 160 тысячам параметров, которые поступают из более чем 142 учреждений, а также от банков, системы наблюдения на улицах и т.д.
Когда сумма баллов вырастает до 1050 и больше – такому образцовому гражданину присваивается высший рейтинг – ААА. Рейтинг от 1000 баллов – это престижная категория А+, больше 900 баллов – средний уровень B, а меньше 849 – это маргинальная категория C. Граждане с количеством баллов менее 599 попадают в чёрный список категории D, и не могут работать даже таксистами. Фактически, они становятся изгоями общества.
Это уже происходит – по состоянию на апрель 2018 года недостаточный рейтинг благонадежности стал причиной отмены 4,25 млн поездок на скоростных поездах и 11,1 млн перелетов на самолете, сообщило издание "Global Times".
С "низкоранговыми" боятся даже разговаривать: если система это заметит, то снизит социальный рейтинг. Плюс, может произойти публичное порицание – всем друзьям и знакомым расскажут об этом "неблаговидном" поступке.
Зарабатывать баллы можно с помощью добросовестного поведения и совершая хорошие поступки. Положительную "карму" приобретают, участвуя в благотворительной деятельности, заботясь о пожилых членах семьи, через хорошие отношения с соседями, с помощью донорства, через наличие хорошей кредитной истории и отсутствие нарушений правил дорожного движения. И вместе с этим, плюс сколько-то баллов принесет и поддержка правительства.
Таким образом, выражение одобрения властей и компартии может признаваться как распространение нужных ценностей и давать плюсы в рейтинг.
Аналогично и обратное – за критику руководства или оппозиционную деятельность (участие в протестах, распространение антиправительственных сообщений или порочащих компартию и правительство слухов) – могут списывать баллы.
Кроме этого, вычитать баллы могут за нарушение правил дорожного движения, участие в деятельности сект или финансовых пирамид, за частые покупки алкоголя и сигарет или недостаточную помощь стареющим родителям.
Поздравляем китайских товарищей с правильным начинанием. Только не стоит радоваться. Китай – это мировая испытательная площадка по внедрению новых социальных технологий (как, например, автоматические камеры с распознаванием лиц, по которым теперь лидирует не КНР, а UK).
Отличный комментарий!
совок СССР были времена печаль грусть тоска картинки песочница политоты политика
Советский Союз — это когда бабку древнюю, мою соседку, ещё девчонкой большевики взяли и переселили из подвала в нормальную квартиру. Бесплатно.
Советский Союз — это когда образование бесплатное, включая высшее, и при этом самое высококачественное в мире.
Советский Союз — это когда на нефтедоллары строятся пионерлагеря и детские санатории, а не яхты с блядями стоимостью как большой противолодочный корабль и не двухэтажные авиалайнеры на 500 человек в личное пользование.
Это когда ты ходишь по улицам, блядь, родного города, а он колючей проволокой не опутан, и камеры наблюдения на каждой помойке не понатырканы, как в концлагере, и менты без автоматов и без дубин даже, а преступность при этом одна из самых низких в мире, а уличная так тем более.
Это когда по телевизору не гламурные сраки в розовых стразах, и не трупы горой, а что-то, что думать заставляет.
Индия Искусственный Интеллект Deepfake двойные стандарты длиннопост политота
В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
минфин конфискат политика
Минфин решил конфисковывать подозрительные накопления россиян
Соответствующий законопроект внесен в правительство. Пока остается неясным, кто будет осуществлять проверки в отношении законности получения денежных средств и какова будет минимальная сумма, попадающая под подозрение.
Министерство финансов подготовило поправки в Гражданский и Бюджетный кодексы, которыми предлагается перечислять в Пенсионный фонд России (ПФР) денежные средства граждан, законность получения которых невозможно доказать. Об этом пишут «Известия» со ссылкой на пресс-службу ведомства.
Минфин готовит поправки в ст. 46 и 146 Бюджетного кодекса в части уточнения перечня доходов бюджета ПФР. «В Гражданский кодекс сейчас вносятся уточняющие поправки, что конфисковано в установленных случаях может быть не только имущество, в отношении которого не представлены доказательства, подтверждающие приобретение имущества на законные доходы, но и денежные средства в случае отсутствия доказательств законности их получения», — заявили в пресс-службе. Там уточнили, что поправки в Бюджетный кодекс нужны для синхронизации его с Гражданским.
На основании закона, который был принят в рамках пенсионной реформы 2018 года, в бюджет Пенсионного фонда уже должны перечисляться «конфискованные денежные средства в результате совершения коррупционных правонарушений, а также денежные средства от реализации конфискованного имущества, полученного в результате совершения коррупционных правонарушений».
В Минфине отметили, что законопроект внесен в правительство. В нем указано, что новые нормы могут вступить в силу уже в декабре текущего года. При этом в ведомстве пока не сообщили, кто будет осуществлять проверки в отношении законности получения денежных средств. Кроме того, в министерстве пока не определились, какова будет минимальная сумма, которая может вызвать сомнение контролирующих органов.
В настоящее время в пользу государства изымается только имущество, если выясняется, что оно было приобретено на доходы, законность которых не подтверждена. В конце 2019 года Конституционный суд уточнил, что имущество может быть конфисковано у любых лиц, а не только у чиновников и членов их семей, на которых распространяется действие закона о контроле за расходами госслужащих.
Как сообщают «Известия», в большинстве фракций Госдумы эту инициативу поддержали из-за дефицита средств ПФР и падения его доходов. «Пенсионный фонд надо укреплять. Одним из источников могут быть недоказанные доходы. Но это говорит о том, что накопительная страховая система у нас не работает», — заявил газете первый зампред «Справедливой России» Михаил Емельянов. По его словам, инициатива Минфина является попыткой «заштопать» эту систему.
Заместитель председателя фракции ЛДПР Ярослав Нилов в разговоре с «Известиями», комментируя эту инициативу, сказал: «Мы вносили поправки, чтобы такие средства направлялись целевым способом на рост пенсий, а не просто размывались в общем бюджете и экономили ежегодный размер трансферта ПФР из федерального бюджета». Однако, как уточнил депутат, на этот законопроект правительство дало отрицательное заключение.
Первый заместитель председателя комитета Госдумы по бюджету и налогам Валентин Шурчанов (КПРФ) сообщил газете, что сейчас Пенсионный фонд испытывает большую нехватку средств. «По моим подсчетам, реальный дефицит составляет около 650 млрд руб., хотя в бюджете он ниже (согласно данным на 2020 год, дефицит ПФР равен 118,4 млрд руб.)», — сказал он. При этом депутат добавил, что даже дополнительный источник средств вряд ли полностью исправит ситуацию.
В Пенсионном фонде не стали комментировать «Известиям» инициативу Минфина.
Как сообщает газета, в 2020 году Пенсионный фонд впервые получил деньги от продажи конфискованного у чиновников имущества, которое было не подтверждено доходами. Генеральный прокурор Игорь Краснов, выступая в июне на заседании Совета Федерации, заявил, что с начала года эта сумма составила 21,4 млрд руб.
https://www.rbc.ru/society/28/07/2020/5f1f5a089a794776de211b01?from=newsfeed
Отличный комментарий!