Когда просто убрать из госдумы недостаточно, и нужно ещё и куда-нибудь подальше выслать из страны
![политика,политические новости, шутки и мемы,Наталья Поклонская,ссылка,Кабо-Верде Наталья Поклонская станет послом России на Островах Зеленого Мыса Депутат Госдумы Наталья Поклонская станет послом России в Республике Кабо-Верде, расположенной на Островах Зеленого Мыса. Ее кандидатура может быть одобрена в самое ближайшее время,политика,политические новости, шутки и](http://img0.reactor.cc/pics/post/%D0%BF%D0%BE%D0%BB%D0%B8%D1%82%D0%B8%D0%BA%D0%B0-%D0%9D%D0%B0%D1%82%D0%B0%D0%BB%D1%8C%D1%8F-%D0%9F%D0%BE%D0%BA%D0%BB%D0%BE%D0%BD%D1%81%D0%BA%D0%B0%D1%8F-%D1%81%D1%81%D1%8B%D0%BB%D0%BA%D0%B0-%D0%9A%D0%B0%D0%B1%D0%BE-%D0%92%D0%B5%D1%80%D0%B4%D0%B5-6879392.png)
Для людей вроде меня, понятия не имеющих, где это вообще
Для людей вроде меня, понятия не имеющих, где это вообще
Скандалом с патриотическими силами и пабликами в соцсетях, в том числе близкими к бизнесмену Евгению Пригожину, обернулась выставка «Битва за Мариуполь». В минувшие выходные её проводили в Пушкинском районе Петербурга.
По данным Z-каналов, якобы чиновники районной администрации не захотели видеть литеры «Z» и «V», а также «фигурки Гиви и Моторолы», объяснив это в том числе и тем, что ряд артистов отказались выходить на сцену рядом с милитаристской символикой.
Такую позицию транслировали и публичные деятели, например лидер «Справедливой России» Сергей Миронов («Господам и госпожам из администрации пора определиться: или они поддерживают президента и СВО, или покидают госслужбу»), и пользователи, чьи аккаунты во «ВКонтакте» напоминают страницы ботов (например, у них нет аватарок).
Вице-губернатор Петербурга Борис Пиотровский объяснил «Фонтанке», что произошло на фестивале «День русской славы», в рамках которого проходила выставка.
«Заместитель главы района обратила внимание организаторов тематической выставки на некорректное оформление экспозиции. Она включала в себя трофейные предметы с нацистской и фашистской символикой. Согласно федеральному закону демонстрация таких предметов запрещена, если экспозиция не содержит соответствующих разъяснений», — рассказал он.
По его словам, рядом с этими экспонатами находилась символика специальной военной операции России на Украине, а это, отметил Пиотровский, создавало «провокационное, двусмысленное сочетание». Замглавы администрации Пушкинского района рекомендовала ограничить доступ в шатер детям младше 18 лет и разместить предупреждение «18+».
«Такое вмешательство вызвало у организаторов эмоциональную реакцию и превратное толкование произошедшего. Вместе с тем экспозиция продолжила свою работу до конца фестиваля», — добавил чиновник.
В разгар президентской кампании на видеоблогера и менеджера ютьюберов с миллионами подписчиков Даниила Комкова вышла знакомая рекламщица и предложила поработать на Кремль. Он открыто поддерживал Владимира Путина, участвовал в мероприятиях Putin Team и привлек к политической рекламе блогеров своего агентства — Марьяну Ро, Илью Белова, Игоря Синяка и других. Сейчас Комков судится с бывшими заказчиками — по словам менеджера, его обманули больше, чем на 10 млн рублей за несколько реализованных проектов. Среди них — съемка агитационных клипов, поддержка блогерами Дня России и продвижение прокремлевских платформ. Соня Гройсман встретилась с Комковым, чтобы разобраться в этом конфликте, и заодно узнала, сколько платят за такие клипы, как готовятся продвигать временного губернатора Санкт-Петербурга, почему рэпер Фейс удалил твиты про выборы, а популярные паблики «Вконтакте» написали опровержения о трагедии в Кемерово.
В интернете размещен ролик с обращениями популярных российских актеров театра и кино к Владимиру Путину с просьбой не подписывать закон о создании единого федерального регистра, содержащего оцифрованную информацию о гражданах страны. За сутки видео с хештегом #мынецифры посмотрели более 230 тыс. пользователей видеохостинга YouTube. Однако 8 июня закон, ранее принятый Государственной думой и Советом Федерации, с подписью президента был опубликован на официальном портале правовой информации.
Обращение в ролике записала, в частности, народная артистка РСФСР Светлана Крючкова. По ее словам, закон ведет россиян «к выжженному на руке номеру, как в гитлеровских лагерях». «Тогда уж выдайте всем полосатую одежду, чтобы удобней было следить за нашими передвижениями даже из космоса. Заодно и на пижамах кто-нибудь опять заработает», — сказала Крючкова.
Мысль о цифровом концлагере поддержал певец и актер Александр Розенбаум. Он отметил, что его «генетическая память» не позволяет согласиться с новым присвоением людям номеров.
«Подумайте покрепче, государственные мужи. Личность должна быть свободной, имеющей право на свою частную жизнь, которая не должна попадать ни в чьи руки, кроме членов семьи. Идентификация людей до номера, до скотского положения, по сути, — это нехорошее дело. И вы такими законами придвигаете наступление полной нехорошести», — заключил Розенбаум.
Народный артист РСФСР Александр Михайлов сказал, что в России «сегодня время Люцифера, а это имя переводится очень просто — человек цифры». «Я не хочу быть человеком цифры. Я обращаюсь к своему президенту. Владимир Владимирович, подумайте, прежде чем подписать этот закон. Лично я не смогу голосовать за нашу новую Конституцию, когда будет продавлен этот чудовищный закон. Простите меня, меня это очень волнует», — заключил Михайлов.
Актер и бывший православный священник Иван Охлобыстин назвал закон «людоедским» и лишающим россиян прав на личную жизнь, а его принятие вопреки протестам сотен тысяч людей рассматривает как акт государственной измены. «Я уверен, что наш президент никогда не подпишет этот закон. Ведь он настоящий президент и ведет нашу страну к процветанию, а не в концлагерь, где у нас даже имен нет, а только номера», — сказал Охлобыстин.
Своими опасениями по поводу угроз, связанных с принятием закона о едином регистре, поделилась Мария Шукшина, дочь Василия Шукшина и Лидии Федосеевой-Шукшиной. По ее словам, учитывая специфику страны, базы данных со всем, что государству известно о своих граждан, уже завтра окажутся на черном рынке и попадут в руки преступников. «Нажатием одной кнопки они смогут узнать, есть ли у семьи банковские счета, а значит, есть ли чем поживиться и в квартире, где семья живет. Бедные окажутся еще более незащищенными. „Черные риелторы“ увидят прочерк в графе со сведениями о родственниках напротив фамилии одинокой пенсионерки и будут знать, что за этого пожилого человека некому будет вступиться», — привела примеры Шукшина.
Критикуемый закон, который 8 июня после подписания президентом был опубликован на официальном интернет-портале правовой информации, направлен на систематизацию сведений, содержащихся в государственных и муниципальных информационных ресурсах, напоминает ТАСС. Единый информационный ресурс будет включать сведения о физическом лице — гражданах России и иностранцах, которые проживают в стране. Сведения разделены на базовые (фамилия, имя, отчество, дата и место рождения и смерти, пол, реквизиты записи акта гражданского состояния о рождении и смерти, СНИЛС, ИНН) и дополнительные (семейное положение, родственные связи).
В качестве оператора регистра выбрана Федеральная налоговая служба, на которую также возлагаются функции по защите содержащейся в нем персональной информации. Ранее глава службы Даниил Егоров заверил депутатов Госдумы в том, что ресурс будет защищен. По его словам, информация о населении будет храниться не в одном месте, а в разных центрах обработки данных, что «полностью соответствует законодательству о персональных данных». При этом Егоров уточнил, что регистр не будет содержать биометрических, медицинских сведений, а также данных о вероисповедании лица.
Законопроект, разработанный и внесенный в парламент правительством РФ, вызвал неприятие со стороны значительной части российского общества.
З.Ы. Вообще я думал, что такой реестр давно уже существует. Потому что ещё в 2013-м году ко мне на улице подошли 2 патрульных с проверкой документов, отвели к своей машине, там на ноуте вбили мой номер паспорта и получили по нему всю инфу обо мне (не только паспортные данные, но и место учёбы, данные из военкомата, данные из ПФР и ещё какие-то, дальше не вглядывался)
Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.
«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах.
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями.
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов.
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ».
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад».
В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей.
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого».
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей.
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах.
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует.
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью».
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг».
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут.
Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять».
Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников.
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед».
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию.
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Отличный комментарий!