Доклад ООН: боевые дроны впервые атаковали людей в полностью автономном режиме в Ливии, турецкий ква / БПЛА :: скайнет :: ООН (Организация Объединенных Наций) :: политота (Приколы про политику и политиков)

ООН БПЛА скайнет ...политота 

Доклад ООН: боевые дроны впервые атаковали людей в полностью автономном режиме в Ливии, турецкий квадрокоптер Kargu-2 уничтожил живую цель без вмешательства оператора в 2020 году

Инцидент произошёл в ходе столкновений между правительственными силами Ливии и отколовшейся военной группировкой во главе с Халифой Хафтаром, командующим Ливийской национальной армии. Квадрокоптеры-камикадзе Kargu-2 работали в «высокоэффективном» автономном режиме, который не требовал вмешательства человека

ООН,Организация Объединенных Наций,БПЛА,скайнет,политота,Приколы про политику и политиков
Специалист Национального консорциума по изучению терроризма и антитеррористической политики Зак Калленборн считает, что это первый в истории случай полностью автономной атаки робота на человека, и это — «тревожная новость». Калленборн указывает на возможные проблемы с распознанием целей — бортовой компьютер дрона может ошибиться и атаковать мирных жителей

ООН,Организация Объединенных Наций,БПЛА,скайнет,политота,Приколы про политику и политиков


Подробнее


ООН,Организация Объединенных Наций,БПЛА,скайнет,политота,Приколы про политику и политиков
Еще на тему
Развернуть

Отличный комментарий!

Ziebel Ziebel31.05.202117:11ссылка
+45.9
Ziebel Ziebel 31.05.202117:11 ответить ссылка 45.9
Что могут люди против такой грубой силы?
А чем убил то?
Comenasai Comenasai 31.05.202117:16 ответить ссылка -0.6
Самоподрыв
ManKey ManKey 31.05.202117:26 ответить ссылка 9.0
навесили херню типа "клеймора" с подрывом на приближение
Есть всякие варианты...
оу май!
KhdN
NEURAL NET-BASED ARTIFICIAL INTELLIGENCE
Tviker Tviker 31.05.202117:16 ответить ссылка 23.9
Пфф, Шэкли ещё в 53 написал.
ты про птичек?
Да
И восстали машины из пепла ядерного огня.
та же самая проблема, что и с автопилотом. Почему то людей волнует больше, когда ошибается робот, чем когда ошибается человек, даже если первый это делает реже.
AGIMgal AGIMgal 31.05.202117:27 ответить ссылка 24.7
Вполне естественный страх перед ИИ воспитанные в людях киноиндустрией и множественными предостережениями ученых об опасности свободного ИИ. Ну и если совсем банально, проще спехнуть все на злого и коварного ИИ, чем признать то, что люди проебываются куда лучше любого злого ИИ.
Cave Cave 31.05.202117:47 ответить ссылка 2.4
И тем не менее добавлять к обычному пиздецу ещё и возможный пиздец с ии это не то чего нормальным людям хотелось бы.
"Добавлять" или "заменять"?
Culexus Culexus 31.05.202118:09 ответить ссылка -1.0
добавлять. ошибка человека локальна и одиночна. Ии будут тиражироваться тысячами-миллионами. соответственно, и внезапный косяк может возникнуть сразу везде.
villy villy 31.05.202118:17 ответить ссылка 12.7
Самоподрывные коптеры будут тиражироватьсятысячами-миллионами? По чем на алли?
а почему нет? ядро общекоптеровское, а модуль подрыва опционален
villy villy 31.05.202118:32 ответить ссылка 0.4
И что тебе сделает дрон с ошибкой но без модуля подрыва, даже если такое как ты описал случится (нет)?
Волосы винтами подстрижет?
Люди боятся такие системы от непонимания что такое ИИ. Да, ошибка нейросети может быть, но лишь в рамках заданных человеком изначально. От Скайнет человечество намного дальше чем до постройки пирамид в Египте или освоении земледелия, если расположить эти три точки на прямой времени.
Тут надо боятся не ошибки, а осознанного вмешательства в систему. Тысяча таких дронов может натворить примерно как ядерная бомба в густонаселенном городе. Значит и система должна быть защищена от ложного или намеренно предательского запуска как ЯО,
А ещё дрона можно взломать, оружие не человек и легко попадает на черные рынки (а людей обучать надо) а ещё такое оружие проще заставить делать что угодно. И если условно половина солдат откажется убивать мирных людей, то роботы пойдут все сразу.
А если половина палок сломается об мирного жителя, то пистолет осечку не даст. Запретим пистолеты?
Это оружие, а убивают люди. Боятся его в век развития лазеров банально, десятки систем ПВО основанных на технологиях сверхмощных лазеров уже в разработке, а такой дрончик с запасом хода около получаса смешон по сравнению с банальным динамитом или тротилом в поясе смертника. Это сугубо тактическое оружие, оно страшно только если его будут тысячи и десятки тысяч, и кто-то получит доступ к центральной системе управления. Но во-первых, у этой системы не предусмотрено пока центрального управления, а только управление тактическими группами, а во-вторых, такая центральная система будет защищена как современное ЯО. Резюмируя, конкретно эту технологию боятся не стоит.
Лол, логично и обоснованно. Нет.

Косяки, из-за которых ВНЕЗАПНО могут миллионы устройств одновременно наебнуться/наебнуть людей вокруг - это удел голливудских фильмов. Меньше их смотри и больле головой думай.

Баг будет у всех, да, но если он не вылез сразу, значит, он себя проявит только при определённых условиях. Которые не возникнут одновременно в "тысячах-миллионах" мест. А когда где-то он себя проявит, это означает, что у разработчика будет возможность исправить ошибку на других устройствах, где он себя не успел проявить.

Практика подтверждает это. Например, когда у Теслы был случай, что автопилот не среагировал на проезжающий перед нем грузовик, ибо он был без бортов и груза. Это был единичный случай, после которого были приняты меры. Точно так же было с любыми другими неисправностями устройств, когда единичный случай ошибки приводил к расследованию причин и устранению неисправности на всех остальных аналогичных машинах. В крайнем случае к отзыву партии.

И что самое главное, абсолютно то же самое и с людьми происходит. Из-за косяков в управляющем органе - мозге - происходят ошибки, которые так же приводят к трагедиям или проблемам. И это также правится массово после единичных случаев, но уже, например, новыми правилами техники безопасности или переработкой системы подготовки специалистов. Разве что внимания к таким случаем меньше, и на многие проблемы машут рукой как на "человеческий фактор" и забивают болт.

Так что если вместо тысячи солдат с автоматами будет тысяча дронов с минами, никакого "добавления" пиздеца не будет по определению. Хуйню несёшь, меньше жвачку сайфайную смотри про восстания машин.
про ботнеты ты не слышал?
про косяки в процесорах?
хера с два ты по-быстрому что-то подлатаешь.
villy villy 31.05.202120:50 ответить ссылка -2.9
Чем ботнет будет отличаться от дезинформации и иных путей манипуляций противником?
Где я говорил про "починить на коленке" и как это вообще опровергает мои слова?
Culexus Culexus 31.05.202121:05 ответить ссылка -0.8
в мире огромное количество уязвимых устройств, многие из которых уязвимы таким образом, что это не фиксится программно. по-твоему, их разрабы не хотят их сделать защищенными? и чем кардинально отличаются разрабы из теслы и эти?
эти дыры находят всё время, нет никаких признаков того, что их число уменьшается, а не, наоборот, растёт.
а еще могут быть сознательные закладки, или разведанные, но неопубликованные дыры.
как при этом можно быть уверенным, что всё будет заебись, тестеры всё отладят - я хз.

"новыми правилами техники безопасности или переработкой системы подготовки специалистов"
а вот это вообще сказки. специалисты знают, что сишка и плюсы - небезопасные языки, все знают, что 70% косяков - это косяки небезопасной работы с памятью, типичные для таких языков. и кто-то что-то с этим делает? чота не особо.
все оси, вся инфраструктура инета, всё надо менять по-хорошему. разве кто-то этим занимается?
то же самое будет и с тачками с автопилотом, и с дронами.
villy villy 31.05.202123:05 ответить ссылка -2.9
Бля, ты такой охуенный спорщик, я ебу просто. Ты начал с того, что у "тысячмиллионов устройств возникнет внезапный косяк" а теперь мои аргументы о том, что внезапные косяки не случаются одновременно миллионами, пытаешься опровергать словами "ну ничто не совершенно" и примером намеренных атак. Я тоже так хочу вместо перехода от А к Б в споре прыгать сразу по всем буквам трёх десятков алфавитов с видом, как будто они касаются темы, и заодно утверждать, что я якобы говорил не про букву А, а про букву "ёб твою маму".

Ты утверждаешь, будто мегахацкеры при внедрении в армию миллионов дронов смогут централизованно хакнуть их все? Если у таких дронов за каким-то хуем будет общий центр управления, как у каких-то диснеевских суперзлодейских армий роботов, то система безопасности там будет на уровне ядерного оружия. А если нет и ты говоришь, что можно так ронять локальные группировки дронов, то привет, для альтернативы дронов - живых солдат - уже есть подобные "хаки". Целый, блядь, арсенал, позволяющий "ронять" вражеских мясных дронов целыми ротами и батальонами. Называются артиллерия, авиация, ОМП и т.д. Вся разница в том, что если уронят дронов, человеческих жизней прервётся ноль, а если солдат - то соответственно численности подразделения.

Второй абзац вообще пиздец. У тебя глаза на жопе или да? Ты можешь, прежде чем писать свои ответы, сперва попытаться прочитать, на что отвечаешь? Я писал про то, как ликвидируется человеческий фактор. Это когда на складе завхоз Петрович покурил возле бочек с бензином, и после этого у оставшихся в живых работников склада на кпп начинают изымать сигареты с зажигалками.
При чем тут небезопасные языки программирования? Да и вообще, одно дело - программа какого-нибудь выёбистого будильника для продажи миллонам юзверей по два доллара подписка, другое - военные дроны. Ты серьёзно думаешь, что когда будут вскрываться косяки ПО дронов, в генштабах будут сидеть и хуи пинать, потому что "и так схавают", и "ну там работы много"? Максимум до момента, когда жаренный петух в жопу не клюнет.

Короч ну его нах. Уже сто раз себе говорил не лезть в срачи в инете. Потому что каждый второй раз спорщиком оказывается индивид, который за меня все мои аргументы нарисует и успешно их разобьёт, а также будет скакать от одной темы к другой с видом, как будто о них изначально речь и шла. Понимать, что тебе оппонент говорит - нахуй надо, правда? Лучше самому с собой поспорить.
Culexus Culexus 31.05.202123:43 ответить ссылка -0.8
эк тебя порвало.
выдыхай.

я всего лишь предположил, что ты не просто так разеваешь варежку, а слегко понимаешь, о чем говоришь. и что ты способен без сотен текста въехать в контекст. оказалось, нет
villy villy 01.06.202100:21 ответить ссылка -1.8
"Были приняты меры" - это звучало бы обнадеживающе, если бы современные ИИ состояли из набора понятных правил. Но современные нейросетки представляют из себя черные ящики с хуевой тучей непредсказуемых нелинейных связей. И "принять меры" в данном случае не дает никакой гарантии, что этот ИИ не учудит херни в ситуации, которой не было в учебном наборе.
joytt joytt 01.06.202100:31 ответить ссылка -0.5
При ошибке человека - его можно посадить. А ошибка ИИ - сажать прогеров или менеджеров?
Тестировщиков
Новость про невольных тестировщиков
Ну уот поэтому и с ИИ есть ньюансы. Как определить кто виноват?
так с любой рисковой технологией. вот делали бонмбу. представь что они ошиблись (другая физика) и она жахнула в первый раз на 100мегатон и разнесла дома на четверти америки. кто виноват? ученые которые не могли гарантировать результат или вояки которые "да не ссы" хотели получить результат хоть и с риском?

учти что с ядерным оружием такой случай был, когда проебались с изотопом лития, думали он не учавствует в реакции и ошиблись на 10 мегатон в результате.
А если оружие случайно стреляет в случайных людей?
delv13 delv13 31.05.202118:13 ответить ссылка 0.7
Аналогия верная только если конструктор сделал ружьё которое с вероятностью 1% стреляет в глаз стрелка, и решать судить или не судить нужно только на счёт этого процента случаев.
Вот обязательно вам кого-то сажать?

По обстоятельствам. Если командир забил на технические ограничения дрона и пострадали люди - то командира. Если это непредвиденный баг- стрясти с производителя компенсацию, никого сажать не надо. Вот если на производстве кто-то забил на протоколы тестирования/разработки таких технологий - тогда уже садить виновных (или, как обычно, крайних).

Ничего кардинально нового, в общем. Просто правительствам лень заниматься регулированием ещё и этого дерьма.
SSSZ SSSZ 31.05.202118:44 ответить ссылка 0.8
Сажать = брать ответственность
Потому что робота, если он обосрется, в тюрьму сажать смысла нет
Это проблема ответственности. Непонятно, кого наказывать, если робот ошибся, да и робот сам свои ошибки исправить пока не в состоянии.
Например, в медицине, когда врач поставил неправильный диагноз - он получит пизды, т.к. несет ответственность за решение, а если диагноз был поставлен интеллектуальной системой, то непонятно, кому давать пиздюлей: разработчикам? заказчикам? тестировщикам? всем сразу? адольфу? будде? кто все эти люди?
Довольно острая проблема на текущем этапе развития методов ИИ.
Кстати, возвращаясь к собакам - можно представить, что ИИ доведут до такого же сложного и не однозначного по последствиям тренировок состояния (правда дрессировщик работает каждый раз с уникальным случаем, а здесь возможно тиражирование).
Какие меры уже применимые к домашним питомцам и их боевым/служебным случаям можно бы перенести на ИскИн?
>непонятно, кому давать пиздюлей
Никому. ИИ не пустят в продакшен, пока среднее количество ошибок не будет ниже, чем среднее количество ошибок допускаемое людьми, причём оно должно быть существенно ниже, иначе нет смысла выгонять людей и закупать роботов ибо тут ещё социальная часть, которая добавляет людям веса
kosoi kosoi 01.06.202108:22 ответить ссылка -1.0
тогда не будет стимула этот ваш ИИ развивать дальше.
типа, на дорогах теперь гибнет не 1000 человек а 999, и всё, нас всё устраивает?
villy villy 01.06.202115:08 ответить ссылка -0.9
Разница всё же есть.
Задачей автопилота является провести транспортное средство из точки А в точку Б. Нет ничего плохого в том, чтобы полностью отдать эту задачу компьютеру.
Задачей оружия является убийство людей. И тут хотелось бы держать компьютер на коротком поводке.

Начав клепать автономное оружие - потом трудно будет остановиться, автономии будет всё больше, и в какой-то момент апокалиптические сценарии станут уже не такими фантастическими.
xgffy xgffy 31.05.202118:50 ответить ссылка 1.1
если точка Б является человеком то это превращается в убийство людей. кстати очень удобно когда люди компактно сосредоточены. например в домах. больших и высоких домах. хммм...
Видел видео бета-теста автопилота Теслы? В простых условиях ездит хорошо, в сложных дорожных ситуациях творит херню.

А ведь у Теслы топ разработчики ИИ.
joytt joytt 01.06.202100:27 ответить ссылка 0.2
Интересно было бы почитать подробности алгоритма.
Силуэт человека с ружом, конечно, довольно простой для распознавания по сравнению с "чрезвычайно важными" задачами по определению ниггеров на фотках, но всё же.
ValD ValD 31.05.202117:48 ответить ссылка 0.6
Вряд ли силуэт. Скорее анализ тепловизионных данных и карты местности вида: тута наших нет. Ну и может еще что-то.
Отправляется в точку дежурства, активирует режим «убить всё что движется», при обнаружении движения совершает выстрел, забывает о обнаруженном движении, продолжает дежурство до получения команды возвращения
erros erros 31.05.202119:59 ответить ссылка 0.3
Да не, тратить дрон с миной на какую-нибудь кошку или ворону - нафиг надо.
ValD ValD 31.05.202120:02 ответить ссылка 0.0
Grival Grival 31.05.202117:50 ответить ссылка 6.2
Это всяко лучше, чем противопехотные мины, которые вполне автономно срабатывают в 80% случаях на некомбатантах.
Hellsy Hellsy 31.05.202117:57 ответить ссылка 25.5
Ага, а 60 лет жили под прицелом ядерных ракет, управляемых еще более простыми автоматами?!
hast01 hast01 31.05.202118:14 ответить ссылка -1.4
Это ты так военных обозвал или сказок начитался в инете?
DutchL DutchL 31.05.202120:29 ответить ссылка 2.4
Дрон не ошибся. Команда этого самопровозглашенного фельдмаршала ведет гражданскую войну и раскалывает Ливию, не давая утихомирится наконец после свержения Каддафи. И, как всегда, что уже давно не является совпадением, этого фельдмаршала поддерживает Москва. Лавров некоторое время назад выпускал документ, где "предостерегал" от применения правительственной авиации против сил этого Хафтара, хотя казалось бы, где Россия а где Африка. Но это постоянная традиция Москвы- постоянно поддерживать всех маргиналов, если правительство где то против, то Москва непременно за и поддерживает. Мао в 1943, Северная Корея, Хошимин, Пол Пот, Приднестровье, Абхазия...постоянно деятели из той самой страны влезают и поддерживают. Деньги, "калаши", зенитные ракеты...почему то в Москве считают, что именно таким способом они влияют на ситуацию, называется "покачать и посмотреть". Дрон все сделал правильно.
Слава роботам, нашим повелителям!
Stanivuk Stanivuk 31.05.202118:20 ответить ссылка 0.0
С одной стороны да, страшно. А с другой — чем это лучше того что пилоты тех же апачей из 30 мм фугасов как-то расстреляли мирную свадьбу спутав ПЗРК с камерами для съёмки свадьбы? И это только тот случай который мы знаем. А сколько таких о которых мы не знаем? Или чем это лучше солдат, умышленно делающих военные преступления? Почему мы вдруг решили что у человека есть эксклюзивное право на насилие над другим человеком? Дрон не будет грабить, насиловать и издеваться ради забавы. Определил в руках у противника оружие = убил. Всё. Почему страна ведя боевые действия должна подвергать опасности жизни своих солдат? Какая компенсация оплатит матери тело убитого сына? А так будут воевать безликие дроны и по крайней мере будет меньше потерь у более высокотехнологичной страны. Чем выпущенная ракета по принципу «выстрелил и забыл» которая определяет приоритетность цели и может её изменить отличается от этого дрона? Только типом движителя (ракетный вместо 4-ех винтов)?
> Почему ... должна подвергать опасности жизни своих солдат
При этом ещё спросить - почему страну должны волновать жизни чужих граждан? Включая в вопрос мирное население, разумеется. Пока есть уравновешивающий риск, политик, который слишком далеко находится от места исполнения своих указаний, будет хотя бы "статистически" думать во что может ему обойтись потрясание военными мощями.
RIKO_XD RIKO_XD 31.05.202118:23 ответить ссылка 8.3
Опа, Squad
ALLAHU AKBAR
А я думаю - где-то я такое уже видел.


https://youtu.be/UYPSa4xh8BU?t=171
Ko3bMa Ko3bMa 31.05.202118:34 ответить ссылка 0.2
Ko3bMa Ko3bMa 31.05.202118:35 ответить ссылка 1.0
IGKey IGKey 31.05.202118:47 ответить ссылка 10.6
Зашел в камменты проверить, есть ли этот видос.
Учитывая сколько гражданских гибнет от неуправляемого оружия, то хуже не будет.
korall korall 31.05.202119:53 ответить ссылка 1.1
ага, давайте добавлять ещё рисков, хуже не будет
Каких, ещë рисков? Чем это опаснее мин? Кстати мина, в каком то смысле тоже автономный дрон. А контроля за ней ещë меньше.
korall korall 01.06.202100:43 ответить ссылка -0.9
,Мина, лежит и, никого не, трогает. Тем что это ещё один фактор где чтото может пойти не так. Таких рисков.
Ммм, ещё чуть-чуть и будут полноценные дроны, прям как прогнозировали Treyarch ещё в 2012 году...
MQ-27 Dragonfire
iisthiiho*
MQ-27 Dragonfire (или QUAD, переведен как Дракон, проще Драгонфаер, ранее известен как Квадрокоптер) — летающий штурмовой дрон из Black Ops II и Mobile. Встречается на протяжении кампании в миссиях в будущем, и в миссиях Strike Force. Дрон появляется также в
"мирные жители"? на вражеской территории нет "мирных" жителей - есть потенциальное сопротивление
overdozx overdozx 31.05.202121:33 ответить ссылка -5.3
Это не военное преступление, ваша честь
Эти люди даже не были военными
weret1 weret1 01.06.202106:14 ответить ссылка 2.2
цимес в том, что мирняк или бояк был убит, определяется не роботом, а оператором-целеуказателем. и если дрон сделал все сам, то уже сложно сказать, кто там валяется.
MadgrAde MadgrAde 31.05.202123:05 ответить ссылка -1.2
Будущее прекрасно!
mudakisa mudakisa 31.05.202123:38 ответить ссылка 0.0
а столько пиздежа было 100 лет назад - 3 закона робототехники, "1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред..."
Пиздеж был в основном о том какие эти законы хуйня и почему они не будут работать. Но читатели тонкой иронии не уловили и приняли законы за чистую монету.
> и почему они не будут работать
А работать не будут, потому что их даже не позовут. Вообще об этом и стоило бы писать.
Надеюсь они не научат их получать топливо из любой органики
kosoi kosoi 01.06.202108:28 ответить ссылка -0.9
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
Перзидент Роисси
@KermlinRussia
V
«Путин в ООН призвал отменить санкции на лекарства и продовольствие ради борьбы с экономическими последствиями коронавируса». Дед в бункере, похоже, забыл, что Запад ввел санкции против его друзей и отдельных госкомпаний, а ввозить в Россию продукты и лекарства
подробнее»

ООН,Организация Объединенных Наций цитаты великих людей политота,Приколы про политику и политиков песочница политоты

Перзидент Роисси @KermlinRussia V «Путин в ООН призвал отменить санкции на лекарства и продовольствие ради борьбы с экономическими последствиями коронавируса». Дед в бункере, похоже, забыл, что Запад ввел санкции против его друзей и отдельных госкомпаний, а ввозить в Россию продукты и лекарства
О Андрей Шипилов
^	16ч.-О
Заходим на сайт ООН, переключаемся на удобный для вас язык, далее - раздел «Документы», переходим на Устав ООН, статья 23, пункт 1, читаем:
Статья 23
Совет Безопасности состоит из пятнадцати Членов Организации. Китайская Республика, Франция, Союз Советских Социалистиче
подробнее»

Организация Объединенных Наций СССР политота,Приколы про политику и политиков песочница политоты ООН,Организация Объединенных Наций

О Андрей Шипилов ^ 16ч.-О Заходим на сайт ООН, переключаемся на удобный для вас язык, далее - раздел «Документы», переходим на Устав ООН, статья 23, пункт 1, читаем: Статья 23 Совет Безопасности состоит из пятнадцати Членов Организации. Китайская Республика, Франция, Союз Советских Социалистиче