Connect with us

Robotisering

De robot Apocalyps vermijden

Published

on

robot Apocalyps

We kunnen maar beter machines beheersen voordat ze ons beheersen.

Mijn vrouw en ik reden onlangs in Virginia, opnieuw verbaasd dat de GPS-technologie op onze telefoons ons door een struikgewas van snelwegen, rond verkeersongevallen en naar onze precieze bestemming kon leiden. De kunstmatige intelligentie (AI) achter de rustgevende stem die ons vertelt waar we moeten afslaan, heeft de passagiersstoelnavigatie, kaarten en zelfs verkeersupdates op de radio vervangen. Hoe hebben we in hemelsnaam overleefd voordat deze technologie in ons leven arriveerde? We hebben het natuurlijk overleefd, maar een deel van de tijd waren we letterlijk verloren.

Mijn mijmering werd onderbroken door een tolhuisje. Het was leeg, net als alle andere hokjes op dit specifieke tolstation. De meeste auto’s snelden door met EZ-passen, omdat het ene geautomatiseerd apparaat naadloos met het andere communiceerde. Helaas had onze huurauto er geen.

Dus ik bereidde me voor om met creditcard te betalen, maar de cabine had geen creditcardlezer.

Oké, dacht ik, terwijl ik mijn portemonnee tevoorschijn haalde, ik zal contant geld gebruiken om de $ 3,25 te betalen.

Toevallig nam dat hokje alleen munten en wie rijdt er rond met 13 kwartjes op zak?

Ik had diezelfde vraag graag aan iemand gesteld, maar ik was natuurlijk omringd door mute-machines. Dus reed ik gewoon door de elektronische oversteekplaats en bereidde me voor op de rekening die met de post zou komen zodra het geautomatiseerde systeem van dat plein onze kentekenplaat had gefotografeerd en getraceerd.

Op een door en door alledaagse manier had ik zojuist het eeuwenoude conflict tussen de beperkende en bevrijdende kanten van technologie meegemaakt. De pijlpunt die je eten voor het avondeten kan bezorgen, kan uiteindelijk in je eigen schedel terechtkomen. De auto die je naar een strandvakantie brengt, draagt ​​bij aan de opkomende getijden – door middel van koolstofemissies en verhoogde temperaturen – die op een dag dat zeer kustjuweel van een plaats kan wegspoelen. De laptopcomputer die u in de cyberwereld aansluit, dient ook als kanaal waardoor hackers uw identiteit kunnen stelen en uw bankrekening kunnen leegmaken.

In de vorige eeuw bereikte de technologie een echt keerpunt toen mensen, gebruikmakend van de kracht van het atoom, ook het vermogen verwierven om de hele planeet te vernietigen. Dankzij AI stuwt technologie ons nu naar een nieuw buigpunt.

Sciencefictionschrijvers en technologen maken zich al lang zorgen over een toekomst waarin robots, die bewustzijn bereiken, de planeet overnemen. De creatie van een machine met menselijke intelligentie die ons op een dag zou kunnen laten geloven dat het een van ons is, is vaak beschreven, met niet geringe mate van schroom, als de ‘singulariteit’. Respectabele wetenschappers zoals Stephen Hawking hebben betoogd dat een dergelijke singulariteit in feite het ‘einde van het menselijk ras’ zal markeren.

Dit zal niet een onmogelijk verre gebeurtenis zijn, zoals de zon die over een paar miljard jaar in een supernova opkomt. Volgens een peiling schatten AI-onderzoekers dat er een kans van minstens 50-50 is dat de singulariteit in 2050 zal plaatsvinden. Met andere woorden, als pessimisten zoals Hawking gelijk hebben, is de kans groot dat robots de mensheid zullen sturen voordat de klimaatcrisis dat doet.

Noch de kunstmatige intelligentie die GPS aandrijft, noch de soort die dat frustrerende tolstation bestuurde, heeft tot nu toe zoiets als intelligentie op menselijk niveau bereikt – zelfs niet in de buurt. Maar in veel opzichten nemen zulke domme robots de wereld al over. Automatisering verdrijft momenteel miljoenen werknemers , inclusief die voormalige tolpoortexploitanten. “Slimme” machines zoals onbemande luchtvaartuigen zijn een onmisbaar onderdeel geworden van het voeren van oorlog. AI-systemen worden steeds vaker ingezet om elke beweging op internet, via onze telefoons en wanneer we ons in de openbare ruimte begeven, te volgen. Algoritmen vervangen onderwijsassistenten in de klas en beïnvloeden de veroordeling in rechtszalen . Enkele van de eenzaamsten onder ons hebben dat al gedaanafhankelijk worden van robothuisdieren.

Naarmate de AI-capaciteiten blijven verbeteren, zal de onontkoombare politieke vraag worden: in hoeverre kunnen dergelijke technologieën worden afgeremd en gereguleerd? Ja, de nucleaire geest is uit de fles, net als andere technologieën – biologische en chemische – die in staat zijn massavernietiging te veroorzaken van een soort die voorheen ondenkbaar was op deze planeet. Met AI ligt die dag van singulariteit echter nog steeds in de toekomst, zelfs als die snel nadert. Het zou nog steeds mogelijk moeten zijn, althans in theorie, om zo’n uitkomst te controleren voordat er niets anders op zit dan het gekke spel van non-proliferatie achteraf te spelen.

Zolang mensen zich op wereldschaal slecht blijven gedragen – oorlog, genocide, planeetbedreigende koolstofemissies – is het moeilijk voor te stellen dat alles wat we creëren, hoe intelligent ook, anders zal handelen. En toch blijven we dromen dat een of andere deus in machina, een god in de machine, zou kunnen verschijnen als bij toverslag om ons van onszelf te redden.

AI temmen?

In het begin van de jaren veertig formuleerde sciencefictionschrijver Isaac Asimov zijn beroemde drie wetten van robotica: dat robots mensen geen schade mochten berokkenen, direct of indirect; dat ze onze bevelen moeten gehoorzamen (tenzij dit in strijd is met de eerste wet); en dat ze hun eigen bestaan ​​moeten vrijwaren (tenzij zelfbehoud in strijd is met de eerste twee wetten).

Een willekeurig aantal schrijvers heeft geprobeerd Asimov bij te werken. De laatste is rechtsgeleerde Frank Pasquale, die vier wetten heeft bedacht om de drie van Asimov te vervangen. Aangezien hij een advocaat is en geen futurist, houdt Pasquale zich meer bezig met het besturen van de robots van vandaag dan met hypothesen over de machines van morgen. Hij stelt dat robots en AI professionals moeten helpen, niet vervangen; dat ze geen mensen mogen namaken; dat ze nooit deel mogen uitmaken van enige vorm van wapenwedloop; en dat hun makers, controllers en eigenaren altijd transparant moeten zijn.

De ‘wetten’ van Pasquale druisen echter in tegen de trends op het gebied van kunstmatige intelligentie van dit moment. Het heersende AI-ethos weerspiegelt wat zou kunnen worden beschouwd als de belangrijkste richtlijn van Silicon Valley: snel handelen en dingen breken. Deze filosofie van disruptie vereist vooral dat technologie de arbeidskosten voortdurend verlaagt en zichzelf regelmatig achterhaalt.

In de wereldeconomie helpt AI inderdaad bepaalde professionals – zoals Mark Zuckerberg van Facebook en Jeff Bezos van Amazon, die toevallig tot de rijkste mensen ter wereld behoren – maar het vervangt ook miljoenen van ons. Op militair gebied drijft automatisering laarzen van de grond en ogen in de lucht in een komende robotachtige oorlogswereld. En of het nu Siri is, de bots die steeds meer gefrustreerde bellers door geautomatiseerde telefoonbomen leiden, of de AI die Facebook-berichten controleert, het doel was om mensen te vervalsen – “machines zoals ik”, zoals Ian McEwan ze noemde in zijn roman uit 2019 van die titel — terwijl de snaren die de creatie met de maker verbinden, worden verborgen.

Pasquale wil remmen op een trein die niet alleen het station heeft verlaten, maar niet meer onder controle staat van de machinist. Het is niet moeilijk voor te stellen waar zo’n op hol geslagen fenomeen zou kunnen eindigen en techno-pessimisten hebben een pervers genoegen genomen bij het beschrijven van de resulterende ramp. In zijn boek Superintelligence schrijft Nick Bostrom bijvoorbeeld over een zandstorm van zelfreplicerende nanorobots die elk levend wezen op de planeet verstikt – het zogenaamde grey goo-probleem – en een AI die de macht grijpt door ‘politieke processen te kapen’.

Aangezien ze alleen geïnteresseerd zouden zijn in zelfbehoud en replicatie, niet in het beschermen van de mensheid of het opvolgen van haar bevelen, zouden dergelijke bewuste machines Asimovs regelboek duidelijk verscheuren. Futuristen zijn in de bres gesprongen. Ray Kurzweil bijvoorbeeld, die in zijn boek The Singularity Is Near uit 2005 voorspelde dat een robot rond 2045 het bewustzijn zou bereiken, heeft een ‘verbod voorgesteld op zelfreplicerende fysieke entiteiten die hun eigen codes voor zelfreplicatie bevatten’. Elon Musk, een andere miljardair-industrieel die geen vijand is van innovatie, heeft de AI-menselijkheid de “grootste existentiële bedreiging” genoemd en is voorstander van een verbod op toekomstige moordende robots.

Om de verschillende worstcasescenario’s te voorkomen, heeft de Europese Unie voorgesteld om AI te controleren op risicograad. Sommige producten die in de EU-categorie “hoog risico” vallen, zouden een soort Good Housekeeping-keurmerk moeten krijgen (de Conformité Européenne ). AI-systemen “die als een duidelijke bedreiging worden beschouwd voor de veiligheid, het levensonderhoud en de rechten van mensen”, zouden daarentegen volledig worden verboden . Dergelijke duidelijke en actuele gevaren omvatten bijvoorbeeld biometrische identificatie die persoonlijke gegevens vastlegt door middel van gezichtsherkenning, evenals versies van het Chinese sociale kredietsysteem waarbij AI helpt individuen te volgen en hun algehele betrouwbaarheid te evalueren.

Techno-optimisten hebben voorspelbaar bekritiseerd wat zij beschouwen als Europees overbereik. Dergelijke controles op AI zullen volgens hen een domper op O&O zetten en, als de Verenigde Staten dit voorbeeld volgen, China in staat stellen een onoverkomelijke technologische voorsprong in het veld te behalen. “Als de lidstaten van de EU – en hun bondgenoten aan de andere kant van de Atlantische Oceaan – serieus willen concurreren met China en hun machtsstatus willen behouden (evenals de kwaliteit van leven die ze hun burgers bieden)”, schrijft ondernemer Sid Mohasseb in Newsweek , “ze moeten pleiten voor een herformulering van deze regelgeving, waarbij groei en concurrentie minstens zo belangrijk worden gezien als regelgeving en veiligheid.”

De zorgen van Mohasseb zijn echter misleidend. De regelgevers waar hij zo bang voor is, spelen nu in feite een inhaalslag. In de economie en op het slagveld, om slechts twee gebieden van menselijke activiteit te nemen, is AI al onmisbaar geworden.

De automatisering van globalisering

De aanhoudende Covid-19-pandemie heeft de kwetsbaarheid van wereldwijde toeleveringsketens blootgelegd. De wereldeconomie kwam in 2020 bijna tot stilstand om één belangrijke reden: de gezondheid van menselijke werknemers. De verspreiding van de infectie, het besmettingsgevaar en de inspanningen om de pandemie in te dammen, hebben allemaal werknemers van de beroepsbevolking verwijderd, soms tijdelijk, soms permanent. Fabrieken werden gesloten, de gaten in de transportnetwerken werden groter en winkels verloren zaken aan online verkopers.

De wens om de arbeidskosten te verlagen, een belangrijke factor in het prijskaartje van een product, heeft bedrijven ertoe aangezet om goedkopere werknemers in het buitenland te zoeken. Voor dergelijke kostenbesparingen is het elimineren van werknemers een nog aantrekkelijker vooruitzicht. Lang voordat de pandemie toesloeg, begonnen bedrijven zich tot automatisering te wenden. Tegen 2030 zullen tot 45 miljoen Amerikaanse arbeiders door robots worden verdreven. De Wereldbank schat dat ze uiteindelijk maar liefst 85% van de banen in Ethiopië, 77% in China en 72% in Thailand zullen vervangen.”

De pandemie heeft niet alleen deze trend versneld, maar ook de economische ongelijkheid vergroot, omdat, althans voorlopig, robots de minst geschoolde werknemers vervangen. In een onderzoek van het World Economic Forum gaf 43% van de bedrijven aan dat ze hun personeelsbestand zouden verminderen door meer gebruik te maken van technologie. “Sinds de pandemie toesloeg”, meldt NBC News,

“Voedselfabrikanten voerden hun automatisering op, waardoor faciliteiten hun productie konden handhaven terwijl ze sociale afstand hielden. Fabrieken digitaliseerden de bedieningselementen op hun machines, zodat ze op afstand konden worden bediend door werknemers die thuis of op een andere locatie werkten. Er zijn nieuwe sensoren geïnstalleerd die storingen kunnen signaleren of voorspellen, waardoor teams van inspecteurs die volgens een schema werken, kunnen worden teruggebracht tot een onderhoudsploeg die nodig is.”

In een ideale wereld zouden robots en AI in toenemende mate alle vuile, gevaarlijke en vernederende banen wereldwijd op zich nemen, waardoor mensen de vrijheid krijgen om interessanter werk te doen. In de echte wereld maakt automatisering het werk echter vaak vuiler en gevaarlijker , bijvoorbeeld door het werk van de resterende menselijke beroepsbevolking te versnellen. Ondertussen beginnen robots inbreuk te maken op wat gewoonlijk wordt beschouwd als de interessantere soorten werk van bijvoorbeeld architecten en productontwerpers .

In sommige gevallen heeft AI zelfs managers vervangen . Een contractchauffeur voor Amazon, Stephen Normandin, ontdekte dat het AI-systeem dat zijn efficiëntie als bezorger bewaakte, ook een geautomatiseerde e-mail gebruikte om hem te ontslaan toen het besloot dat hij niet in staat was om te snuiven. Jeff Bezos mag dan terugtreden als CEO van Amazon, robots klimmen snel op de bedrijfsladder en kunnen minstens net zo meedogenloos blijken te zijn als hij is geweest, zo niet meer.

Mobiliseren tegen zo’n robotvervangend leger zou bijzonder moeilijk kunnen zijn, aangezien bedrijfsleiders niet de enigen zijn die de welkomstmat uithangen. Aangezien voor volledig geautomatiseerde productie in “donkere fabrieken” geen verlichting, verwarming of personeel nodig is dat met de auto naar de locatie pendelt, kan dat soort productie de ecologische voetafdruk van een land verkleinen – een potentieel verleidelijke factor voor voorstanders van “groene groei” en politici die wanhopig hun klimaatdoelstellingen in Parijs willen halen.

Het is mogelijk dat bewuste robots geen ingenieuze listen hoeven te bedenken om de wereld over te nemen. Mensen kunnen maar al te graag bereid zijn om semi-intelligente machines de sleutels van het koninkrijk te geven.

De nieuwe oorlogsmist

De oorlog van 2020 tussen Armenië en Azerbeidzjan bleek anders dan alle eerdere militaire conflicten. De twee landen vochten al sinds de jaren tachtig om een ​​omstreden bergenclave, Nagorno-Karabach. Na de ineenstorting van de Sovjet-Unie bleek Armenië de duidelijke overwinnaar in het conflict dat volgde in het begin van de jaren negentig, en bezette het niet alleen het betwiste gebied, maar ook delen van Azerbeidzjan.

In september 2020, toen de spanningen tussen de twee landen opliepen, was Armenië bereid om die bezette gebieden te verdedigen met een goed uitgerust leger van tanks en artillerie. Dankzij de export van fossiele brandstoffen had Azerbeidzjan echter aanzienlijk meer uitgegeven dan Armenië aan de modernste versie van militaire paraatheid. Toch prezen Armeense leiders hun leger vaak aan als het beste in de regio. Volgens de Global Militarization Index van 2020 stond dat land inderdaad op de tweede plaats na Israël in termen van militariseringsniveau.

Toch was Azerbeidzjan de beslissende winnaar in het conflict van 2020 en heroverde Nagorno-Karabkah. De reden: automatisering.

“Azerbeidzjan gebruikte zijn drone-vloot – gekocht van Israël en Turkije – om de wapensystemen van Armenië in Nagorno-Karabach te besluipen en te vernietigen, zijn verdediging te vernietigen en een snelle opmars mogelijk te maken”, meldde Robyn Dixon van de Washington Post . “Armenië ontdekte dat luchtverdedigingssystemen in Nagorno-Karabach, waarvan vele oudere Sovjetsystemen, onmogelijk te verdedigen waren tegen drone-aanvallen, en de verliezen stapelden zich snel op.”

Armeense soldaten, berucht om hun felheid, werden regelmatig opgeschrikt door de semi-autonome wapens boven hen. “De soldaten op de grond wisten dat ze elk moment konden worden geraakt door een drone die boven hun hoofd cirkelde”, merkte Mark Sullivan op in het zakenblad Fast Company . “De drones zijn zo stil dat ze het gezoem van de propellers niet zouden horen totdat het te laat was. En zelfs als de Armeniërs erin slaagden een van de drones neer te schieten, wat hadden ze dan echt bereikt? Ze hadden alleen een stuk machine vernietigd dat zou worden vervangen.”

De Verenigde Staten pionierden met het gebruik van drones tegen verschillende niet-statelijke tegenstanders in hun oorlog tegen het terrorisme in Afghanistan, Irak, Pakistan, Somalië en elders in het Grotere Midden-Oosten en Afrika. Maar in zijn campagne van 2020 gebruikte Azerbeidzjan de technologie om een ​​modern leger te verslaan. Nu zal elk leger zich niet alleen gedwongen voelen om steeds krachtigere AI te integreren in zijn offensieve capaciteiten, maar ook om zich te verdedigen tegen de nieuwe technologie.

Om de concurrentie voor te blijven, stoppen de Verenigde Staten voorspelbaar geld in de nieuwste technologieën. Het nieuwe budget van het Pentagon omvat het “grootste ooit”-verzoek voor R&D, inclusief een aanbetaling van bijna een miljard dollar voor AI. Zoals TomDispatch- regulier Michael Klare heeft geschreven , heeft het Pentagon zelfs een signaal overgenomen van de zakenwereld door zijn oorlogsmanagers – generaals – te vervangen door een enorm, onderling verbonden netwerk van geautomatiseerde systemen dat bekend staat als de Joint All-Domain Command-and-Control (JADC2).

Het resultaat van een dergelijke overdracht van grotere verantwoordelijkheid aan machines zal de creatie zijn van wat wiskundige Cathy O’Neill ‘wapens van wiskundige vernietiging’ noemt . In de wereldeconomie vervangt AI al mensen in de productieketen. In de oorlogswereld zou AI uiteindelijk mensen helemaal kunnen vernietigen, of het nu gaat om menselijk ontwerp of een computerfout.

Immers, tijdens de Koude Oorlog zorgden alleen last-minute interventies door individuen aan beide kanten ervoor dat nucleaire “raketaanvallen” die werden gedetecteerd door Sovjet- en Amerikaanse computers – die vogels, ongewoon weer of computerstoringen bleken te zijn – niet neersloegen een totale nucleaire oorlog. Haal de mens uit de commandostructuur en machines kunnen zo’n genocide helemaal zelf uitvoeren.

En de fout, beste lezer, zou niet in onze robots liggen, maar in onszelf.

Robots van het laatste redmiddel

In mijn nieuwe roman Songlands staat de mensheid in 2052 voor een verschrikkelijke reeks keuzes. Na tientallen jaren te hebben gefaald om de CO2-uitstoot onder controle te houden, staat de wereld op het punt van geen terugkeer meer, te laat voor conventionele beleidsoplossingen. Het enige dat overblijft is een wetenschappelijke Weesgegroetjes, een experiment in geo-engineering dat zou kunnen mislukken of, erger nog, vreselijke onbedoelde gevolgen zou hebben. De AI die verantwoordelijk is voor het succes van het experiment kan al dan niet betrouwbaar zijn. Mijn dystopie, zoals zoveel anderen, gaat echt over een vernauwing van opties en het wegkwijnen van hoop, wat ons huidige traject is.

En toch hebben we nog steeds keuzes. We zouden radicaal kunnen overschakelen naar schone energie en hulpbronnen voor de hele wereld, niet alleen de rijkere delen, om samen de sprong te maken. We zouden verstandige regels kunnen stellen aan kunstmatige intelligentie. We zouden de details van dergelijke programma’s kunnen bespreken in democratische samenlevingen en op participerende multilaterale locaties.

Of we zouden kunnen wachten op een post-Trumpiaanse redder om ons te redden, terwijl we onze handen in de lucht steken vanwege onze onoverbrugbare politieke verschillen. Techno-optimisten hopen dat automatisering ons zal bevrijden en de planeet zal redden. Laissez-faire-enthousiastelingen blijven geloven dat de onzichtbare hand van de markt op mysterieuze wijze kapitaal zal sturen naar planeetbesparende innovaties in plaats van SUV’s en plastic snuisterijen.

Dit zijn illusies. Terwijl ik in Songlands schrijf , hebben we altijd gehoopt dat iemand of iets ons zou redden: “God, een dictator, technologie. Voor beter of slechter, het enige antwoord op onze hulpkreten is een echo.”

Uiteindelijk zullen robots ons niet redden. Dat is een stukje werk dat niet kan worden uitbesteed of geautomatiseerd. Het is een klus die alleen wij zelf kunnen doen.

Overweeg alstublieft om ons te steunen als donateur of ondersteunend lid, ook wij hebben onze inkomsten zien dalen in deze heftige tijden daarom, KLIK HIER voor IBAN of via PayPal hieronder!, wil je ook onze berichten zoveel mogelijk delen dit is voor ons van levensbelang, hartelijke dank en veel leesplezier. Steun Indignatie via PayPal veilig en simpel.



Continue Reading
Click to comment

You must be logged in to post a comment Login

Leave a Reply

Robotisering

Axon wil Taser-drone ontwikkelen

Published

on

Taser-drone

Taser-drone – De toonaangevende fabrikant van “elektropulse-apparaten op afstand” wil ze in de toekomst op quadrocopters monteren. De burgerrechtenorganisatie EFF waarschuwt voor het normaliseren van de bewapening van drones en robots.

Taser-drone Na de recente schietpartij op een school in Uvalde, Texas, is het onduidelijk of de Amerikaanse regering soortgelijke acties in de toekomst kan voorkomen. Strengere wapenwetten falen vanwege de wapenlobby. De suggestie dat leraren met wapens moeten worden uitgerust, wat vanuit lokaal oogpunt absurd is, zal ook niet de overhand krijgen. Want dat zou betekenen dat het schoolpersoneel ook op wapens zou moeten trainen.

In dit dilemma belooft de uitvinder en fabrikant van de Taser-drone een remedie. Het bedrijf Axon maakte donderdag bekend dat het “officieel was begonnen met het ontwikkelen van een Taser-dronesysteem”. Dit schrijft Rick Smith, de oprichter en CEO van Axon, op de blog van ’s werelds grootste leverancier van stun guns . Het initiatief maakt deel uit van een langetermijnplan om massaschietpartijen te bestrijden.

Politiefantasieën met pepperspray, traangas en geluidsgranaten

Tasers schieten pijltjes die zijn verbonden met een meter lange draad die een puls van 50.000 volt door de huid uitzenden. De getroffenen zijn korte tijd verlamd en vallen op de grond. In Duitsland worden de lanceerinrichtingen “elektropulsapparaten op afstand” genoemd. In direct contact-modus kunnen ze ook als stun gun worden gebruikt.

Het idee om drones uit te rusten met zogenaamde niet-dodelijke wapens is niet nieuw. Sinds politiediensten over de hele wereld ongeveer 15 jaar geleden begonnen met de introductie van drone-technologie, hebben fabrikanten herhaaldelijk overeenkomstige ontwikkelingen aangekondigd. Een Zuid-Afrikaans bedrijf had onder meer het prototype van een Taser-drone gepresenteerd , die zich net als zijn voorgangers niet kon vestigen.

In de afgelopen 15 jaar omvatten politiefantasieën ook drones die, net als het Israëlische leger, traangas laten vallen , pepperspray spuiten of geluidsgranaten afvuren . Dergelijke technologieën zijn nauwelijks bruikbaar voor dagelijks gebruik, maar ze zouden in het repertoire van speciale troepen kunnen zitten.

Ontwerp tussen Spiderman en Caterpillar

Axon ontwikkelde ook de bodycams, die nu ook door de Duitse politie worden gebruikt. Ook in dit segment is Axon de onbetwiste marktleider. De aankondiging dat ze nu de drone-business betreden, moet daarom serieus worden genomen.

“Twee technologieën hebben de afgelopen jaren snelle vooruitgang geboekt en beide kunnen hoop bieden. De eerste: drones. […] De tweede technologie: niet-dodelijke energiewapens,” zei Smith. Gezamenlijk zouden ze “effectief kunnen vechten” tegen massale schietpartijen.

In de blogpost geeft Smith ook een conceptstudie van hoe het vliegende wapen eruit zou kunnen zien. In de kleuren zwart en geel die bekend zijn van de Taser en een ontwerp tussen Spiderman en Caterpillar, zou het toestel eigenlijk goed kunnen verkopen bij blauwlichtorganisaties.

De EFF vreest “mission creep”

Smith stelt voor om de drones “als sprinklers” op scholen in het hele land te installeren. Dat klinkt misschien belachelijk, maar het kan snel worden ingevoerd “zonder streng debat en wetten”. Benadrukt wordt dat de beslissing om Taser-kracht te gebruiken altijd in handen moet zijn van een adequaat opgeleid persoon.

De Amerikaanse burgerrechtenorganisatie Electronic Frontier Foundation (EFF) beschouwt drones die zijn uitgerust met een taser als een “gevaarlijk idee” . De vliegende stunguns konden het dagelijkse politiewerk binnensluipen door gebruik op scholen. De EFF roept op om zich te verzetten tegen deze normalisering van de bewapening van drones en robots.

De burgerrechtenorganisatie waarschuwt ook voor een “mission creep”. Keer op keer worden technologieën die aan de politie ter beschikking worden gesteld voor extreme noodsituaties, gebruikt bij politieke bijeenkomsten of om misdaad op straat te bestrijden.

Taser doodt

Als voorbeeld noemt de EFF IMSI-catchers, die ooit werden ontwikkeld voor het leger en nu “naar huis zijn gebracht in de naam van ‘contraterrorisme'”. Gezichtsbewaking en camera’s met belsignalen van Amazon werden gebruikt om Black Lives Matter-demonstranten te onderzoeken.

Volgens de organisatie was de Axon Ethics Council, waar de EFF lid van is, ‘sterk tegen’ dat het bedrijf doorging met het project. Volgens een onderzoek van de krant USA Today zijn er de afgelopen 12 jaar meer dan 500 doden gevallen als gevolg van het gebruik van een taser door de Amerikaanse politie. Sinds 2018 zijn in Duitsland zeker zes mensen overleden na het gebruik van een taser.

Overweeg alstublieft om ons te steunen als donateur of ondersteunend lid, ook wij hebben onze inkomsten zien dalen in deze heftige tijden daarom, KLIK HIER voor IBAN of via PayPal hieronder!, wil je ook onze berichten zoveel mogelijk delen dit is voor ons van levensbelang, hartelijke dank en veel leesplezier. Steun Indignatie via PayPal veilig en simpel.



Continue Reading

Robotisering

We are the other people

Published

on

robot

Onze hele crew kwam bij elkaar om de start te vieren van wat we hopen dat een gelukkiger jaar zal worden: een gelukkig nieuwjaar van ons allemaal bij Indignatie

Overweeg alstublieft om ons te steunen als donateur of ondersteunend lid, ook wij hebben onze inkomsten zien dalen in deze heftige tijden daarom, KLIK HIER voor IBAN of via PayPal hieronder!, wil je ook onze berichten zoveel mogelijk delen dit is voor ons van levensbelang, hartelijke dank en veel leesplezier. Steun Indignatie via PayPal veilig en simpel.



Continue Reading

Politiek

Robotgeneraals: zullen ze betere beslissingen nemen dan mensen – of erger?

Published

on

Robotgeneraals

Nu Covid-19 een verrassend aantal  Amerikaanse militairen uitschakelt  en moderne wapens steeds dodelijker blijken te zijn, vertrouwt het Amerikaanse leger   steeds vaker op intelligente robots om gevaarlijke gevechtsoperaties uit te voeren. Dergelijke apparaten, in het leger bekend als ‘ autonome wapensystemen ‘, zijn onder meer robotwachten, drones voor slagveldbewaking en autonome onderzeeërs. Met andere woorden, tot dusver vervangen robotapparatuur slechts standaardwapens op conventionele slagvelden. Nu echter, met een enorme sprong in het diepe, probeert het Pentagon dit proces naar een geheel nieuw niveau te tillen – door niet alleen gewone soldaten en hun wapens te vervangen, maar mogelijk admiraals en generaals door robotsystemen.

Toegegeven, die systemen bevinden zich nog in de ontwikkelingsfase, maar het Pentagon haast zich nu met hun toekomstige inzet als een kwestie van nationale urgentie. Elk onderdeel van een moderne generale staf – inclusief gevechtsplanning, het verzamelen van inlichtingen, logistiek, communicatie en besluitvorming – zal volgens de nieuwste plannen van het Pentagon worden overgedragen aan complexe arrangementen van sensoren, computers en software. Al deze zullen dan worden geïntegreerd in een “systeem van systemen”, nu genaamd  Joint All-Domain Command-and-Control , of JADC2 (aangezien acroniemen de essentie van het militaire leven blijven). Uiteindelijk kan dat amalgaam van systemen inderdaad de meeste functies overnemen die momenteel worden vervuld door Amerikaanse generaals en hun hogere stafofficieren.

Het idee om machines te gebruiken om beslissingen op commandoniveau te nemen, is natuurlijk niet geheel nieuw. Het heeft in feite lang geduurd. Tijdens de Koude Oorlog, na de introductie van intercontinentale ballistische raketten (ICBM’s) met extreem korte vluchttijden, begonnen zowel militaire strategen als sciencefictionschrijvers zich mechanische systemen voor te stellen die dergelijke kernwapens zouden beheersen in geval van menselijk onvermogen.

In Stanley Kubrick’s satirische film uit 1964,  Dr. Strangelove , onthult de fictieve Russische leider Dimitri Kissov bijvoorbeeld dat de Sovjet-Unie een ‘doomsday machine’ heeft geïnstalleerd die in staat is om al het menselijk leven uit te wissen dat automatisch zou ontploffen als het land zou worden aangevallen door Amerikaanse atoombommen. krachten. Pogingen van krankzinnige anti-Sovjetofficieren van de Amerikaanse luchtmacht om een ​​oorlog met Moskou uit te lokken, slagen er vervolgens in die machine op gang te brengen en zo menselijke vernietiging teweeg te brengen. In werkelijkheid, uit angst dat ze een dergelijke verrassingsaanval zouden meemaken, installeerden de Sovjets later een semi-automatisch vergeldingssysteem dat ze  noemden “Perimeter”, ontworpen om Sovjet-ICBM’s te lanceren in het geval dat sensoren nucleaire explosies detecteerden en alle communicatie vanuit Moskou tot zwijgen was gebracht. Sommige analisten geloven dat er nog steeds een verbeterde versie van Perimeter in gebruik is, waardoor we in een al te echte versie van een Strangeloviaanse wereld terechtkomen.

In weer een andere sci-fi-versie van dergelijke geautomatiseerde commandosystemen portretteerde de film WarGames uit 1983  , met Matthew Broderick als tienerhacker, een supercomputer genaamd de War Operations Plan Response, of WOPR (uitgesproken als ‘whopper’) geïnstalleerd op de North American Aerospace. Command ( NORAD ) hoofdkwartier in Colorado. Wanneer het Broderick-personage erin hackt en een spel begint te spelen dat volgens hem “Wereldoorlog III” heet, concludeert de computer dat er een echte Sovjetaanval gaande is en lanceert een nucleair vergeldingsreactie. Hoewel fictief, geeft de film nauwkeurig veel aspecten weer van het Amerikaanse nucleaire command-control-and-communications (NC3) -systeem, dat toen en nog steeds sterk geautomatiseerd was.

Dergelijke apparaten, zowel echt als ingebeeld, waren naar de huidige maatstaven relatief primitief, omdat ze alleen in staat waren om vast te stellen dat er een nucleaire aanval gaande was en een catastrofale reactie te bevelen. Nu, als resultaat van enorme verbeteringen in  kunstmatige intelligentie  (AI) en machine learning, kunnen machines enorme hoeveelheden sensorgegevens verzamelen en beoordelen, snel belangrijke trends en patronen detecteren en mogelijk bevelen geven aan gevechtseenheden over waar en wanneer ze moeten aanvallen. .

Tijdscompressie en menselijke feilbaarheid

De vervanging van intelligente machines door mensen op hogere commandoniveaus wordt essentieel, betogen Amerikaanse strategen, omdat een exponentiële groei van sensorinformatie in combinatie met de toenemende snelheid  van oorlogvoering het voor mensen bijna onmogelijk maakt om cruciale ontwikkelingen op het slagveld bij te houden. Als toekomstscenario’s kloppen, kunnen veldslagen die zich ooit in dagen of weken hebben afgespeeld, binnen enkele uren of zelfs minuten plaatsvinden, terwijl informatie op het slagveld binnenstroomt als ontelbare datapunten, overweldigende stafofficieren. Alleen geavanceerde computers, zo wordt beweerd, zouden zoveel informatie kunnen verwerken en weloverwogen gevechtsbeslissingen kunnen nemen binnen het noodzakelijke tijdsbestek.

Dergelijke tijdcompressie en de uitbreiding van sensorgegevens kunnen van toepassing zijn op elke vorm van gevecht, maar vooral op de meest angstaanjagende van allemaal, een nucleaire oorlog. Toen ICBM’s het belangrijkste middel waren voor een dergelijke strijd, hadden besluitvormers tot 30 minuten tussen het moment waarop een raket werd gelanceerd en het moment van detonatie om te bepalen of een potentiële aanval echt was of slechts een valse satellietuitlezing (zoals soms gebeurde   tijdens de koude Oorlog). Nu, dat klinkt misschien niet als veel tijd, maar met de recente introductie van  hypersonische raketten, kunnen dergelijke beoordelingstijden teruglopen tot slechts vijf minuten. Onder dergelijke omstandigheden is het veel te verwachten dat zelfs de meest alerte besluitvormers een weloverwogen oordeel vellen over de aard van een mogelijke aanval. Vandaar het beroep (op sommigen) van geautomatiseerde besluitvormingssystemen.

“Aanval-tijdcompressie heeft het hoogste leiderschap van Amerika in een situatie gebracht waarin het bestaande NC3-systeem misschien niet snel genoeg werkt”, redeneerden militaire analisten Adam Lowther en Curtis McGiffin   tijdens  War on the Rocks , een op veiligheid gerichte website. “Het kan dus nodig zijn om een ​​systeem te ontwikkelen op basis van kunstmatige intelligentie, met vooraf bepaalde responsbeslissingen, dat strategische krachten met zo’n snelheid detecteert, beslist en aanstuurt dat de uitdaging van de aanvalstijdcompressie de Verenigde Staten niet in een onmogelijke positie plaatst. . “

Dit idee, dat een apparaat op basis van kunstmatige intelligentie – in wezen een intelligentere versie van de doomsday-machine of de WOPR – in staat zou moeten worden gesteld om vijandelijk gedrag te beoordelen en vervolgens, op basis van ‘vooraf bepaalde responsopties’, het lot van de mensheid zou moeten beslissen, heeft natuurlijk voor wat  ongemak gezorgd  in de gemeenschap van militaire analisten (zoals het ook voor de rest van ons zou moeten doen). Desalniettemin blijven Amerikaanse strategen beweren dat beoordeling en besluitvorming op het slagveld – voor zowel conventionele als nucleaire oorlogsvoering – in toenemende mate aan machines moeten worden gedelegeerd.

“AI-aangedreven intelligentiesystemen kunnen de mogelijkheid bieden om grote hoeveelheden gegevens uit verschillende bronnen en geografische locaties te integreren en te sorteren om patronen te identificeren en nuttige informatie te benadrukken”, merkte de Congressional Research Service  op  in een samenvatting van het Pentagon-denken in november 2019. “Naarmate de complexiteit van AI-systemen ouder wordt”, voegde hij eraan toe, “kunnen AI-algoritmen commandanten mogelijk ook een menu met haalbare acties bieden op basis van realtime analyse van de gevechtsruimte, waardoor een snellere aanpassing aan complexe gebeurtenissen mogelijk wordt. “

De sleutelwoorden daar is “een menu met haalbare acties op basis van realtime analyse van de gevechtsruimte”. Dit zou de indruk kunnen wekken dat menselijke generaals en admiraals (om nog maar te zwijgen van hun opperbevelhebber) nog steeds de ultieme beslissingen over leven en dood zullen nemen voor zowel hun eigen strijdkrachten als de planeet. Gezien een dergelijke verwachte aanvalstijdcompressie in toekomstige gevechten met hoge intensiteit met China en / of Rusland, hebben mensen echter mogelijk niet langer de tijd of het vermogen om de gevechtsruimte zelf te analyseren en zullen ze voor dergelijke beoordelingen op AI-algoritmen gaan vertrouwen. Als gevolg hiervan kunnen menselijke commandanten merken dat ze simpelweg besluiten van machines goedkeuren – en worden ze uiteindelijk overbodig.

Robotgeneraals maken

Ondanks alle twijfels die ze hebben over hun toekomstige baanzekerheid, zijn de hoogste generaals van Amerika snel bezig om dat geautomatiseerde JADC2-commando-mechanisme te ontwikkelen en in te zetten. Onder toezicht van de luchtmacht blijkt het een  computergestuurd amalgaam  van apparaten te zijn voor het verzamelen van real-time informatie over vijandelijke troepen uit een groot aantal sensorapparaten (satellieten, grondradars, elektronische luisterposten, enzovoort), die die gegevens verwerken in bruikbare gevechtsinformatie en het verstrekken van nauwkeurige aanvalsinstructies aan elke gevechtseenheid en elk wapensysteem dat betrokken is bij een conflict – of het nu gaat om het leger, de marine, de luchtmacht, het marinekorps of de nieuw gevormde Space Force en Cyber ​​Command.

Waaruit de JADC2 precies zal bestaan, is niet algemeen bekend, deels omdat veel van de componentensystemen nog steeds in het geheim zijn gehuld en deels omdat veel van de essentiële technologie zich nog in de ontwikkelingsfase bevindt. Gedelegeerd met de verantwoordelijkheid voor het toezicht op het project, werkt de luchtmacht samen met  Lockheed Martin  en andere grote defensie-aannemers om sleutelelementen van het systeem te ontwerpen en te ontwikkelen.

Een van die bouwstenen is het Advanced Battle Management System (ABMS), een systeem voor het verzamelen en distribueren van gegevens dat is  bedoeld  om jachtpiloten te voorzien van actuele gegevens over vijandelijke posities en om hun gevechtsbewegingen te begeleiden. Een ander  belangrijk onderdeel  is het Integrated Air and Missile Defense Battle Command System (IBCS) van het leger, dat is ontworpen om radarsystemen te verbinden met luchtafweer- en raketafweerlanceerinrichtingen en hen nauwkeurige afvuurinstructies te geven. Na verloop van tijd zullen de luchtmacht en zijn meerdere aannemers proberen ABMS en IBCS te integreren in een gigantisch netwerk van systemen die elke sensor, schutter en commandant van de strijdkrachten van het land met elkaar verbinden – een militair ‘ internet of things ‘, zoals sommigen het hebben gezegd. .

Om dit concept te testen en een voorbeeld te geven van hoe het in de toekomst zou kunnen opereren, voerde het leger in  augustus in Duitsland een  artillerie-oefening met live-vuur uit met behulp van componenten (of facsimiles) van het toekomstige JADC2-systeem. In de eerste fase van de test werden satellietbeelden van (veronderstelde) Russische troepenposities naar een grondterminal van het leger gestuurd, waar een AI-softwareprogramma genaamd Prometheus de gegevens doorzocht om vijandelijke doelen te selecteren. Vervolgens berekende een ander AI-programma genaamd SHOT de optimale match van beschikbare legerwapens met die beoogde doelen en stuurde deze informatie, samen met precieze afvuurcoördinaten , naar het Advanced Field Artillery Tactical Data System van het leger ( AFATDS) voor onmiddellijke actie, waarbij menselijke commandanten zouden kunnen kiezen om het al dan niet te implementeren. Tijdens de oefening hadden die menselijke commandanten de mentale ruimte om even over de kwestie na te denken; in een schietoorlog kunnen ze alles gewoon aan de machines overlaten, zoals de ontwerpers van het systeem duidelijk van plan zijn te doen.

In de toekomst plant het leger nog ambitieuzere tests van deze evoluerende technologie in het kader van een initiatief genaamd  Project Convergence . Van wat er publiekelijk over is gezegd, zal Convergence steeds complexere oefeningen doen met satellieten, luchtmachtjagers uitgerust met het ABMS-systeem, legerhelikopters, drones, artilleriestukken en tactische voertuigen. Uiteindelijk zal dit alles de onderliggende “architectuur” van de JADC2 vormen, die elk militair sensorsysteem met elke gevechtseenheid en wapensysteem verbindt – waardoor de generaals weinig anders te doen hebben dan toekijken.

Waarom robotgeneraals het verkeerd zouden kunnen krijgen

Gezien de complexiteit van moderne oorlogsvoering en de uitdaging van tijdcompressie in toekomstige gevechten, is de drang van Amerikaanse strategen om menselijke commandanten te vervangen door robotica zeker begrijpelijk. Robotgeneraals en admiraals zouden theoretisch in staat kunnen zijn om in korte tijd duizelingwekkende hoeveelheden informatie te verwerken, terwijl ze zowel de eigen als de vijandelijke troepen in de gaten houden en optimale manieren bedenken om vijandelijke bewegingen op een toekomstig slagveld tegen te gaan. Maar er zijn veel goede redenen om te twijfelen aan de betrouwbaarheid van robotbeslissers en de wijsheid om ze te gebruiken in plaats van menselijke officieren.

Om te beginnen staan ​​veel van deze technologieën nog in de kinderschoenen en zijn ze bijna allemaal vatbaar voor  storingen  die niet gemakkelijk kunnen worden voorzien of begrepen. En vergeet niet dat zelfs geavanceerde algoritmen door bekwame professionals voor de gek gehouden of “vervalst” kunnen worden.

Bovendien zullen AI-gebaseerde besluitvormingssystemen, in tegenstelling tot mensen, niet in staat zijn om de intentie of context te beoordelen. Geeft een plotselinge inzet van vijandelijke troepen bijvoorbeeld een aanstaande aanval, een bluf of gewoon een normale rotatie van troepen aan? Menselijke analisten kunnen hun begrip van het huidige politieke moment en de betrokken actoren gebruiken om hun beoordeling van de situatie te begeleiden. Machines missen dat vermogen en kunnen het ergste aannemen, waarbij ze militaire actie initiëren die vermeden had kunnen worden.

Een dergelijk probleem zal alleen worden verergerd door de “training” die dergelijke besluitvormingsalgoritmen zullen ondergaan, aangezien ze zijn aangepast aan militaire situaties. Net zoals is gebleken dat gezichtsherkenningssoftware  besmet is  door een te grote afhankelijkheid van afbeeldingen van blanke mannen in het trainingsproces – waardoor ze minder bedreven zijn in het herkennen van bijvoorbeeld Afro-Amerikaanse vrouwen – zullen militaire besluitvormingsalgoritmen waarschijnlijk worden  verstoord  door een te grote afhankelijkheid van de gevechtsscenario’s die door Amerikaanse militaire professionals zijn geselecteerd voor trainingsdoeleinden. ‘ Worst-case-denken”Is een natuurlijke neiging van dergelijke officieren – wie wil er immers onvoorbereid worden betrapt op een mogelijke vijandelijke verrassingsaanval? – en dergelijke vooroordelen zullen ongetwijfeld deel gaan uitmaken van de “menu’s met levensvatbare acties” van besluitvormingsrobots.

Eenmaal geïntegreerd in besluitvormingsalgoritmen, kunnen dergelijke vooroordelen op hun beurt buitengewoon gevaarlijk blijken te zijn bij toekomstige ontmoetingen tussen Amerikaanse en Russische troepen in Europa of Amerikaanse en Chinese troepen in Azië. Een dergelijke botsing kan immers op elk moment ontstaan, dankzij een of ander misverstand of een plaatselijk incident dat snel aan kracht wint – bijvoorbeeld een plotselinge botsing tussen Amerikaanse en Chinese oorlogsschepen voor de kust van Taiwan, of tussen Amerikaanse en Russische patrouilles in een van de de Baltische staten. Geen van beide partijen is misschien van plan geweest om een ​​grootschalig conflict aan te wakkeren en leiders aan beide kanten zouden normaal gesproken kunnen onderhandelen over een staakt-het-vuren. Maar vergeet niet dat dit niet langer alleen maar menselijke conflicten zullen zijn. Na zo’n incident

Dergelijke vooruitzichten worden echt beangstigend als het gaat om het begin van een nucleaire oorlog. Het is moeilijk voor te stellen dat een conflict tussen de grootmachten begint als een nucleaire oorlog, maar het is veel gemakkelijker om een ​​scenario voor te stellen waarin de grootmachten – nadat ze verwikkeld zijn geraakt in een conventioneel conflict – een punt bereiken waarop de ene of de andere partij denkt het gebruik van atoomwapens om een ​​nederlaag te voorkomen. De Amerikaanse militaire doctrine heeft in feite  altijd  de mogelijkheid voorgehouden om zogenaamde tactische kernwapens te gebruiken als reactie op een massale Sovjet (nu Russische) aanval in Europa. De Russische militaire doctrine wordt algemeen  aangenomen, bevat vergelijkbare opties. Onder dergelijke omstandigheden zou een toekomstige JADC2 vijandelijke bewegingen verkeerd kunnen interpreteren als signaalvoorbereiding voor een nucleaire lancering en een preventieve aanval van Amerikaanse nucleaire troepen kunnen bevelen, waardoor de Derde Wereldoorlog ontstond.

Oorlog is een akelige, meedogenloze activiteit en gezien de bijna twee decennia van mislukte conflicten die onder het label ‘de oorlog tegen terreur’ zijn gevallen en duizenden Amerikaanse slachtoffers hebben gemaakt (zowel fysiek als mentaal), is het gemakkelijk te begrijpen waarom robotliefhebbers dat zijn. zo gretig om te zien dat een ander soort mentaliteit de Amerikaanse oorlogvoering overneemt. Om te beginnen beweren ze, vooral in een  pandemische wereld , dat het alleen maar humaan is om menselijke soldaten op het slagveld te vervangen door robots en zo het aantal menselijke slachtoffers te verminderen (althans onder strijders). Deze bewering gaat natuurlijk niet in op het  argument dat robotsoldaten en dronevliegtuigen niet het vermogen hebben om onderscheid te maken tussen strijders en niet-strijders op het slagveld en dus niet kunnen worden vertrouwd om te voldoen aan de oorlogswetten of het internationaal humanitair recht – die, althans theoretisch, burgers beschermen tegen onnodige schade – en dus moet worden verboden.

Hoe belachelijk dat ook mag zijn op toekomstige slagvelden, generaals en admiraals vervangen door robots is een heel andere zaak. Niet alleen komen er juridische en morele argumenten met wraak naar voren, aangezien het voortbestaan ​​van de grote burgerbevolking in gevaar kan worden gebracht door computergestuurde gevechtsbeslissingen, maar er is geen garantie dat Amerikaanse GI’s minder slachtoffers zouden maken in de gevechten die volgden. Misschien is het dan tijd dat het Congres een aantal lastige vragen stelt over de wenselijkheid van het automatiseren van gevechtsbeslissingen voordat dit land miljarden extra belastinggeld in een onderneming stort die in feite zou kunnen leiden tot het einde van de wereld, zoals we weten. het. Misschien is het ook tijd voor de leiders van China, Rusland,

tomdispatch.com

Overweeg alstublieft om ons te steunen als donateur of ondersteunend lid, ook wij hebben onze inkomsten zien dalen in deze heftige tijden daarom, KLIK HIER voor IBAN of via PayPal hieronder!, wil je ook onze berichten zoveel mogelijk delen dit is voor ons van levensbelang, hartelijke dank en veel leesplezier. Steun Indignatie via PayPal veilig en simpel.



Continue Reading

Steun ons werk

Recente reacties

Nieuws bij de buren

Stand van zaken na dodelijke schietpartij winkelcentrum Kopenhagen: ‘Wrede aanval’

Bij een schietpartij in een winkelcentrum in de Deense hoofdstad Kopenhagen zijn gisteren drie doden gevallen. Op de fatale actie is met afschuw gereageerd. Dit is de stand van zaken.… [...]

OM: man die instructies gaf voor moord Peter R. de Vries aangehouden

De man die via versleutelde berichten aanstuurde op de moordaanslag op Peter R. de Vries, is door justitie geïdentificeerd. Het zou gaan om de 27-jarige Krystian M. uit Polen. Vandaag… [...]

Gaat junta Rutte het leger inzetten tegen de boeren

De boeren voeren acties en steeds meer lijken ze voort te komen uit radeloosheid getuige de steeds vaker voorkomende ‘wilde acties’. Na de tijdige afschaffing van het referendum om ‘gedoe’… [...]

De bazen van het ‘Veiligheidsberaad’ zijn stiekem een nieuwe macht aan het worden

Tot ruim twee jaar geleden had nauwelijks iemand gehoord van ‘veiligheidsregio’s’, laat staan van ‘het Veiligheidsberaad’. Maar in coronatijd waren de burgemeesters van de veiligheidsregio’s en vooral hun voorzitter Hubert… [...]

Het bloedbad van Melilla

37 Afrikanen kwamen om bij een poging om over het hek van de Spaanse enclave Melilla in Marokko te springen. Ceuta en Melilla zijn twee steden die op het Afrikaanse… [...]

Indignatie is 5 jaar vrij, eerlijk en onafhankelijk, daarom is het tijd voor onze actie. Geen miljardair bezit ons, geen MSM controleren ons. Wij zijn een door lezers ondersteunde non-profitorganisatie. In tegenstelling tot veel andere publicaties, houden we onze inhoud gratis voor lezers, ongeacht waar ze wonen of het zich kunnen veroorloven om te betalen.

steun wij zullen zeer dankbaar zijn.

KLIK HIER OM TE DONEREN