Kunstmatige intelligentie (AI) en algoritmen hebben het vermogen en worden gebruikt om radicalisering aan te wakkeren, polarisatie te vergroten en racisme en politieke instabiliteit te verspreiden, aldus een academicus aan de Lancaster University. Internationale veiligheidsprofessor Joe Burton is van mening dat kunstmatige intelligentie en algoritmen niet alleen instrumenten zijn die door nationale veiligheidsdiensten worden gebruikt om kwaadaardige cyberactiviteiten te dwarsbomen. Hij is van mening dat kunstmatige intelligentie en algoritmen ook polarisatie, radicalisering en politiek geweld kunnen aanwakkeren en daarmee een bedreiging kunnen vormen voor de nationale veiligheid zelf.
Bovendien, zo zei hij, speelt het proces van securitisatie (het beschouwen van technologie als een existentiële bedreiging) een belangrijke rol in het ontwerp, het gebruik en de schadelijke gevolgen van kunstmatige intelligentie.
Het artikel van professor Burton is onlangs gepubliceerd in Elseviers invloedrijke tijdschrift ‘Technology in Society’.
“Kunstmatige intelligentie wordt vaak gezien als een instrument om gewelddadig extremisme tegen te gaan, en dit is de andere kant van het debat”, zei hij.
Dit artikel onderzoekt hoe AI historisch en in de afbeeldingen ervan in de media en de populaire cultuur is gesecuritiseerd, door moderne voorbeelden te onderzoeken van AI met polariserende, radicaliserende effecten die bijdragen aan politiek geweld.
Het artikel citeert de klassieke filmreeks ‘The Terminator’, die een bloedbad laat zien dat wordt aangericht door een ‘verfijnde en wrede’ kunstmatige intelligentie. Meer dan welke andere film dan ook heeft de film het publieke bewustzijn vergroot van kunstmatige intelligentie en de angst dat machinebewustzijn verwoestende gevolgen voor de mensheid zou kunnen hebben – in dit geval een nucleaire oorlog en de doelbewuste poging om een soort uit te roeien.
Professor Burton schrijft: “Wantrouwen jegens machines, de angsten die daarmee gepaard gaan en hun verband met biologische, nucleaire en genetische bedreigingen voor de mensheid hebben ertoe geleid dat regeringen en nationale veiligheidsdiensten de ontwikkeling van de technologie willen beïnvloeden om de risico’s te verminderen en (in sommige gevallen) het positieve potentieel ervan te benutten.”
Professor Burton zei dat geavanceerde drones, zoals die gebruikt in de oorlog in Oekraïne, nu in staat zijn tot volledige autonomie, inclusief mogelijkheden zoals doelherkenning en identificatie. Terwijl landen, waaronder de Verenigde Naties, deelnemen aan een wijdverbreid en invloedrijk debat waarin wordt opgeroepen tot een verbod op ‘killer robots’ en het betrekken van mensen bij beslissingen over leven en dood, gaat de versnelling en integratie van bewapende drones door.
Op het gebied van cyberbeveiliging – de beveiliging van computers en computernetwerken, wordt kunstmatige intelligentie op grote schaal gebruikt, waarbij de meest voorkomende gebieden informatie- en netwerkpsychologische oorlogsvoering zijn.
De acties van de regering-Poetin tegen het Amerikaanse verkiezingsproces in 2016 en het daaropvolgende Cambridge Analytica-schandaal hebben het potentieel aangetoond dat AI kan worden gecombineerd met big data, waaronder sociale media, om politieke effecten te produceren die gericht zijn op polarisatie, het aanmoedigen van radicale overtuigingen en het manipuleren van identiteitsgroepen. Het demonstreerde de kracht en het potentieel van AI om de samenleving te verdelen.
Kunstmatige intelligentie wordt gezien als een positief middel om het virus tijdens de pandemie op te sporen, maar heeft ook aanleiding gegeven tot bezorgdheid over privacy en mensenrechten.
Het artikel bestudeert de kunstmatige intelligentietechnologie zelf en is van mening dat er problemen zijn met het ontwerp van kunstmatige intelligentie, de gegevens waarop deze vertrouwt, hoe deze wordt gebruikt en de resultaten en impact ervan. Aan het einde van het artikel wordt een krachtige boodschap afgegeven aan degenen die betrokken zijn bij onderzoek naar cyberveiligheid en internationale betrekkingen.
Professor Burton, een expert op het gebied van cyberconflicten en opkomende technologieën en lid van het Security and Protective Science-programma van de universiteit, schreef: “Kunstmatige intelligentie heeft het vermogen om de samenleving ongetwijfeld op positieve manieren te transformeren, maar brengt ook risico’s met zich mee die we beter moeten begrijpen en beheersen. Begrijp de verdeeldheid zaaiende aard van deze technologie in alle stadia van de ontwikkeling en het gebruik ervan. De implicaties zijn duidelijk van cruciaal belang. Wetenschappers die werkzaam zijn op het gebied van cyberveiligheid en internationale betrekkingen hebben de mogelijkheid om deze factoren op te nemen in de opkomende AI-onderzoeksagenda en te voorkomen dat AI als een politiek neutrale technologie wordt beschouwd. Met andere woorden: de veiligheid van AI-systemen, en hoe ze kunnen worden gebruikt in internationale geopolitieke strijd, mogen de zorgen over hun sociale impact niet opzijzetten.”
Samengestelde bron: ScitechDaily